lunes, 1 de diciembre de 2008

Sócrates partero

Hace algunos años me encontré con esta descripción de las actividades del gran filósofo Sócrates. Se trata del capítulo 10 del libro "El ojo dindymenio", del escritor cubano Daniel Chavarría. Me gustó tanto que lo he leído a estudiantes en muchos de mis cursos. Aquí lo transcribo esperando lo encuentren interesante:

"En una ocasión, el demonio personal de Sócrates le dijo que aprendiera el arte de su madre para ser más sabio cada día y hacer mejores a los hombres.
¡Por el perro! ¿Cómo podía hacerse más sabio un hombre aprendiendo el oficio de las mujeres? Por mucho tiempo Sócrates buscó en vano un sentido al enigma.
La respuesta llegó un día al salir del mercado. Detenido al pie del templo de Hefestos, se puso a oir a un pitagórico que, en medio de varios discursos, demostraba un teorema trazando líneas en el suelo.
Concluida la demostración, Sóctrates emprendió la marcha, seguido por un esclavo de su padre.
Cuando iniciaban el ascenso por la cuesta de los Odres, el esclavo comentó que nunca entendía lo que decían los geómetras.
Sócrates tuvo la certidumbre opuesta; el muchacho conocía perfectamente lo que acababa de demostrar el pitagórico, pero creía ignorarlo, al revés de lo que creían los falsos sabios de sí mismos.
Eran distintas ignorancias.
En ese instante vio un relámpago en el cielo diurno. No tuvo dudas: un mensaje de lo eterno llegaba a su alma.
Se detuvo. Dio unos pasos con los brazos en jarras mordiéndose los labios. También se detuvo el esclavo y se quedó aguardándolo intrigado.
-Deja la carga misio- le dijo de pronto y se acuclilló con el manto apretado entre las rodillas, para alisar la tierra en un plano de la cuesta. -Busca una vara y ven aquí- ordenó sin mirarlo.
El misio, complacido por el descanso inesperado, consiguió un gajo de mimbre seco que Sócrates recortó. Luego le hizo punta con los dientes.
-Dibuja aquí una raya bien derecha, que tenga el largo de un pie tuyo -dijo Sócrates, entregándole el gajo.
El esclavo estampó su huella, se agachó, trazó la raya y borró el resto.
Sócrates asintió y le pidió otra raya contigua pero con el largo de dos pies; y cuando el esclavo lo hubo dibujado, le hizo la pregunta:
-¿Cuántas veces cabe la línea pequeña en la mayor?
-Dos veces -dijo el esclavo, sonriendo ante la seriedad con la que Sócrates hacía una pregunta tan tonta.
-Muy bien misio -dijo Sócrates-. Ahora, encima de la corta dibuja tres líneas más, también de un pie, para formar un cuadrado. ¿Has entendido?
-Sí, he entendido, oh, hijo de Sofronisco -dijo el esclavo, y se agachó a dibujarlas.
Varios transeúntes y puesteros vecinos, al ver al esclavo midiéndose los pies sobre el suelo y a Sócrates observándolo acuclillado, se detuvieron a curiosear.
Un remendón cargado con una ristra de sandalias sobre el hombro, preguntó socarrón:
-¿Te has metido a pitagórico, excelente Sócrates?
-No, Orestes -se le ocurrió responder- me he metido a partero como mi madre.
Varios circunstantes se hecharon a reír.
-¿Y quién va a parir? ¿El misio ese?
-¡Claro! -respndió Taltibia la verdulera-. Va a parir dos pulgas por el culo.
Así siguieron con pullas y chocarrerías. Sócrates permaneció serio. Tenía conciencia de haber iniciado su primer parto de saber natural: de esos conocimientos no aprendidos, sino instalados por los Dioses Inmortales en el alma de los hombres.
Cuando el esclavo terminó su cuadrado, Sócrates se puso de pie y lo hizo girar hasta quedar de espaldas al dibujo.
-Piensa sin darte prisa. Si contestas bien a mi pregunta ganarás un hemióbolo; pero si te equivocas haré que mi padre de deje sin comida.
Taltibia comentó:
-Si tanto lo amenazas, puede abortar.
Hasta el propio Sócrates soltó una carcajada.
-Pónme atención -dijo por fin; y los del corro oyeron la pregunta como si mucho les fuera en ella-: Imagínate un segundo cuadrado construido sobre la línea que es el doble de la otra. ¿Sería ese cuadrado el doble del que tú hiciste?
El esclavo alzó la cabeza hacia la Acrópolis y cerró los ojos como para invocar a las divinidades residentes.
Sócrates arqueó las cejas y se llevó el índice a los labios para que los del corro no soplaran la respuesta. Muchos contemplaban el trazado o componían figuras con los dedos. Otros se cuchicheaban respuestas al oído.
-Sería más grande que el doble -dijo el misio.
-¿Cuántas veces más grande? -preguntó Sócrates.
-Cuatro veces -dijo el esclavo con temor.
Varios aplaudieron. Sócrates sonrió y al punto le dio un óbolo completo que el misio se echó a la boca.
-Y si los dos cuadrados estuvieran medidos con mis pies, que son más grandes que los tuyos...?
-También serían cuatro -se adelantó la verdulera.
-¿Y si fuera con los pies del Peleida Aquiles?
-¡Cuatro veces! -gritaron voces al unísono.
-¿Podemos decir entonces -preguntó Sócrates-, que siempre que una línea sea el doble de otra, el cuadrado construído sobre ella será el cuádruple del otro.
-¡Sí! -corearon alegremente esclavos y hombres libres.
-Y ahora -dijo Sócrates-, a todos os pregunto: ¿Acaso puse yo algún conocimiento que no estuviera ya en la cabeza de este misio o en las vuestras?
-No -respondió un vendedor de escobas-: pero nos pusiste a pensar con tus preguntas.
-¿Y me has oído dar alguna respuesta?
-No, en verdad.
-¿Podríamos decir entonces que sólo ayudé a este esclavo a sacar conocimientos que ya estaban en él?
-Así fue, ¡Por Heracles!
-Entonces, ¿Puedo afirmar desde hoy que soy partero de almas, como lo es de vientres mi madre Fenareta?
Rió el pueblo de Atenas.
¡Qué ocurrente el hijo de Sofronisco, el escultor!

Leer toda la nota...

lunes, 24 de noviembre de 2008

Mas sobre el negro futuro

Global Trends 2010, 2015 y 2025

El National Intelligence Counsel analiza asuntos de la seguridad nacional de los Estados Unidos y ha realizado en tres ocasiones analises de las tendencias politico-economico-sociales para los proximos ~15 años: esto fue hace años para el 2010, para el 2015 y recientemente para el 2025. Son analises muy interesantes, el primero ya casi se puede leer en retrospectiva, este y los futuros algo preocupantes para México, ya que practicamente no aparece entre las sociedades del futuro. O al menos de las sociedades que le va ir bien.
Entre los indicadores clave están Ciencia y Tecnologia, gobierno, educacón etc.
El reporte para 2025 por primera vez menciona que Estados Unidos quizá ya no será el único lider mundial, esto en todos los aspectos. Como nos irá entonces en México, como apéndice (siempre con mas o menos apendicitis)???
Encuentran estos reportes en
http://www.dni.gov/nic/NIC_2025_project.html

Leer toda la nota...

viernes, 21 de noviembre de 2008

Naturalización de azoteas

Por Paulina Leon

En los últimos años hemos transformado a las ciudades en sitios sombríos, violentos, donde la pobreza y los graves problemas ambientales hacen que estos lugares sean difíciles de habitar.

Una opción viable para reducir esta problemática es la naturalización de nuestras azoteas.

Debido a que la naturación contribuye a mejorar la calidad del aire de las zonas urbanas además de aumentar el nivel de humedad de la atmosfera, produce aislamiento acústico, crea un entorno sano y armónico además de reducir el costo de mantenimiento de las azoteas.

La naturalización de azoteas es un tratamiento vegetativo de las superficies de cualquier inmueble. Consiste en recubrir la superficie con un impermeabilizante plástico para evitar el paso de las raíces y del agua, después se coloca el dren, tipo tezontle para guiar el exceso de agua hacia los desagües. Como sustrato se utilizan materiales ligeros y porosos como la piedra pómez, tezontles y materiales orgánicos que ayudan a retener la humedad. Por último se colocan las plantas.

Uno de los inconvenientes de este tipo de trabajo es que no puede ser realizado por cualquier persona ya que requiere la evaluación estructural del inmueble. Por otro lado, según los especialistas en el tema cualquier techo puede ser candidato a ser naturados.

En la actualidad existen distintos sistemas de naturalización:
1. Naturación extensiva: Utiliza especies de plantas de la región, no requiere de mucho mantenimiento y requiere un techo que soporte de 100 a 110 Kg/m2.
2. Naturación semiextensiva: Combina plantas nativas con plantas de ornato y el techo debe soportar de 100 a 400 Kg/m2.
3. Naturación intensiva: Utiliza plantas de ornato, requiere mantenimiento (riego, fertilización y poda). El techo requiere soportar un peso de más de 500 Kg/m2. Es una buena alternativa como espacio recreativo.
4. Áreas de autoconsumo: Siembra de diversas hortalizas y verduras.

Esto representa una excelente opción para aprovechar los espacios no utilizados donde podrás sentarte a descansar y disfrutar de la naturaleza.

Leer toda la nota...

lunes, 10 de noviembre de 2008

La energía desde el punto de vista económico como ambiental

Por: Paulina Patiño.

Un tema actual de gran interés social es la energía desde el punto de vista económico como ambiental. Un claro ejemplo día a día es el consumo de gasolina en los automóviles ya sea por su alto costo así como por las emisiones de CO2.

En México el Gobierno Federal en sus secretarias SEMARNAT (Secretaria del Medio Ambiente y Recursos Naturales), SENER (Secretaria de Energía) y SE (Secretaria de Economía); junto con PROFEPA (Procuraduría Federal de Protección al Ambiente) CONAE (Comisión Nacional para el Ahorro de Energía) han desarrollado un Portal de Indicadores de Eficiencia Energética y Emisiones Vehiculares.

El portal proporciona información referente al rendimiento (km/litro de gasolina) y emisiones de CO2 (gr/km) de acuerdo a las características del vehículo y proporciona una calificación.

El portal esta organizado por:
1.- Calificaciones de emisiones: información del vehículo según las calificaciones, vehículos que tienen la mayor calificación.
2.- Modelo y marca: información del rendimiento y emisión del vehículo según fabricantes, marca, tipo y modelo (año).
3.- Clase de automóvil: información del rendimiento y emisión del vehículo de diferentes fabricantes, marcas de vehículos según el tipo (compactos, deportivos, camionetas, etc).
4.- Gasto anual estimado de combustible: información del gasto anual por consumo de diferentes vehículos. El Gasto Anual Estimado de Combustible se calcula considerando 15,000 kilómetros recorridos al año en condiciones de manejo en ciudad, considerando combustible de tipo PREMIUM a un precio promedio de $9.50 pesos por litro (precio actualizado al 04-NOV-08).

La dirección de la pagina es la siguiente:
http://www.ecovehiculos.gob.mx/index.php

Leer toda la nota...

Sobre las causas de la crisis alimentaria mundial

Por: Nestor Luque Vergara

Las explicaciones que se dan sobre la crisis alimentaria son falsas. El consumo de chinos e indios es una ellas, que de tanto repetirlas terminan siendo una evidencia. Lo importante es identificar las verdaderas causas y los auténticos responsables.

En su informe anual publicado en junio de 2008, el muy serio Banco de Pagos Internacionales (BPI) retoma la fábula de la evolución del consumo de los chinos y de otras economías emergentes. El BPI quiere conducir al público a una pista falsa con el objetivo de esconder, por una parte, la responsabilidad de los gobiernos del Norte y de las empresas transnacionales del Agribusiness, que han aumentado muchísimo la producción de agrocombustibles, y, por otra parte, la responsabilidad de los grandes grupos financieros que especulan en la Bolsa sobre los productos alimentarios. Los autores del informe del BPI tratan de dar una apariencia científica a su explicación.

¿Cuál es la causa principal del aumento del precio de los alimentos según el BPI? «Tratándose de recursos alimentarios, el fuerte crecimiento del PIB de las economías emergentes en estos últimos años ha elevado la demanda. Los cambios estructurales acentuaron esta tendencia. Por ejemplo, el aumento del ingreso por habitante, especialmente en China, produjo un aumento de la demanda de cereales, especialmente para alimentar al ganado. Según las estimaciones de la Organización de las Naciones Unidas para la alimentación y la agricultura (FAO), el consumo de cereales por habitante en los países en desarrollo (PED) aumentó el 20 % entre 1962 y 2003, mientras que el de carne se triplicaba. La incidencia de la demanda sobre el precio de los cereales está amplificada debido a que, según ciertas estimaciones, es necesario de 2 a 5 veces más cereales, a igualdad de calorías, para producir carne. En el año 2002, cerca de un tercio de la producción mundial de cereales se utilizó para la alimentación de los animales destinados al matadero.»

Esta explicación tiene una pretensión científica y apela al sentido común. El razonamiento es el siguiente: el consumo de los habitantes de los países en desarrollo (PED) ha aumentado muchísimo, comen cada vez más carne, por lo tanto los precios han aumentado. Pero hay una dificultad: ¿Cómo se explica que este fuerte aumento de precios no se produzca hasta los años 2007-2008, cuando el consumo de los PED está creciendo desde hace 40 años? En realidad, el precio de los alimentos bajó a lo largo de los años ochenta y noventa. Y continuó bajando entre 1998 y 2002, aumentó un poco en 2002-2004, para descender de nuevo en 2005-2006. Después de la cosecha de 2006, el precio de los alimentos en el mercado mundial era igual al que tenían en 1998, muy inferior al precio de la década del setenta. En 2008, en dólar constante, el precio de los alimentos continúa siendo inferior al máximo alcanzado a fines de los años setenta. Ahora bien, lo que hay que explicar es la explosión de los precios en 2007 y 2008. La argumentación dada por el BPI no tiene nada que ver con las causas reales que la provocaron. Como dice Jacques Berthelot: «el crecimiento del consumo de productos alimentarios, ligado al rápido aumento del nivel de vida de los países emergentes, como China y la India, [...] es una tendencia que se viene produciendo desde hace muchos años y no se la puede responsabilizar del aumento desmesurado de los precios agrícolas en estos dos últimos años». Por otra parte, Berthelot también señala que el precio del arroz se mantuvo estable hasta octubre de 2007. Pero entre octubre 2007 y mayo 2008 se multiplicó por tres.

He aquí una explicación que consideramos la más apropiada y que se ha dividido en tres puntos:

Primero: Ante un precio de los cereales históricamente bajo hasta 2005, las grandes compañías privadas de agrobusiness consiguieron que los gobiernos de Estados Unidos y de la Unión Europea subvencionaran la industria de los «agrocombustibles» . Estas grandes empresas querían ganar en dos frentes: por un lado, vender sus cereales y otros productos agrícolas más caros y por otro, rentabilizar la producción de agrocombustibles. Y tuvieron éxito.

¿Cómo actuaron? Se basaron en la siguiente hipótesis: lo que el petróleo impedirá realizar de aquí a unas décadas (debido a la reducción de las reservas disponibles), la soja, la remolacha (convertidas en biodiesel), los cereales y la caña de azúcar (transformados en etanol) deberán estar en condiciones de permitirlo. Por lo tanto, pidieron a las autoridades públicas que asignaran subvenciones para que la onerosa producción de agrocombustibles se volviera rentable. Washington, la Comisión Europea en Bruselas y otras capitales europeas aceptaron la demanda con el pretexto de garantizar la seguridad energética de sus países o regiones. Los lobbies pro agrocombustibles convencieron a los gobiernos de que utilicen el falso argumento de que estos combustibles, al contrario que los hidrocarburos, tienen un impacto positivo sobre el medio ambiente.

Esta política de subvenciones desvió hacia la industria de los agrocombustibles grandes cantidades de productos agrícolas esenciales para la alimentación. Por ejemplo 100 millones de toneladas de cereales se excluyeron del sector alimentario en 2007. Así mismo algunas tierras destinadas a la producción de alimentos se reconvirtieron en tierras de cultivo de agrocombustibles. Esto hace disminuir la oferta de productos alimentarios y produce el aumento de precios. Resumiendo, para satisfacer los intereses de las grandes sociedades privadas que quieren desarrollar la producción de agrocombustibles, se decidió confiscar algunos productos agrícolas que el mundo necesita para alimentarse. Es necesario señalar que el BPI, en su informe ya citado, sostiene que las subvenciones públicas para la producción de agrocombustibles no ocupan un puesto importante entre las causas del alza de precios de los alimentos.

Segundo: La especulación sobre los productos agrícolas ha sido muy fuerte en 2007 y 2008, acentuando un fenómeno que comenzó a principios de la década del 2000, después del estallido de la burbuja de internet. Tras la crisis de las subprimes que se desencadenó en Estados Unidos durante el verano de 2007, los inversores institucionales se retiraron progresivamente del mercado de las deudas construido de manera especulativa a partir del sector inmobiliario estadounidense y se fijaron en el sector de los productos agrícolas e hidrocarburos como un mercado que podría darles interesantes beneficios. Por lo tanto, se dedicaron a comprar las cosechas futuras de productos agrícolas en la Bolsa de Chicago, en la de Kansas City y en la de Minneapolis, que son los principales mercados mundiales donde se comercia con cereales. En forma similar, en otras Bolsas de productos primarios compraron la producción futura de petróleo y de gas, especulando con la subida de sus precios.

Tercero: Los países en desarrollo están especialmente desprotegidos ante esta crisis alimentaria puesto que las políticas impuestas por el FMI y el Banco Mundial desde la crisis de la deuda los han privado de una protección imprescindible: reducción de las superficies destinadas a los cultivos de hortalizas y especialización en uno o dos productos de exportación, desaparición de los sistemas de estabilización de precios, abandono de la autosuficiencia en cereales, reducción de las reservas de cereales, debilitamiento de las economías debido a una extrema dependencia de la evolución de los mercados mundiales, fuerte reducción de los presupuestos sociales, supresión de las subvenciones a los productos de base, apertura de los mercados y la exposición de los pequeños productores locales a la competencia desleal de las grandes transnacionales, etc.

China y la India no son responsables del aumento exorbitante del precio de los alimentos.

China y la India exportan más alimentos que lo que importan. Jacques Berthelot demuestra con cifras que China continúa siendo exportadora neta de cereales (trigo, maíz, arroz) y de carne. Lo mismo pasa con la India. Los indios son exportadores netos de alimentos desde 1995. Por lo tanto estos dos países no son los que provocaron el aumento del precio de los alimentos en el mercado mundial.

Ante la falta de evidencias de la responsabilidad de los chinos, la prensa comienza a cambiar sus argumentos

El 19 de agosto de 2008, el diario financiero francés Les Echos titulaba un artículo de la siguiente manera: «Alza de precios de los alimentos: China es declarada no culpable». A partir de estadísticas de la OCDE y de un estudio de un investigador estadounidense publicado por el Departamento de Agricultura de Estados Unidos, el diario francés afirma que los chinos son autosuficientes, en especial, en cuanto a los cereales. Por su parte, el semanario neoliberal británico The Economist en su edición del 16 de agosto de 2008 realizó la proeza de, en un mismo párrafo, afirmar una cosa y su contraria: «Se puede decir que la gran demanda china de alimentos y energía hace crecer los precios mundiales de las materias primas». Algunas líneas más abajo, el editorial de The Economist continúa: «Y la producción de alimentos en China ha crecido en forma más rápida que el consumo en los últimos años. En tanto que exportadora neta, pequeña pero en aumento, de trigo, maíz y arroz, China tiene un papel en la moderación de los precios mundiales de los cereales». ¡Qué extraordinaria pirueta!

La política desarrollada por los gobiernos de Estados Unidos y de la Unión Europea es la principal responsable de la crisis alimentaria mundial.

Mientras que China y la India exportan más alimentos que lo que importan, Estados Unidos y la Unión Europea se encuentran en la situación contraria. Durante los años 2006 y 2007, Estados Unidos fue importador neto de alimentos. Es la misma situación que la Unión Europea, que se coloca en la 3ª posición mundial en la lista de importadores netos de cereales (después de Japón y México). Por lo tanto, es la demanda que viene de Estados Unidos y de la UE la que provoca un aumento de los precios de los alimentos.

Pero, concretamente, ¿por qué Estados Unidos y la UE son responsables de la explosión de los precios de los productos alimentarios primarios?

En primer lugar, se debe tener en cuenta que Estados Unidos tiene un papel determinante en la fijación del precio de los cereales, oleaginosas y proteaginosas, ya que los otros países exportadores adaptan sus precios en función de la cotización en las Bolsas de Chicago, Kansas City y Minneapolis. Por otra parte, el aumento del precio de estos productos se traduce en un aumento del precio de la carne, puesto que la crianza del ganado se basa en estos alimentos.

Dos factores fundamentales que dependen directamente de Estados Unidos y de la Unión Europea entran en juego en el brutal aumento del precio de las materias primas alimentarias en el período 2006-2008.

El primero es el fuerte incremento de la producción de agrocombustibles en Estados Unidos y en Europa. El segundo es la formidable especulación sobre el precio de estos productos (y sobre los hidrocarburos) en las Bolsas.

Referencia
www.cadtm.org

Leer toda la nota...

domingo, 9 de noviembre de 2008

LA REFORMA ENERGETICA EN MÉXICO

Por: Miguel Alejandro Glz.

Hace unas semanas, México concreto la reforma energética, el senado mexicano aprobó este proyecto con el afán de revertir la caída en la producción petrolera. También la comisión de energía de la cámara de diputados aprobó esta polémica reforma.
El proyecto de reforma energética ha sido causante de múltiples protestas en México ya que se ve involucrado PEMEX.

No está de más recordar que el sector petrolero pertenece al estado mexicano desde su nacionalización en 1938, y es para México la fuente principal de ingresos, y a su vez uno de los mayores proveedores de crudo de Estados Unidos.
¿Pero en qué consiste este proyecto tan polémico?
Este consta de 7 iniciativas, entre las que destaca la posibilidad de que empresas extranjeras puedan explorar y extraer petróleo en territorio mexicano.
Con el proyecto de reforma, el Senado aprobó también mayores potestades para el regulador del sector, la creación de tres organismos, que son para: establecer la política energética, asegurar la recuperación de reservas y los planes de exploración, y para asegurar el uso eficiente de la energía.
Los puntos de la ley de reforma energética que resultan más complicados, son el artículo 60, ya que dejaría la puerta abierta al robo del sector empresarial, porque entregará contratos de exploración para bloques o áreas exclusivas. Los artículos 47 y 48 de la misma ley que permite a los mexicanos comprar bonos de la paraestatal, también fueron trabajosamente criticados. Todos estos artículos fueron aprobados en el Senado mexicano y ya han tenido el visto bueno de la comisión de Energía en la cámara de Diputados mexicana.
Por otro lado, mientras las quejas eran cada vez más, Felipe Calderón aplaudía la aprobación en el Senado y fortificaba su acción publicitaria diciendo: “El objetivo de la reforma siempre fue y ha sido ampliar la riqueza petrolera del país en beneficio de los mexicanos. En la medida en que esta reforma logre su objetivo, es claro que podemos hablar de una reforma exitosa. Otro objetivo fue mantener a Pemex y a nuestro petróleo en manos de los mexicanos y exclusivamente de los mexicanos. Ese objetivo también se ha cumplido”.
¿La reforma energética realmente tendrá un efecto positivo en México? La reforma energética aparece como una necesidad en momentos en que nuestro país se encuentra imposibilitado de llevar adelante acciones para recuperar la capacidad de exploración y explotación de hidrocarburos de PEMEX.
La reforma energética si está realmente se lleva a cabo al pie de la letra, tal vez sea el parte aguas y represente un nuevo futuro más prospero para la economía mexicana. Por lo tanto esta debe estar bien planteada y tratar de cubrir todos los puntos para la cual fue creada.

Leer toda la nota...

jueves, 6 de noviembre de 2008

CREACIÓN DE LA AGENCIA ESPACIAL MEXICANA

Por: Rebeca López Montes

Después de varios años de trabajo realizado por diversas personas encabezadas por el Ing. Fernando de la Peña Llaca, el pasado 4 de noviembre del presente año se logro que el Senado de la República aprobara la creación de la Agencia Espacial Mexicana (AEXA); que se encargara de proponer y ejecutar la política espacial en México.

La AEXA será un organismo público descentralizado, con personalidad jurídica, patrimonio propio y autonomía técnica y de gestión, que formará parte de la Secretaría de Comunicaciones y Transportes. Estará integrada por 15 miembros, presididos por el Secretario de Comunicaciones y formarán parte de ella las secretarías de Gobernación, Relaciones Exteriores, Educación Pública, Hacienda, Defensa Nacional y Marina.

Así como, el titular del CONACyT, el rector de la UNAM, el director del IPN y los presidentes de la Academia Mexicana de las Ciencias, de la Academia de Ingeniería y de la Academia Nacional de Medicina.
Con esto se buscara una relación de cooperación con otras agencias espaciales, que lleven en un mediano plazo a la integración de la AEXA a la “Comunidad Espacial Internacional” y fomentar el crecimiento de la actividad científica en México.

Actualmente esta comunidad está integrada por 43 países que cuentan con una agencia espacial. Ser parte de esta comunidad les permite estar dentro de una red de intercambio permanente de información científica y tecnológica, así como oportunidades económicas y de intercambio académico para la formación de personal altamente calificado.

Por lo tanto la creación de la AEXA es un primer gran paso para el avance científico y tecnológico en México y que sin duda retribuirá de manera económica al país, con el desarrollo y aplicación de nuevas tecnologías.
Aunque para esto queda un largo camino que recorrer, sin duda estará lleno de nuevas experiencias y satisfacciones que nos permitirán ser parte de la formación de un nuevo México de vanguardia y competitivo que podamos heredar a las nuevas generaciones.

Leer toda la nota...

sábado, 1 de noviembre de 2008

¿Cual será el futuro de la ciencia?

¿Es posible que la ciencia y la tecnología lleguen a alcanzar un estado final y estacionario? Históricamente ha habido avances tecnológicos e incluso retrocesos como durante el oscurantismo. Un avance tecnológico se ve reflejado en un respectivo crecimiento poblacional, sin embargo no hay indicio de que el desarrollo científico y tecnológico se vaya a frenar y a detenerse en un futuro próximo. La poblacion seguirá creciendo exponencialmente de forma que en el 2600 la población se estará tocando hombro con hombro.


El crecimiento poblacional no es indefinido ya que existiría la posibilidad de autodestruirnos, sin embargo una pregunta de interés es si en un futuro, donde el conocimiento alcance un nivel avanzado pero estático, ¿podría ser posible el desarrollo de una teoría unificada que controlara todos los procesos físicos?

Durante el proceso de replicación del ADN se producen algunos errores que ocasionan que el nuevo ADN sea incapaz o menos capaz de auto reproducirse. Estos errores genéticos o mutaciones están llamados a desaparecer, sin embargo, puede ocurrir que esta mutación aumente las posibilidades de supervivencia y reproducción del ADN. En los últimos diez mil años no ha habido cambios importantes en el ADN humano, pero es probable que podamos rediseñarlo en los próximos mil años.

La transmisión de datos a través de medios externos no biológicos, ha llevado a la especie humana a “dominar el mundo” y tener nuestra población exponencialmente creciente.
Es necesario que el ser humano mejore sus cualidades mentales y físicas si tiene que tratar con un mundo crecientemente complicado. Por ejemplo, una computadora tiene la ventaja de la rapidez, pero aún no muestran señales de inteligencia. Las computadoras siguen un crecimiento predicho por la ley de Moore (su velocidad y complejidad se duplican cada dieciocho meses) y dicho crecimiento exponencial no podrá seguir indefinidamente. ¿Existirá un límite natural para estos crecimientos biológico y electrónico?

En biología, se menciona que el crecimiento del tamaño del cerebro estaría restringido por el problema de que los mensajeros químicos del cuerpo responsables de nuestra actividad mental (ya que son relativamente lentos) y por aumentos en la complejidad del cerebro. Es decir podremos ser muy rápidos o muy inteligentes pero no ambos.

En la electrónica, un límite es la velocidad de la luz, aunque se propagan muy rápido no será mayor. Se podrá mejorar la electrónica actual construyendo elementos electrónicos más pequeños, pero para eso queda un buen trecho de camino por recorrer.

¿Podría estar el futuro de la ciencia en un rápido desarrollo en complejidad biológica y electrónica?

Bibliografía.

Capítulo VI. El universo en una cáscara de Nuez
Hawking, Stephen W.

Leer toda la nota...

Perturbaciones en la ionosfera, el clima espacial y la sociedad

La ionosfera es la capa más externa de la atmósfera de la Tierra. Deriva su nombre del hecho de que la radiación electromagnética del Sol incide sobre las componentes de esta región de la atmósfera y rompe átomos y moléculas dejando iones positivos y electrones libres. Este gas ionizado o plasma es capaz de interactuar con algunas ondas electromagnéticas, como las ondas de radio de onda corta, por lo que en el pasado la ionosfera se ha utilizado para las comunicaciones a grandes distancias. En la actualidad, gracias a la tecnología espacial, las comunicaciones se realizan por medio de satélites que utilizan microondas, para las cuales la ionosfera es básicamente transparente.

Además de satélites de telecomunicaciones para telefonía y televisión, por ejemplo, existen otros como los que miden todo tipo de parámetros terrestres como los meteorológicos; de investigación del ambiente espacial, de astronomía, y los de posicionamiento global. Todos ellos envían la información obtenida utilizando las microondas por lo que es muy importante que puedan llegar a los receptores en tierra sin mayor perturbación. Desafortunadamente este no es siempre el caso porque cuando hay actividad solar importante, como tormentas geomagnéticas, el contenido de electrones en la ionosfera se puede alterar, lo que ocasiona que la radiación de microondas sufra desviaciones que involucran problemas en el registro de la información y su envío a tierra. Así mismo, la navegación de barcos y aviones, que cada vez más utiliza los sistemas GPS, resulta imposible en presencia de una tormenta geomagnética, debido al nivel de error introducido. Por todo esto, el monitoreo ionosférico es de suma importancia para todo este tipo de tecnología.
Para nosotros que realizamos mediciones de centelleo interplanetario (IPS) con el radiotelescopio de Centelleo Interplanetaro MEXART, en Coeneo, Michoacán, con el fin de monitorear el clima espacial y pronosticar grandes tormentas geomagnéticas, es muy importante discriminar las perturbaciones producidas por grandes masas que se mueven en el espacio y cuyo origen es el Sol, de aquellas que son también de origen solar pero que ocurren directamente en la ionosfera, afectando sensiblemente nuestros resutados. Por otro lado, en el Observatorio de Geolectromagnetismo, en Juriquilla, Querétaro, así como en otros sitios como fallas geológicas y en las inmediaciones del volcanes como el Popocatepetl, detectamos señales magnéticas de ULF y radón, por lo que también es muy importante discriminar las de origen solar de aquellas que pudieran estarse generando por actividad de tipo tectónico.
El grado de perturbación de la ionosfera está dado por la concentración total de electrones, o TEC, por sus siglas en inglés, las cuales tienen su origen en la actividad solar. El TEC puede ser obtenido con dispositivos GPS de buena resolución, lo que permite caracterizar la ionosfera sobre dichos observatorios utilizando el programa IRI (International Reference Ionosphere) el modelo ionosférico empírico más ampliamente utilizado, y estándar para la comunidad de ciencia espacial, desarrollado bajo los auspicios de COSPAR (Comité para la Investigación Espaical), y el modelo de asimilación de datos MAGIC, de la Universidad de Colorado, en Boulder. Gracias a ello, es posible filtrar o analizar las señales de IPS, magnetómetros de ULF y emisión de gas radón y rayos gamma, considerando las perturbaciones ionosféricas.
En fin que la ionosfera constituye un laboratorio fundamental que tiene un impacto determinante para estudios de clima espacial, para la tecnología tanto espacial como terrestre, y para la sociedad que depende cada vez más de ellas para su desarrollo.

Leer toda la nota...

miércoles, 8 de octubre de 2008

¿Estamos aprovechando la capacidad de cómputo actualmente a nuestro alcance?


















 

Imágenes de 
http://archive.computerhistory.org/resources/still-image/IBM/IBM_360/

Cuando inicié mis estudios en la Facultad de Ingeniería de la UNAM, allá por el 75, la posibilidad
de aprender un lenguaje de computación y de aplicarlo o al menos de correr un programa, se daba únicamente a través del sistema IBM 360 de la propia Facultad (foto 3). Este tipo de computadora era uno de los sistemas más sofisticados de aquella época, pero estaba la salvedad de que la teníamos que compartir con TODO el personal académico y estudiantes (algo así como 3,000 personas). A un sistema que se comparte por el personal de alguna organización se le denomina "mainframe" (marco principal, o gabinete principal) debido al tipo de gabinete de la IBM 360. Este nombre todavía se usa para los sistemas de gran demanda de cómputo, compartidos por muchos usuarios, que son compatibles con el viejo sistema 360. Otros sistemas actuales similares no compatibles con el 360 serían los "servers", las "supercomputadoras", e incluso los sistemas de cómputo en paralelo.
Volviendo al caso de la vieja 360, para poder correr un programa, ya sea que nosotros lo hubiéramos escrito o que lo hubiéramos conseguido de alguna manera, requeríamos de una lectora de tarjetas perforadas. Claro está que antes de esto teníamos que PERFORAR las tarjetas en otra máquina (perforadora, foto 2). Posteriormente le entregábamos el paquete de tarjetas, previamente atadas con una liga (o si el programa constaba de muchas "líneas" se requería una caja) al operador de entrada que las alimentaba a una "lectora de tarjetas". Cabe mencionar la posibilidad de que se rompiera la liga o tuviéramos un percance con la caja, lo cual invariablemente llevaba a tener que recoger y reorganizar las tarjetas (si es que era prácticamente posible). Finalmente teníamos que esperar al día siguiente a que nos entregaran la "salida" impresa, la cual frecuentemente constaba de un encabezado que tomaba toda una hoja (ia identificación del usuario y la máquina) y un par de líneas como las siguientes.

********************************************************************************

Hago énfasis en que no teníamos una interfase directa con el sistema.
Al correr el tiempo me involucré en investigación en los Institutos de Ingeniería y de Geofísica y ahí tuve la oportunidad de usar la computadora más poderosa de la UNAM, el sistema Burroughs del IIMAS la cual tenía la novedad para nosotros de que nos podíamos sentar frente a un "teletipo" (una especie de máquina de escribir de tamaño de un pequeño piano eléctrico, ver foto 3) y escribir comandos directamente al sistema donde podíamos esperar un par de segundos y "ver la respuesta" en la hoja de papel enfrente a nosotros. Una terminal era casi impensable, aunque llegó su hora poco después. Durante mis estudios de posgrado en la Universidad de Colorado, tuve oportunidad de usar otros "mainframes" (de mayor capacidad de cómputo) tales como VAX, PDP y otros, los cuales requerían de mantenimiento constante a los discos duros (foto 4), lectoras de cinta magnética e impresoras. Las interfases de entrada seguían siendo los teletipos y las terminales, aunque éstas últimas no tenían la posibilidad de graficar por lo que recurríamos a otro tipo de interfase (llamada Tektronix que era un tipo de monitor de rayos catódicos, ver foto 1).
Todo este preámbulo me lleva a considerar si le estamos sacando todo el provecho que podríamos a los recursos que tenemos en la actualidad. En esos tiempos nos deteníamos con varios intentos sólo porque no disponíamos de dónde almacenar datos o resultados. Hoy en día podemos disponer de Terabytes. Sólo les quiero dejar la pregunta en el aire como"pan para la mente". Y finalizo con algunos datos sobre la computadora que ayudó a llevar al hombre a la luna durante el proyecto Apollo de la NASA, uno de los modelos del sistema IBM 360, la cual palidece de forma abrumadora ante un ..... ¡IPOD!.

Announced January 18, 1966 and withdrawn February 20, 1967.
The following is the text of an IBM Data Processing Division press backgrounder distributed on January 16, 1968.
The IBM System/360 Model 91 at NASA's Goddard Space Flight Center here, is the fastest, most powerful computer now in user operation.
It is specifically designed to handle ultra-high-speed data processing for scientific applications such as space exploration, theoretical astromony, sub-atomic physics and global weather forecasting.
The Model 91's immense computing power results from a combination of several key factors, including:

  1. Advanced circuits that switch in billionths of a second;
  2. High-density circuit packaging techniques; and
  3. A high degree of concurrency, or parallel operations.
The Model 91 CPU cycle time is 60 nanoseconds. This is the time it takes to perform a basic processing operation. Its memory cycle time - - the time it takes to fetch and store eight bytes of data in parallel -- is 780 nanoseconds.
The main memory, however, is organized into 16 interleaved elements, so that the CPU may start a memory cycle with a different element every 60 nanoseconds instead of waiting the full 780 nanoseconds. This means that the CPU will rarely get a "busy signal" from the memory, and few machine cycles are wasted waiting for data.
The NASA Model 91 operates with 2,097,152 bytes of main memory interleaved 16 ways. Model 91s can accommodate up to 6,291,496 bytes (6 Mb, ¡¡¡wow!!!) of main storage.
In addition to main memory, NASA's Model 91 can store over 300 million characters (300 Mb, si se usa 1 byte por caracter ¡¡¡Caramba!!!) in two IBM 2301 drum and IBM 2314 direct access storage units. It also has 12 IBM 2404 magnetic tape units for data analysis applications, such as the processing of meteorlogical information relayed from satellites. Three IBM 1403 printers give the system a 3,300-line a-minute printing capability. Punched card input/output is provided through an IBM 2540 card read punch.

Leer toda la nota...

lunes, 22 de septiembre de 2008

El Impacto del Espacio en la Sociedad

En julio pasado asistí en Monreal, Canadá, a la 37ava Asamblea
General del Comité para Ciencia Espacial (COSPAR). Aunque he
paticipado en otras muchas de estas asambleas, y he constatado la
diversidad de disciplinas que abarca esta organización, nunca como ahora me di
cuenta de que gran parte de los participantes de todo el mundo
pertenecen a disciplinas muy alejadas de la mía, como la
exobiología, la medicina espacial, la astronomía, los rayos
cósmicos, la planetolgía la meteorología, la ecología, la
oceanoloía, la geofísica y la geología. La
delegación mexicana fue numerosa pero prácticamente todos eramos
de la rama de la física espacial. Y más me impactó este hecho
después de escuchar varias pláticas interdisciplinarias que me
hicieron preguntarme por qué Mexico parece estar ausente de este evento
tan importante, en otras áreas del conocimiento. Quizá la Conferencia de Len Fisk como las pláticas sobre los satélites
que "miran" continuamente a la Tierra en diferentes longitudes de onda,
tienen un poco la culpa.
Tuve la suerte de recibir el texto de la conferencia Impacto del Espacio en la Sociedad, Conferencia conmemorativa en la Asamblea General del Comité para la
Ciencia Espacial (COSPAR) en Montreal, Canadá, el 14 de julio de
2008, con motivo del 50 aniversario del COSPAR, por L. A. Fisk
Universidad de Michigan, EUA.
Los invito a leerla porque es sumamente ilustrativa del papel que ha jugado la ciencia espacial en la ciencia y la tecnología no sólo en Estados Unidos sino a nivel mundial.
Román

Leer toda la nota...

sábado, 13 de septiembre de 2008

¿Que tan Falseable es la Ciencia?

ANÁLISIS DE LOS ARTICULOS:
Unified Scaling Law for Earthquakes (Bak, P., 2002).
Interevent Time Distribution in Seismicity: A Theoretical Approach (Molchan, G., 2005).
Theory of Earthquake recurrence times (Saichev, A. and Sornette D., 2006).

Angel Figueroa Soto

Se ha estipulado que la ciencia es una prueba para poder confiar en determinados productos, teorías o afirmaciones; ¿Quien de nosotros no ha pensado que un producto o un artículo científico es mejor si esta “probado” o aprobado científicamente? Sin embargo la ciencia como invento para explicar lo observado en la naturaleza, no es una verdad absoluta. Al contrastar una teoría a la experimentación (falsear) puede llegar a colocarse como una ley o ser desechada.

Aquellas teorías que no son reproducibles total o parcialmente durante la experimentación, muestran de que están hechas, llegando a desenmascarar las omisiones o hipótesis que el investigador realizó para formularla. Como ejemplos tradicionales podemos encontrar los experimentos de Robert Millikan (1913) para mostrar que la carga del electrón esta cuantizada, o los experimentos de Fleischmann y Pons (1989) para demostrar la fusión en frío. En ambos casos la experimentación posterior permitió descubrir las omisiones o fraudes que los autores realizaron para publicar ciencia o ganar el premio Nobel.

Dejando atrás este tipo de hechos lamentables, que están en función del fenómeno “publica o muere”, considero de manera muy personal, que una teoría tiene una mayor aceptación si logra superar pruebas que atenten contra su validez. Como un ejemplo de esto, analicemos el caso de la búsqueda de leyes universales en sismología, mediante distribuciones de tiempo inter sísmicos.

El análisis de distribuciones de tiempo entre sismos consecutivos ha sido estudiado analizando distribuciones de densidad de probabilidad (Molchan, 2005) y ha sido motivo de desarrollos de leyes unificadas o universales (Bak P., et al., 2002)⁠.

Bak (2002) propone el descubrimiento de una ley de escalamiento unificada para tiempos entre sismos consecutivos, que no dependería del intervalo de tiempo. Mediante el uso de la teoría para procesos críticamente auto organizados, concluye que la estadística de réplicas que ocurren en minutos o días, se puede relacionar a la estadística de sismos separados por decenas de años. Esto tiene como implicación que no hay una escala de tiempo que juegue un papel importante en el proceso de generación de sismos.

Ante esta publicación (Molchan, 2005)⁠ hace un desarrollo a partir del aparente descubrimiento de Per Bak. Para esto utiliza procesos estadísticos de tipo estacionarios y demuestra que la ley de escalamiento unificada de Bak puede existir bajo condiciones no realistas de tasas de sismicidad homogéneas.

Tiempo después, (Saichev A. and Sornette, D., 2006) desarrollan una teoría matemática para falsar lo argumentado por Bak y Molchan. La principal conclusión de este ultimo trabajo es argumentar que las leyes de escalamiento universal de tiempo inter sismos no podría ser una ley universal, ya que no revelarían mas información que la que está implícita en las leyes conocidas en sismología: Gutenberg-Richter, Omori-Utsu.

Este proceso que va desde la publicación de la teoría y sus posteriores procesos para desmentirla, constituiría una verdadera forma de hacer ciencia. Es en este proceso donde se puede estar expuesto a practicas equivocadas o a interpretaciones y/o conclusiones incorrectas.

Si se pudiera estar mas abierto a la crítica constructiva, estas practicas de falsar una teoría no sería visto como una forma de “desmentir o validar una teoría”, sino como un proceso donde una teoría se ajusta mejor que otra a lo que percibimos.


Referencias

Bak, P. et al., 2002. Unified Scaling Law for Earthquakes. Physical Review Letters, 88(17), 178501.

Hainzl, S., Scherbaum, F. & Beauval, C., 2006. Estimating Background Activity Based on Interevent-Time Distribution. Bulletin of the Seismological Society of America, 96(1), 313-320.

Molchan, G., 2005. Interevent Time Distribution in Seismicity: A Theoretical Approach. Pure and Applied Geophysics, 162(6), 1135-1150.

Saichev, A. & Sornette, D., 2006. Theory of Earthquake Recurrence Times. physics/0606001. Available at: http://arxiv.org/abs/physics/0606001 [Accessed September 9, 2008].

Leer toda la nota...

lunes, 8 de septiembre de 2008

¿Cuál es correcto "The Data is" o "The Data are"?

Un asunto que nos da problemas a muchos de los que necesitamos escribir en inglés para difundir nuestros resultados a la comunidad internacional es el uso de los nombres en plural que provienen del Latín. En esta contribución intentaremos abrir el tema con algunos de los casos más comunes incluyendo sugerencias tomadas de varias fuentes.

El problema del uso en Inglés de palabras en plural provenientes del Latín no es exclusivo a aquellos quienes su lengua materna no es el Inglés. Un rápido vistazo a internet nos lleva a encontrar algunas ligas de habla inglesa en donde se trata de exclarecer el asunto.
Tal es el caso de la palabra "data" que es el plural de "datum". En lo personal, siempre he tenido dudas de si es adecuado decir "The data was collected", en lugar de "The data were collected" porque me he topado con ambos usos en trabajos publicados.
El problema según muchos se reduce a que, como la palabra es plural, es necesario emplearla en la misma forma que otras palabras que denotan un conjunto, tal como "people". Por eso no diríamos "Those people is nice" sino "Those people are nice".

Sin embargo, esto nos causa mayores problemas a quienes hablamos una lengua romance porque el uso de las palabras es diferente. En Español es correcto decir "La gente es buena" y no decimos "La gente son buenas" (claro que esto último alternativamente se podría decir "Las personas son buenas"). Astutamente evitamos el problema de la palabra "datum" empleando nuestra forma de "dato y datos".
Hay varias opiniones de que el uso de "data" en Inglés se ha "americanizado" y denota un conjunto que puede ser empleado en singular. Un ejemplo de éste último caso lo conforma la palabra "agenda" que originalmente es plural (conjunto de acciones (cada una es un "agendum" por llevar a cabo) y que actualmente se emplea en el singular (nunca escuchamos: "the agenda of the day are...").

Según parece, entonces no es un error tan grave usar la palabra "data" como singular. Sin embargo, si queremos evitar problemas con los correctores de estilo de algunas revistas científicas, es mejor ceñirnos a decir " The data were collected...".

Algunas referencias
http://www.gi.alaska.edu/ScienceForum/ASF3/334.html
http://www.johntcullen.com/sharpwriter/content/data_is.htm
http://www.wfu.edu/biology/albatross/dataare.htm

Leer toda la nota...

sábado, 6 de septiembre de 2008

Hallan gen clave para vacuna contra el sida


Washington, 4 de septiembre. El hallazgo de un gen que juega un papel clave en la producción de anticuerpos que neutralizan los retrovirus podría abrir el camino a una vacuna contra el sida, según prometedores trabajos divulgados el jueves en Estados Unidos.

Este hallazgo casual realizado en ratones podría también explicar por qué algunas personas expuestas al VIH (virus de inmunodeficiencia humana), causante del sida, nunca lo contraen, indicaron los autores del estudio, divulgado en la revista Science del 5 de septiembre.


El gen, denominado Apobec3, que existe también en los humanos y en la misma región cromosómica, controla la capacidad de los ratones de producir anticuerpos que neutralicen retrovirus, lo que les permite combatir infecciones con éxito.

Hombres y ratones

Los investigadores creen que este gen podría jugar el mismo papel en los humanos y neutralizar el retrovirus que causa el sida.

Esta hipótesis es alimentada por estudios anteriores, que muestran que las proteínas producidas por Apobec3 tienen propiedades anti-VIH y que la región del cromosoma en la que se encuentra el gen influye en la capacidad de ese virus para infectar el organismo.

“Este avance pone en evidencia un mecanismo genético potencial de producción de anticuerpos capaces de neutralizar el virus del sida, lo que es esencial para impedir la infección”, subrayó en un comunicado el doctor Anthony Fauci, director del Instituto nacional estadunidense de alergias y enfermedades infecciosas.

“Otras investigaciones sobre la función del gen Apobec3 en los humanos podrían conducir al hallazgo de medicamentos y vacunas contra el sida”, añadió.

Los anticuerpos son la clave para combatir con éxito infecciones virales, y la mayoría de las vacunas estimulan la producción de anticuerpos contra un virus en particular. Pero, pese a un cuarto de siglo de investigación y a la movilización de importantes recursos, la ciencia aún no ha podido poner a punto una vacuna eficaz contra el virus del sida, origen de una pandemia que ha causado más de 25 millones de muertes.

Publicado en: http://www.jornada.unam.mx/

Leer toda la nota...

miércoles, 3 de septiembre de 2008

Sobre publicaciones, indices de productividad y la revisión por pares en el contexto de la evaluación de productividad

Este es la declaración del
ICSU (International Counsil for Science) committee on Freedom and Responsability in the conduct of Science
sobre las practicas de publicación, indices y el papel de la revisión por pares en la evaluación de la investigación.
Primero enlista los puntos de preocupación, habla sobre la importancia de la revisión por pares, y finalmente da recomendaciones que se debe tomar en cuenta para la evaluación de productividad en la investigación.


ICSU committee on Freedom and Responsibility in the conduct of Science° (CFRS)

Statement°° on publication practices and indices and the role of peer review in research assessment


Progress in science, and confidence in the scientific process, depends on the accuracy and reliability of the scientific literature. This in turn depends on the rigour of the manuscript review process. In addition to ensuring the quality of scientific publications, independent peer review is also a critical part of the evaluation process for both individual scientists and research institutes. The ICSU Committee for Freedom and Responsibility in the conduct of Science (CFRS) is concerned that some of the policies and practices currently being adopted by scientific institutions and journal publishers may inadvertently be undermining the integrity of the scientific literature. This is compounded by the uncritical use of publication metrics, as a replacement for independent peer-review, in evaluating scientific performance. By pointing out these concerns to ICSU Member organizations, it is hoped that they will take action to ensure the quality of the scientific record and promote a cautious and critical approach to the use of publication metrics in research assessment.

Issues of concern:

1. In making career appointments and awarding grants, the publication record of applicants, and in particular the number and supposed impact of publications, is often a main criterion. This inadvertently creates incentives for duplicate publications, split publications, publications of little value, and honorary authorship.

2. Journal impact factors give an indication of the average number of citations to be expected for a paper in a particular journal, but these numbers are easily misinterpreted. For example, they can be influenced by the ratio of reviews to primary papers. Citations for any individual paper may be much higher or lower than that expected from the impact factor.

3. While the number of citations can give an indication of the quality of a publication, this is not necessarily so. Truly novel and very important papers may well attract little attention for several years after their publication. A paper that is incorrect can generate multiple citations from papers that rebut it, and citation numbers can be inflated by self-citation. Citation numbers also tend to be greater for reviews than for primary papers.

4. The value attributed to publication and citation records can pressure scientists to publish too early, or exaggerate and over-interpret results. It can also, in extreme situations, promote scientific misconduct, in which results are fabricated, falsified or plagiarised.

5. As a result of the pressure to publish, a growing number of manuscripts are submitted to multiple journals before they are ultimately accepted. This increases the burden on reviewers, which ultimately diminishes the thoroughness of the review process. Multiple submissions and reviews of the same work can delay the communication of important results and it can be argued that multiplying the number of reviews rarely prevents the eventual publication of poor quality work.

6. Alternative means of publication in un-reviewed or non-expert reviewed electronic archives, on individual or institutional home pages or blogs, are becoming increasingly popular. While these media open-up new possibilities and enhance general accessibility to publications, they also increase the availability of less significant or possibly misleading information.

CFRS is concerned that current policies and practices may be having serious effects on the quality of scientific work in general, and increasing the burden on journal reviewers. Any unnecessary increase in the volume of scientific publications threatens a proper reviewing process, which is essential for maintaining standards of accuracy and integrity.

In addition to its role in scientific publishing, the Committee regards rigorous and unbiased peer review as being the most important mechanism for judging the quality of scientific work and scientific projects. Establishing and maintaining good peer review processes is in itself a challenge and it is recognised that there can be benefits in using quantitative measures and metrics as complements to this process. However, the apparent simplicity and attraction of such numerical indices should not conceal their potential for manipulation and misinterpretation and they should therefore only be used with considerable caution.

Because norms for publication number, authorship conventions, and citations differ from field to field, judgements and policy are often best made by peers with expertise in the same area. CFRS urges ICSU’s member organisations to stimulate discussion of scientific evaluation criteria, career indicators and publication records, with the aim of promoting a system that can better serve science in general. Rather than learning to survive in a ‘publish or perish’ culture, young scientists should be encouraged and supported to produce high quality scientific communications that make a real contribution to scientific progress.
Questions for consideration, regarding the use of metrics in assessing research performance, include:

- In judging applications for grants and positions, what is the optimal balance between direct peer reviewing, including reading of relevant articles, and the use of quantitative measures based on publication records?

- In assessing publication records and performance, what weighting should be applied to publication number, h factors, journal impact factor, citation number, primary publication versus review?

- Noting that conventions vary considerably from one field to another, how much credit should be given to first authorship, last authorship, middle authorship, or corresponding authorship? In some fields the prevalence of ‘ghost authorship’ is also an issue of considerable concern°°°.

- What credit should be given for pre-prints and other electronic publications, whether they are peer reviewed or not? Should impact indices such as clicks, downloads, or links be taken into consideration?

- Should the number of publications that count towards grants or appointments be capped? For example, should only the best three publications per year be taken into consideration? Should scientists even be penalised for authorship on more than, say, 20 publications per year? [Such limits may seem counter-intuitive but would help to promote a culture in which all authors have genuinely contributed to the publications on which their names appear.]

- What weighting should be given to other quantitative measures of research output, such as patent applications, patents granted or patents licensed?

The Committee is aware that discussion of many of these issues is already well underway in some countries and some areas of science, but suggests that the debate is widened to the full international scientific community. By sharing options and strategies, it is hoped that the global science community can benefit from experiences of individual organisations.

*************************************************************************************
Addendum: Whilst this statement was being developed, the International Mathematical Union released the Citation Statistics report, which is a detailed critical analysis of the use of citation data for scientific evaluation. A main conclusion of this report is: While having a single number to judge quality is indeed simple, it can lead to a shallow under-standing of something as complicated as research. Numbers are not inherently superior to sound judgments.

See http://www.mathunion.org/Publications/Report/CitationStatistics
° See http://www.icsu.org/5_abouticsu/STRUCT_Comm_Poli.html#CFRS for the membership and terms of reference for CFRS.
°° This statement is the responsibility of the Committee on Freedom and Responsibility in the conduct of Science (CFRS) which is a policy committee of the International Council for Science (ICSU). It does not necessarily reflect the views of individual ICSU Member organizations.
°°° See, for example, Ross et al, JAMA 299, 1800-1812 (2008).

Leer toda la nota...

lunes, 1 de septiembre de 2008

¿Por qué ciencias de la Tierra?

Leer toda la nota...

La Tierra al desnudo. Proyecto OneGeology

¿Imaginas qué aspecto tendría nuestro planeta despojado de todas las plantas, los suelos, el agua y las estructuras hechas por el hombre? OneGeology, el mapa geólógico mundial más grande de la historia, nos lo muestra.

Especialistas en Ciencias de la Tierra y en Computación de 79 naciones, están trabajando juntos en un proyecto global llamado OneGeology (Una Geología) para producir el primer mapa geológico digital del mundo. Este proyecto hace lo mismo que Google con los mapas de la superficie terrestre, pero a nivel de las rocas bajo nuestros pies.

Según Ian Jackson, jefe de operaciones de la Sociedad Geológica Británica y coordinador del proyecto, "los mapas geológicos son herramientas esenciales para identificar recursos naturales como el agua, los hidrocarburos y minerales, así como para organizar planes para reducir riesgos geológicos tales como terremotos, erupciones de los volcanes o emisiones de radón”. Además, existen otros desafíos como “la subida del nivel del mar, la gestión de los residuos (nucleares o domésticos) y el almacenamiento de CO2, para los que el conocimiento de las rocas sobre las cuales todos vivimos se ha vuelto cada vez más importante”. “Compartir dicho conocimiento en un momento de cambio ambiental global es crucial”, concluye.

Las imágenes se hicieron públicas el dia 5 de Agosto durante el 33 Congreso Internacional de Geología, que entre el 5 y el 15 de agosto reúne en Oslo (Noruega) a 6.000 geocientificos de 117 países bajo el lema “geología para la sociedad”.

OneGeology (www.onegeology.org)

Leer toda la nota...

"Surely You're Joking, Mr. Feynman!"

Este es un extracto del libro mencionado arriba que se refiere la educación científica que vio en Brasil cuando, hace muchos años, estuvo en Brasil de sabático. Lo pongo aquí porque me da la impresión de que en México no estamos muy lejos de lo que el Dr. Feynman critica. Creo que su lectura puede ser una garan lección no sólo para los estudiantes sino también para los profesores. Para los que quieran leer el libro completo, que es sumamente interesante, la liga es:
http://www.gorgorat.com/

In regard to education in Brazil, I had a very interesting experience.
I was teaching a group of students who would ultimately become teachers,
since at that time there were not many opportunities in Brazil for a highly
trained person in science. These students had already had many courses, and
this was to be their most advanced course in electricity and magnetism Maxwell's equations, and so on.

The university was located in various office buildings throughout the
city, and the course I taught met in a building which overlooked the bay.
I discovered a very strange phenomenon: I could ask a question, which
the students would answer immediately. But the next time I would ask the
question -- the same subject, and the same question, as far as I could tell
-- they couldn't answer it at all! For instance, one time I was talking
about polarized light, and I gave them all some strips of polaroid.
Polaroid passes only light whose electric vector is in a certain
direction, so I explained how you could tell which way the light is
polarized from whether the polaroid is dark or light.
We first took two strips of polaroid and rotated them until they let
the most light through. From doing that we could tell that the two strips
were now admitting light polarized in the same direction -- what passed
through one piece of polaroid could also pass through the other. But then I
asked them how one could tell the absolute direction of polarization, for a
single piece of polaroid.
They hadn't any idea.
I knew this took a certain amount of ingenuity, so I gave them a hint:
"Look at the light reflected from the bay outside."
Nobody said anything.
Then I said, "Have you ever heard of Brewster's Angle?"
"Yes, sir! Brewster's Angle is the angle at which light reflected from
a medium with an index of refraction is completely polarized."
"And which way is the light polarized when it's reflected?"
"The light is polarized perpendicular to the plane of reflection, sir."
Even now, I have to think about it; they knew it cold! They even knew the
tangent of the angle equals the index!
I said, "Well?"
Still nothing. They had just told me that light reflected from a medium
with an index, such as the bay outside, was polarized; they had even told me
which way it was polarized.
I said, "Look at the bay outside, through the polaroid. Now turn the
polaroid."
"Ooh, it's polarized!" they said.
After a lot of investigation, I finally figured out that the students
had memorized everything, but they didn't know what anything meant. When
they heard "light that is reflected from a medium with an index," they
didn't know that it meant a material such as water. They didn't know that
the "direction of the light" is the direction in which you see something
when you're looking at it, and so on. Everything was entirely memorized, yet
nothing had been translated into meaningful words. So if I asked, "What is
Brewster's Angle?" I'm going into the computer with the right keywords. But
if I say, "Look at the water," nothing happens -- they don't have anything
under "Look at the water"!
Later I attended a lecture at the engineering school. The lecture went
like this, translated into English: "Two bodies... are considered
equivalent... if equal torques... will produce... equal acceleration. Two
bodies, are considered equivalent, if equal torques, will produce equal
acceleration." The students were all sitting there taking dictation, and
when the professor repeated the sentence, they checked it to make sure they
wrote it down all right. Then they wrote down the next sentence, and on and
on. I was the only one who knew the professor was talking about objects with
the same moment of inertia, and it was hard to figure out.
I didn't see how they were going to learn anything from that. Here he
was talking about moments of inertia, but there was no discussion about how
hard it is to push a door open when you put heavy weights on the outside,
compared to when you put them near the hinge -- nothing!
After the lecture, I talked to a student: "You take all those notes --
what do you do with them?"
"Oh, we study them," he says. "We'll have an exam."
"What will the exam be like?"
"Very easy. I can tell you now one of the questions." He looks at his
notebook and says, " 'When are two bodies equivalent?' And the answer is,
'Two bodies are considered equivalent if equal torques will produce equal
acceleration.' " So, you see, they could pass the examinations, and "learn"
all this stuff, and not know anything at all, except what they had
memorized.
Then I went to an entrance exam for students coming into the
engineering school. It was an oral exam, and I was allowed to listen to it.
One of the students was absolutely super: He answered everything nifty! The
examiners asked him what diamagnetism was, and he answered it perfectly.
Then they asked, "When light comes at an angle through a sheet of material
with a certain thickness, and a certain index N, what happens to the light?"
"It comes out parallel to itself, sir -- displaced."
"And how much is it displaced?"
"I don't know, sir, but I can figure it out." So he figured it out. He
was very good. But I had, by this time, my suspicions.
After the exam I went up to this bright young man, and explained to him
that I was from the United States, and that I wanted to ask him some
questions that would not affect the result of his examination in any way.
The first question I ask is, "Can you give me some example of a diamagnetic
substance?"
"No."
Then I asked, "If this book was made of glass, and I was looking at
something on the table through it, what would happen to the image if I
tilted the glass?"
"It would be deflected, sir, by twice the angle that you've turned the
book."
I said, "You haven't got it mixed up with a mirror, have you?"
"No, sir!"
He had just told me in the examination that the light would be
displaced, parallel to itself, and therefore the image would move over to
one side, but would not be turned by any angle. He had even figured out how
much it would be displaced, but he didn't realize that a piece of glass is a
material with an index, and that his calculation had applied to my question.
I taught a course at the engineering school on mathematical methods in
physics, in which I tried to show how to solve problems by trial and error.
It's something that people don't usually learn, so I began with some simple
examples of arithmetic to illustrate the method. I was surprised that only
about eight out of the eighty or so students turned in the first assignment.
So I gave a strong lecture about having to actually try it, not just sit
back and watch me do it.
After the lecture some students came up to me in a little delegation,
and told me that I didn't understand the backgrounds that they have, that
they can study without doing the problems, that they have already learned
arithmetic, and that this stuff was beneath them.
So I kept going with the class, and no matter how complicated or
obviously advanced the work was becoming, they were never handing a damn
thing in. Of course I realized what it was: They couldn't do it!
One other thing I could never get them to do was to ask questions.
Finally, a student explained it to me: "If I ask you a question during the
lecture, afterwards everybody will be telling me, 'What are you wasting our
time for in the class? We're trying to learn something. And you're stopping
him by asking a question'."
It was a kind of one-upmanship, where nobody knows what's going on, and
they'd put the other one down as if they did know. They all fake that they
know, and if one student admits for a moment that something is confusing by
asking a question, the others take a high-handed attitude, acting as if it's
not confusing at all, telling him that he's wasting their time.
I explained how useful it was to work together, to discuss the
questions, to talk it over, but they wouldn't do that either, because they
would be losing face if they had to ask someone else. It was pitiful! All
the work they did, intelligent people, but they got themselves into this
funny state of mind, this strange kind of self-propagating "education" which
is meaningless, utterly meaningless!
At the end of the academic year, the students asked me to give a talk
about my experiences of teaching in Brazil. At the talk there would be not
only students, but professors and government officials, so I made them
promise that I could say whatever I wanted. They said, "Sure. Of course.
It's a free country."
So I came in, carrying the elementary physics textbook that they used
in the first year of college. They thought this book was especially good
because it had different kinds of typeface -- bold black for the most
important things to remember, lighter for less important things, and so on.
Right away somebody said, "You're not going to say anything bad about
the textbook, are you? The man who wrote it is here, and everybody thinks
it's a good textbook."
"You promised I could say whatever I wanted."
The lecture hall was full. I started out by defining science as an
understanding of the behavior of nature. Then I asked, "What is a good
reason for teaching science? Of course, no country can consider itself
civilized unless... yak, yak, yak." They were all sitting there nodding,
because I know that's the way they think.
Then I say, "That, of course, is absurd, because why should we feel we
have to keep up with another country? We have to do it for a good reason, a
sensible reason; not just because other countries do." Then I talked about
the utility of science, and its contribution to the improvement of the human
condition, and all that -- I really teased them a little bit.
Then I say, "The main purpose of my talk is to demonstrate to you that
no science is being taught in Brazil!"
I can see them stir, thinking, "What? No science? This is absolutely
crazy! We have all these classes."
So I tell them that one of the first things to strike me when I came to
Brazil was to see elementary school kids in bookstores, buying physics
books. There are so many kids learning physics in Brazil, beginning much
earlier than kids do in the United States, that it's amazing you don't find
many physicists in Brazil -- why is that? So many kids are working so hard,
and nothing comes of it.
Then I gave the analogy of a Greek scholar who loves the Greek
language, who knows that in his own country there aren't many children
studying Greek. But he comes to another country, where he is delighted to
find everybody studying Greek -- even the smaller kids in the elementary
schools. He goes to the examination of a student who is coming to get his
degree in Greek, and asks him, "What were Socrates' ideas on the
relationship between Truth and Beauty?" -- and the student can't answer.
Then he asks the student, "What did Socrates say to Plato in the Third
Symposium?" the student lights up and goes, "Brrrrrrrrr-up" -- he tells you
everything, word for word, that Socrates said, in beautiful Greek.
But what Socrates was talking about in the Third Symposium was the
relationship between Truth and Beauty!
What this Greek scholar discovers is, the students in another country
learn Greek by first learning to pronounce the letters, then the words, and
then sentences and paragraphs. They can recite, word for word, what Socrates
said, without realizing that those Greek words actually mean something. To
the student they are all artificial sounds. Nobody has ever translated them
into words the students can understand.
I said, "That's how it looks to me, when I see you teaching the kids
'science' here in Brazil." (Big blast, right?)
Then I held up the elementary physics textbook they were using. "There
are no experimental results mentioned anywhere in this book, except in one
place where there is a ball, rolling down an inclined plane, in which it
says how far the ball got after one second, two seconds, three seconds, and
so on. The numbers have 'errors' in them -- that is, if you look at them,
you think you're looking at experimental results, because the numbers are a
little above, or a little below, the theoretical values. The book even talks
about having to correct the experimental errors -- very fine. The trouble
is, when you calculate the value of the acceleration constant from these
values, you get the right answer. But a ball rolling down an inclined plane,
if it is actually done, has an inertia to get it to turn, and will, if you
do the experiment, produce five-sevenths of the right answer, because of the
extra energy needed to go into the rotation of the ball. Therefore this
single example of experimental 'results' is obtained from a fake experiment.
Nobody had rolled such a ball, or they would never have gotten those
results!
"I have discovered something else," I continued. "By flipping the pages
at random, and putting my finger in and reading the sentences on that page,
I can show you what's the matter -- how it's not science, but memorizing, in
every circumstance. Therefore I am brave enough to flip through the pages
now, in front of this audience, to put my finger in, to read, and to show
you."
So I did it. Brrrrrrrup -- I stuck my finger in, and I started to read:
"Triboluminescence. Triboluminescence is the light emitted when crystals are
crushed..."
I said, "And there, have you got science? No! You have only told what a
word means in terms of other words. You haven't told anything about nature
-- what crystals produce light when you crush them, why they produce light.
Did you see any student go home and try it? He can't.
"But if, instead, you were to write, 'When you take a lump of sugar and
crush it with a pair of pliers in the dark, you can see a bluish flash. Some
other crystals do that too. Nobody knows why. The phenomenon is called
"triboluminescence." ' Then someone will go home and try it. Then there's an
experience of nature." I used that example to show them, but it didn't make
any difference where I would have put my finger in the book; it was like
that everywhere.
Finally, I said that I couldn't see how anyone could be educated by
this self-propagating system in which people pass exams, and teach others to
pass exams, but nobody knows anything. "However," I said, "I must be wrong.
There were two Students in my class who did very well, and one of the
physicists I know was educated entirely in Brazil. Thus, it must be possible
for some people to work their way through the system, bad as it is."
Well, after I gave the talk, the head of the science education
department got up and said, "Mr. Feynman has told us some things that are
very hard for us to hear, but it appears to be that he really loves science,
and is sincere in his criticism. Therefore, I think we should listen to him.
I came here knowing we have some sickness in our system of education; what I
have learned is that we have a cancer!" -- and he sat down.
That gave other people the freedom to speak out, and there was a big
excitement. Everybody was getting up and making suggestions. The students
got some committee together to mimeograph the lectures in advance, and they
got other committees organized to do this and that.
Then something happened which was totally unexpected for me. One of the
students got up and said, "I'm one of the two students whom Mr. Feynman
referred to at the end of his talk. I was not educated in Brazil; I was
educated in Germany, and I've just come to Brazil this year."
The other student who had done well in class had a similar thing to
say. And the professor I had mentioned got up and said, "I was educated here
in Brazil during the war, when, fortunately, all of the professors had left
the university, so I learned everything by reading alone. Therefore I was
not really educated under the Brazilian system."
I didn't expect that. I knew the system was bad, but 100 percent -- it
was terrible!
Since I had gone to Brazil under a program sponsored by the United
States Government, I was asked by the State Department to write a report
about my experiences in Brazil, so I wrote out the essentials of the speech
I had just given. I found out later through the grapevine that the reaction
of somebody in the State Department was, "That shows you how dangerous it is
to send somebody to Brazil who is so naive. Foolish fellow; he can only
cause trouble. He didn't understand the problems." Quite the contrary! I
think this person in the State Department was naive to think that because he
saw a university with a list of courses and descriptions, that's what it
was.

Leer toda la nota...

viernes, 22 de agosto de 2008

Narrativa VS Ciencia

A través de una traducción libre del capítulo Complexity and criticality del libro "How nature works, The science of self-organized criticality", de Per Bak [1996], pretendo contribuir a abrir una discusión en nuestro centro acerca de la importancia que, según mi opinión, debe tener el
análisis cuantitativo en las geociencias, por una lado, y la de contar con una aceptable cultura cuantitativa por parte de investigadores, estudiantes y público en general, por el otro.

Los métodos reduccionistas de la física—predicciones detalladas seguidas por una comparación con experimentos reproducibles—son imposibles en muchas áreas de interés científico. El problema de cómo tratar con este problema fue formulado claramente por el eminente paleontólogo y escritor científico Stephen Jay Gould en su libro Wonderful Life:

Cómo deben operar los científicos cuando tratan de explicar los resultados de la historia,
esos eventos desordenados y complejos que pueden ocurrir quizá sólo una vez en toda su gloria. Muchos dominios
de la naturaleza–cosmología, geología, y evolución entre
ellas–deben
ser estudiados con las herramientas de la lógica. Los métodos apro-
piados se enfocan en la narrativa y no en el experimento como se concibe usualmente.

Según Gould en muchas ciencias sólo se pueden “contar cuentos” porque los sucesos son contingentes en muchos eventos únicos e impredecibles. Los experimentos son irrelevantes en la evolución o en la paleontología porque nada es reproducible. La Historia, incluyendo la de la evolución, no es más que “una maldita cosa después de otra”. Podemos explicar lo que pasó, pero no podemos predecir lo que va a pasar en el futuro. Tradicionalmente, las ciencias se han
agrupado en dos categorías: las ciencias duras, en las que eventos repetibles pueden predecirse a partir de un formalismo matemático que expresa las leyes de la naturaleza, y las ciencias blandas, en las cuales, debido a su inherente variabilidad, sólo es posible dar una explicación narrada postmortem de eventos distinguibles. A la primera categoría pertenecen la física, la qu´ımica y la biología molecular; la evolución biológica y la economía pertenencen a la segunda.
Gould atribuye correctamente la variabilidad de las cosas, y por tanto su complejidad, a la contingencia. Los eventos históricos dependen de extraños accidentes, así que si la cinta de la historia se pasa muchas veces con pequeñas diferencias en las codiciones iniciales, el resultado diferirá bastante cada vez.
En las ciencias blandas, donde predomina la contingencia, es imposible la predicción a largo plazo. Por ejemplo, una ciencia como la evolución biológica, es incapaz de predecir el por qu´e hay humanos y elefanes. La vida, tal como la vemos hoy día es sólo un posible resultado entre miles de otras raras posibilidades. Un evento poco probable ocurre porque hay tantos otros eventos tan poco probables que podrían ocurrir.
Pero ¿qué propiedades subyacentes hacen a la historia y a la biología tan sensibles a minúsculos eventos accidentales? En otras palabras, ¿cuál es la subyacente naturaleza de la dinámica que lleva a la interdependencia de eventos y, por tanto, a la complejidad? ¿Por qué pueden haber incidentes que tienen consecuencias globales dramáticas? ¿Por qué la dicotomía de las ciencias en dos grupos tan dispares con diferentes métodos y estilo, ya que presumiblemente todos los sistemas en un último análisis obedecen las mismas leyes de la naturaleza?
Lo que necesitamos es, de acuerdo con Bak, una ciencia de la complejidad.

¿Qué puede explicar una teoría de la complejidad?
Si todo lo que podemos hacer en la ciencias blandas, complejas, es monitorear eventos y hacer predicciones a corto plazo usando cómputo masivo, entonces no hay lugar para los físicos en las ciencias blandas y, pro tanto, deberían dejar el estrado para los “expertos” que tienen un conocimiento detallado acerca de
sus campos particulares. Si uno es incapaz de predecir algo, entonces ¿cu ál es el punto?
John Maynard Smith, autor de The Theory of Evolution, dijo que él no encontraba interesante el tema de la complejidad, precisamente porque no ha explicado ningún hecho de la naturaleza en detalle.
En efecto, cualquier teoría de la complejidad debe parecer insuficiente. La variabilidad bloquea toda posibilidad de que observaciones detalladas puedan condensarse en un pequeño número de ecuaciones matemáticas, como para las leyes fundamentales de la física. Cuando mucho, la teoría puede explicar por qué hay variabilidad, o qué tipo de patrones pueden surgir, no cuál va a ser el resultado de un sistema particular.
Una teoría de los sistemas complejos debe necesariamente ser abstracta. Por ejemplo, la teoría de la vida, en principio, debe ser capaz de describir todos los posibles escenarios para la evolución. Debería ser capaz de describir los mecanismos de la vida en Marte, si la vida fuera a ocurrir allí. Este es un paso extremadamente precario. Cualquier modelo general que pudiramos construir no puede tener ninguna referencia específica a especies actuales. El modelo ni siquiera pudiera referirse, tal vez, a procesos químicos básicos, o a las moléculas
de ADN que son partes integrales de cualquier forma de vida conocida.
¡Debemos aprender a liberarnos para ver las cosas justo como son! ¡Una visión científica radical, en verdad! Si, siguiendo métodos científicos tradicionales, nos concentramos en una descripcin exacta de los detalles, perdemos perspectiva. Una teoría de la vida es probablemente una teoría de un proceso, no un recuento detallado de detalles totalmente accidentales de ese proceso, tal como la emergencia de humanos.
La teora debe ser estadstica y por tanto no puede generar detalles específicos. Mucho de la teoría de la evolución, como la presenta el libro de Maynard Smith, es formulada en términos de evidencia anecdótica de los varios mecanismos en juego. Para Bak, la evidencia anecdótica sólo tiene valor si se puede reunir bastante para establecer un hecho estadístico. La colección de evidencia anecdótica sólo puede ser una meta intermedia. La confrontación entre teoría y
experimentos u observaciones, esencial para cualquier aventura científica, tiene lugar al comparar los aspectos estadísticos de patrones generales.
De hecho, los físicos están acostumbrados a tratar con teorías probabilísticas, en las que no se pueden predecir los resultados de un experimento—sólo ciertos aspectos estadsticos. Tres teoras fundamentales en física son de naturaleza estadstica. Primero, la mecnica estadística que trata con grandes sistemas en equilibrio, como el gas de átomos que nos rodea, y el cual sólo puede describirse a través de valores promedio de propiedades macroscópcias. Segundo, la mecánica cuántica que nos dice que no podemos predecir simultáneamente la posición y
velocidad de una pequeña partícula como el electrón, sino sólo la probabilidad de que un experimento lo encuentre en un cierto lugar. Tercero, la teoría del caos que nos dice que muchos sistemas mecánicos simples, como péndulos que se empujan periódicamente, pueden mostrar comportamiento inpredecible.
Esto, que puede ser de poca consolación para los que estudian terremotos o la vida, es algo con lo que hay que vivir. En general, el problema con entender nuestro mundo es que no tenemos nada con que compararlo. No obstante, hay un número de observaciones generales a través de las ciencias individuales que no pueden entenderse dentro del conjunto de referencias desarrolladas dentro de los dominios científicos específicos. Estos fenómenos son la ocurrencia de eventos catastróficos de gran magnitud, fractales, ruido 1/f, leyes de potencia, etc. Una
buena prueba de la teoría de la complejidad es su habilidad para explicar estas observaciones generales. ¿Por qué son universales? esto es, ¿por qué surgen en todos lados?

Criticalidad auto-organizada

El hecho de que los fenmenos sealados arriba siguen todos un patrón de ley de potencias (una línea recta en una gráfica de logarítmica), lleva a Per Bak, a proponer que quizá la teoría que estamos buscando sea la criticalidad auto-organizada (SOC, por sus siglas en inglés). Los sistemas SOC evolucionan hacia un estado crítico complejo sin interferencia de agentes externos, y tiene lugar durante largos periodos transientes. Por ello, la frase “no puedes entender el presente sin entender la historia” toma un significado más preciso y profundo. Las leyes de los terremotos no pueden entenderse solamente estudiando los terremotos que ocurren en una vida humana, sino que se tienen que tomar en cuenta los procesos geofísicos que han ocurrido por cientos de millones de años. La evolución biológica no puede entenderse estudiando en el laboratorio cómo evolucionan un par de generaciones de ratas o bacterias.
En la teora de SOC, basada en lo que ocurre en una pila de arena, a la que se le van agregando granitos de arena. las grandes avalanchas se producen por una reacción en cadena de pequeñas avalanchas. Así, las grandes avalanchas, y no el cambio gradual, constituye la liga entre los comportamientos cuantitativo y cualitativo, y forma la base para fenómenos emergentes.
Si este marco es el correcto, entonces debemos aceptar la inestabilidad y
las catástrofes como inevitables en biología, la historia y la economía. Debido a que el resultado es contingente de eventos pequeños específicos en el pasado, debemos también abandonar la idea de determinismo y predicci´on a largo plazo. Aún cuando hay muchos más eventos pequeños que grandes, la mayoría de los cambios del sistema está asociada con los eventos grandes y catastróficos. La teoría de criticalidad auto-organizada puede verse como la justificación teórica del catastrofismo.

Leer toda la nota...

jueves, 21 de agosto de 2008

Informacion sobre fuentes Geotermicas.

A Googol of Heat Beneath Our Feet

The energy from the heat beneath the earth's surface is essentially an unlimited resource. What if it could be developed to help solve our energy challenges and fight global warming? Enhanced Geothermal Systems, or EGS, attempts to do just that. EGS produces heat and electricity by harnessing the energy from hot rock deep below the earth's surface, expanding the potential of traditional geothermal energy by orders of magnitude. EGS is a big challenge, but with the potential to power the world many times over, it demands our immediate attention. At Google we've launched an effort to advance EGS through R&D, investment, policy and information.

Mas informacion: http://www.google.org/egs/

Leer toda la nota...

martes, 19 de agosto de 2008

Sobre la "exclusividad" de las zonas de estudio

Jorge Cervantes
Centro de Geociencias, UNAM.

Hola, un tema que me ha inquietado es que hay gente, sobre todo en el ambiente geológico, quienes han estudiado una región por un buen tiempo.

¿Hasta qué punto es ético que si hay nuevos investigadores que vayan a estudiar la misma zona sólo vayan sin avisar a nadie? ¿Es necesario pedir permiso a quien ya ha trabajado por ahi?.

Creo que si el propósito de toda investigación es generar conocimiento, entre más gente trabaje en la zona, claro con diferentes objetivos de estudio y colaboración, se generan datos y de esta manera contribuir para el avance de la ciencia. No sé si existe la misma disyuntiva en otras áreas de investigación. Gracias por leer este post.

Leer toda la nota...

domingo, 17 de agosto de 2008

Acelerador de partículas: ¿progreso o cataclismo?

El Universal
Martes 05 de agosto de 2008

El acelerador de partículas más poderoso jamás construido podría hacer algunos descubrimientos notables, como confirmar la existencia de la materia invisible o de las dimensiones espaciales adicionales, una vez que empiece a funcionar en agosto.

Pero algunos críticos temen que el Gran Colisionador de Hadrones, LHC, llegue a sobrepasar las conjeturas más descabelladas de los físicos: ¿acaso el poderoso y monumental dispositivo creará un agujero negro que pudiera tragarse la Tierra? ¿O acaso despedirá partículas capaces de convertir nuestro planeta en una masa inerte?

Ridículo, dicen los científicos de la Organización Europea para Investigación Nuclear, CERN, algunos de los cuales han estado trabajando durante una generación en el LHC de cinco mil 800 millones de dólares.

"Obviamente, el mundo no se acabará cuando se encienda el LHC", dijo el líder del proyecto Lyn Evans.

Davis Francis, un físico del enorme detector de partículas ATLAS, del LHC, sonrió cuando se le preguntó si le preocupaban los agujeros negros y las hipotéticas partículas mortíferas llamadas strangelets.

"Si yo supusiera que esto fuese a suceder, estaría bien lejos de aquí", respondió.

El colisionador básicamente consiste en un enorme anillo de imanes superenfriados de 27 kilómetros (17 millas) de circunferencia adosado a enormes detectores en forma de barril. El anillo, que abarca ambos lados de la frontera franco-suiza, está a 100 metros (330 pies) bajo tierra.

La máquina, que ha sido calificada como el mayor experimento científico de la historia, empezará con pruebas de funcionamiento desde ahora hasta agosto, y para llegar a su máxima potencia podría tardar meses. Pero una vez que funcione se anticipa que será capaz de producir descubrimientos notables.

Los científicos planean buscar indicios de las invisibles "materia oscura" y "energía oscura" que componen más del 96% del universo, y esperan atisbar el elusivo bosón Higgins, una partícula hasta ahora no descubierta que se supone confiere masa.

El colisionador podría hallar evidencia de dimensiones extra, lo que daría un aval a la teoría de supercuerdas según la cual los quarks, las partículas que integran los átomos, son cuerdas vibratorias infinitesimales.

La teoría podría resolver muchas de las cuestiones no resueltas de la física, pero requiere diez dimensiones, muchas más que las tres dimensiones espaciales que experimentan nuestros sentidos.

La seguridad del colisionador, que generará energías siete veces superiores a las de su rival más poderoso, el Fermilab cerca de Chicago, ha sido motivo de debate durante años. El físico Martin Rees ha calculado que las probabilidades de que un acelerador produzca una catástrofe global son de una en 50 millones: diminuta, pero igual a la de ganar algunas de las loterías.

Por el contrario, un equipo de CERN emitió este mes un informe según el cual "no hay peligros concebibles" de que se produzca un acontecimiento cataclísmico. El informe confirmó esencialmente las conclusiones de un informe sobre seguridad de CERN en el 2003, y un panel de cinco prominentes científicos no afiliados a CERN, incluyendo un premio Nobel, avaló las conclusiones.

Los críticos del LHC interpusieron una demanda en marzo en un tribunal hawaiano en procura de bloquear su puesta en marcha, aduciendo que existe "un riesgo significativo de que la operación del colisionador tenga consecuencias no deliberadas que puedan resultar en la destrucción de nuestro planeta".

Uno de los demandantes, Walter Wagner, físico y abogado, dijo el miércoles que el informe de seguridad de CERN, difundido el 20 de junio, "tiene algunas fallas importantes" y que mantiene su opinión sobre los riesgos.

El martes, abogados del Departamento de Justicia de Estados Unidos, en representación del Departamento de Energía y la Fundación Nacional de Ciencia, presentaron una moción para que se desestime el caso.

Las dos agencias han contribuido con 531 millones de dólares para construir el colisionador, y la Fundación accedió a pagar 87 millones de dólares de sus costos de operación anuales. Cientos de científicos estadounidenses participarán en las investigaciones.

Los abogados calificaron las afirmaciones de los demandantes de "extraordinariamente especulativas" y dijeron que "no hay base para ninguna amenaza concebible" de agujeros negros u otros objetos que el LHC pueda producir. Se espera una audiencia sobre esa moción a fines de julio o en agosto.

Al refutar las predicciones apocalípticas, los científicos de CERN aclaran que los rayos cósmicos han bombardeado la Tierra y han desencadenado colisiones similares a las planeadas para el LHC desde que se formó el sistema solar hace cuatro mil 500 millones de años.

Y hasta ahora la Tierra ha sobrevivido.

"El LHC sólo va a reproducir lo que la naturaleza hace cada segundo, lo que ha estado haciendo durante miles de millones de años", dijo John Ellis, un físico teórico de CERN.

Críticos como Wagner han dicho que las colisiones causadas por aceleradores podrían ser más peligrosas que las de los rayos cósmicos.

Ambas podrían producir miniagujeros negros, versiones subatómicas de los agujeros negros cósmicos, estrellas comprimidas cuyo campo de gravitación es tan poderoso que pueden tragarse planetas enteros y otras estrellas.

Pero los miniagujeros negros producidos por las colisiones de rayos cósmicos probablemente viajarían a tal velocidad que atravesarían la Tierra sin consecuencias.

Los miniagujeros negros producidos por un acelerador de partículas, conjeturan los escépticos, se desplazarían más lentamente y podrían quedar atrapados dentro del campo gravitacional de la Tierra, y a la larga amenazar el planeta.

Ellis dijo que los objetores dan por sentado que el colisionador creará microagujeros negros, lo que consideró improbable. Y aun si aparecieran, dijo, se evaporarían instantáneamente, como pronosticó el físico británico Stephen Hawking.

En cuanto a las strangelets, los científicos de CERN destacan que su existencia nunca ha sido comprobada. Dicen que aun si se formasen estas partículas dentro del colisionador, se desintegrarían rápidamente.

Cuando el LHC funcione a toda potencia, dos haces de protones correrán alrededor del enorme anillo 11.000 veces por segundo en direcciones opuestas. Viajarán en dos tubos del grosor de mangueras de incendio, acelerando en un vacío más frío que el espacio exterior.

Su trayectoria se curvará por medio de imanes superenfriados a fin de guiar los haces alrededor de los anillos e impedir que los cúmulos de protones atraviesen los imanes circundantes.

Las trayectorias de estos haces se entrecruzarán y algunos pocos de los protones chocarán entre sí en una serie de detectores cilíndricos alrededor del anillo. Los dos mayores detectores son esencialmente enormes cámaras digitales, cada una de miles de toneladas, capaces de tomar millones de instantáneas por segundo.

Cada año los detectores generarán 15 petabites de datos, el equivalente a una pila de discompactos de 20 kilómetros (12 millas) de alto. Los datos requerirán una red global de computadoras de alta velocidad para su análisis.

Leer toda la nota...