jueves, 15 de marzo de 2018
La vida alrededor de los algoritmos y la justicia
Pero, vamos desde el principio, ¿qué es un algoritmo?. Un algoritmo es un conjunto de instrucciones o reglas bien definidas y ordenadas que permite llevar a cabo una actividad mediante pasos sucesivos que no generen dudas a quien deba hacer dicha actividad. Se piensa que es una derivación del nombre del matemático persa Al-Juarismi (~780-850 DC), que fue de los primeros en usarlos. En términos más llanos, podemos pensar en los algoritmos como recetas matemáticas (y su derivación a recetas de computación).
Pero, ¿porqué dijimos que los algoritmos están ahora detrás de nuestras vidas cotidianas?. Resulta que los algoritmos se usan cada vez con más frecuencia para determinar el tipo de personas que realizan alguna actividad de interés para otras personas. Esto puede ser político, económico, comercial, o social. Claro que el uso de los algoritmos en la ciencia es cosa común desde hace ya mucho tiempo, pero no es este el tema de la discusión.
En particular, el concepto tan en boga de "Aprendizaje Automático" o "Machine Learning", descansa en el uso de algoritmos para predecir el comportamiento o patrón detrás de un juego de datos (información colectada previamente). Sin embargo, estos algoritmos han sido desarrollados por una o varias personas que necesariamente introducen un sesgo personal (o de grupo) en su estructura, el cual es difícil (que no imposible) evitar. Lo anterior nos lleva a cuestionar las decisiones que basemos en las recomendaciones de encuestas, redes sociales, comerciales, o artículos periodísticos, los cuales pueden entrar dentro este mismo sesgo. O sea, la justicia de los algoritmos.
Esta idea ha alcanzado extremos interesantes, pues existe un grupo llamado la "Liga de la Justicia Algortímica" (Algortihmic Justice League), fundado por una estudiante graduada de matemáticas del MIT, Joy Buolamwini, que incluye a activistas, programadores, artistas, académicos, compañías, ciudadanos de a pie, políticos, y administradores. Este grupo se dedica a luchar contra la discriminación ocasionada por la práctica y empleo de los algoritmos.
Para saber más:
Algorithmic Justice League
Libro Weapons of Math Destruction por Cathy O´Neal
InCoding in the Beginning Leer toda la nota...
miércoles, 8 de junio de 2016
Etnogeología: Los ojos de la Tierra
El título lo tomé de un artículo de la Revista "Métode" de la Universidad de Valencia (ver referencias), porque es por demás sugestivo.Recuerdo una anécdota que ya he contado cuando, hace ya varios años, unos colegas del Instituto de Geofísica de la UNAM estaban conversando con un antropólogo (perdón, pero no recuerdo quién). Uno de ellos comentó: "Sería muy bueno poder averiguar si otro de los volcanes de la Sierra Chichinautzin (refiriéndose al Ajusco-Xitle) pudo haber causado daños a algún asentamiento prehispánico", a lo que el antropólogo contestó: "Pues yo creo que sí deben haber habido daños, porque Chichinautzin quiere decir Señor Que Quema¨.
La Toponimia es un rama de la Linguística que nos lleva a recovecos de la Historia, la Antropología y por supuesto de la Geología. Pero también es parte de lo que se conoce como Etnogeología. Según una definición que encontré la Etnogeología es el estudio de cómo entienden las comunidades las características geológicas de un lugar, desde una perspectiva específica a los conocimientos tradicionales y las historias e ideas sobre la Tierra que han sido transmitidos a través de las tradiciones y la sabiduría de los ancianos. Quizá haya alguien que quiera aportar otra definición.
Pero volviendo al artículo al que me refiero al principio, es una exposición muy agradable sobre algunos conceptos Etnogeológicos, en particular la idea Ojo-Fuente. Les transcribo sólo una parte:
De manera similar a los geólogos que interpretan rocas, los lingüistas estudian palabras para recrear formas de pensar de la antigüedad, muchas de las cuales perviven en la actualidad de manera semejante a como lo hacen montañas, fuentes y algunos paisajes; o, en palabras de William Faulkner, «the past is not dead; in fact, it’s not even past»¹. Sí, el pasado y la naturaleza humana laten dentro de las palabras. Y al conocerlas, podremos sentirnos deslumbrados por la sabiduría humana y orgullosos de nuestra humanidad compartida a la par que diversa.
Jaume Climent Soler, Daniel Climent Soler, Daniel Climent Giner nos transportan a diferentes lugares e imágenes y dan una interpretación que no deja de ser poética a algo que en ocasiones pasa desapercibido. Muy recomendable lectura.
Referencias:
Los Ojos de la Tierra, Introducción a la Etnogeología por Jaume Climent Soler, Daniel Climent Soler, Daniel Climent Giner.
Down to Earth With: Ethnogeologist Steven Semken, Earth Magazine Leer toda la nota...
martes, 24 de mayo de 2016
¿Tsunamis en Marte?
Hay temas que por supuesto causan curiosidad y quizá es sólo por eso que son aceptados en revistas como Nature y Science. Un ejemplo que viene a colación es el de ésta entrega, ya que Investigadores de varios centros, entre los que se encuentran el Instituto de Ciencia Planetaria de Arizona, la NASA, el Centro de Astrobiología (CSIC-INTA) de Madrid, y el Departmento of Astronomía de la Universidad de Cornell afirman haber encontrado evidencia de paleotsunamis en una zona norte del planeta rojo.
Claro que dicha afirmación conlleva la idea de que haya existido un oceano en esa zona de Marte (o en cualquier otra), lo cual parece ser debatible. Esta hipótesis ya había sido propuesta anteriormente, pero se tropezaba con el hecho de no haber encontrado paleoformas costeras claras. Los investigadores Alexis Rodríguez y colegas, basados en observaciones de geomorfología, imágenes térmicas y simulaciones numéricas han propuesto que esto se debe a la ocurrencia, hace aproximadamente 3.5 mil millones de años, de grandes tsunamis ocasionados por el impacto de bólidos (meteoritos). Dichos tsunamis pueden haber generado olas de más de cien metros de altura y alcanzado varios kilómetros tierra adentro, arrastrando peñascos de tamaños de autobuses.
La idea no deja de ser atractiva pero no dejará de ser hipótesis hasta que alguna de las misiones de "rovers", o alguna misión tripulada, puedan proporcionar evidencias más tangibles.
Para leer más del tema:
El artículo en Nature, Scientific Reports.
Un artículo de National geographic, con algunos puntos a debatir. Leer toda la nota...
martes, 10 de mayo de 2016
Algunos Números Primos pueden ser ¡ilegales!
!Cuidado con tus cálculos, pues pueden llevarte a prisión! Se sabe que la distribución de ciertos tipos de código es ilegal en algunos países; por ejemplo, el código que está destinado a evitar la protección contra copias de películas o el que permite desencriptar datos bancarios. A algunos activistas les gusta enfatizar lo ridículo de la prohibición de la distribución de código, que es sólo un montón de letras y números, después de todo. Por ejemplo, hay a quien le gusta imprimir el código en una camiseta y usarla, o cantar una canción con la letra del código, para demostrar cómo estas restricciones (como muchas otras) no tienen sentido.
Los números ilegales son números que son codificaciones de dicho código ilegal. En teoría, el escribir tal número y difundirlo es un crimen en los EU. Los primos ilegales son sólo un subconjunto interesante de estas cifras - ya que hay sistemas con bases en los números primos y los números primos grandes son especialmente útiles. Así que en principio hay números primos ilegales, lo cual es ridículo.
Lo que a la gente a menudo se le olvida es que un programa (cualquier archivo en realidad) es una cadena de bits (dígitos binarios), por lo que cada programa es un número. Algunos de estos son primos. Phil Carmody encontró uno de ellos en marzo de 2001. Cuando éste número primo se escribe en base 16 (hexadecimal), este primo constituye un archivo gzip del código fuente original C - sin tablas- que descifra el esquema de cifrado de las películas DVD (DeCSS). Era ilegal distribuir el código fuente en los Estados Unidos, por lo que esto hizo que el número también fuera ilegal.
Un programa de Perl para extraer el código fuente de este número primo fue escrito por Jamie McCarthy.
Si quieren leer más sobre el tema:
The nth Prime Page
El primer número primo ejecutable
DVD descrambler encoded in ‘illegal’ prime number
The Prime Pages
Illegal Prime numbers, Wikipedia Leer toda la nota...
viernes, 1 de abril de 2016
Una breve historia de la medición de la Gravedad.
El método del péndulo para medir g , introducido por Huygens en 1656 se utilizó primero debido a su simplicidad mecánica y su período casi independiente de la amplitud (isócrono) de oscilación.
Para alcanzar una precisión del orden de 10 -6, la longitud del péndulo se debe medir con una precisión del orden de 10 -6 y el periodo de oscilación con una precisión de dos veces más que esto. Hasta el final del siglo dieciocho, todas las mediciones de péndulo fueron absolutas, es decir, se midieron tanto periodo de oscilación y la longitud del péndulo en un sitio dado y la g calculada a partir de estas dos cantidades. Las mediciones eran bastante largas y complicadas y se hicieron principalmente en condiciones de laboratorio. De fundamental importancia para la historia de la gravimetría sigue siendo la medida absoluta hecha por Kuhnen y Furtwángler entre 1898 y 1904 en Potsdam que fue utilizada como la base para el sistema de gravedad Potsdam introducido en 1908 y que se extendió en todo el mundo. A pesar de la duración de las mediciones, el dato Potsdam tenía un error sistemático significativo que fue descubierto sólo varios años más tarde. En 1817, Kater inventó el péndulo reversible, un péndulo que se puede colgar de cualquiera de los dos puntos extremos. Un avance significativo en las mediciones de gravedad fue resultado de la introducción de los gravímetros relativos de resorte. Estos instrumentos son dispositivos en los que la fuerza sobre una masa debida a la gravedad es equilibrada por la fuerza de recuperación de un muelle básicamente un peso. Históricamente los gravímetros de resorte se pueden dividir en dos tipos: lineal, en el que las condiciones de equilibrio son entre dos fuerzas (elástica y gravitacional) y astatic, en el que una condición cerca del equilibrio se alcanza igualando el impulso de la gravitatoria y elástica. La gran mayoría de los gravímetros modernos pertenece a la segunda categoría.
Un segundo avance en la gravimetría relativa fue resultado de la introducción del resorte de longitud cero. En este tipo de resorte, la fuerza de restauración es proporcional a la longitud entera del mismo. Su importancia radica en el hecho de que cuando se emplea en un sistema de astatic, con el punto de aplicación del resorte y el pivote del brazo que sostiene la masa de ensayo situado en la misma línea vertical, la condición de equilibrio es independiente del ángulo de desviación del brazo, haciendo por lo tanto que la sensibilidad (en principio) sea infinita. Desde 1934, cuando LaCoste hizo su primer medidor de gravedad basado en el resorte de longitud cero (que en realidad nació como sismómetro de largo período ), este tipo de gravímetro ha dominado la escena de la gravimetría relativa. El descubrimiento de la superconductividad en ciertos materiales a baja temperatura dio lugar a un nuevo tipo de gravímetros de resorte, que son, al menos en principio, de deriva libre. En el gravímetro superconductor, la masa de ensayo, una esfera metálica hecha de o revestida con una capa de metal superconductor, se levita por medio de un campo magnético generado por una corriente que fluye en una bobina superconductora. El instrumento se instala en un lugar fijo y mide las variaciones de gravedad con el tiempo. Los cambios medidos en la corriente necesaria para mantener la masa de ensayo en la posición de referencia son proporcionales a las variaciones en el campo gravitatorio como los resultados por las mareas, las variaciones de la presión barométrica y, movimientos de masas atmosféricas locales, o variaciones de densidad dentro de la tierra. Gravímetros superconductores, inventados por Prothero y Goodkind a mediados de los 60, proporcionan una sensibilidad muy elevada, del orden de 10 -10 y, debido a las propiedades superconductoras, pueden ser casi libres de deriva.
Todos los gravímetros relativos requieren de una calibración con el fin de determinar qué cambios de longitud del muelle o de la corriente eléctrica corresponden a un cambio gravitatorio dado. Los gravímetros relativos han sido ampliamente usados para realizar mediciones en tierra, en la superficie del mar, en el fondo del mar y desde el aire. Todo problema geofísico, así como varios problemas geodésicos se pueden resolver usando técnicas relativas. El problema básico de la metrología geodésica, sin embargo, no se puede resolver mediante la gravimetría relativa. Fue sólo después de la segunda guerra mundial, cuando se dispuso de técnicas para mediciones de alta precisión de los intervalos de tiempo y espacio, que las mediciones de g fueron posibles al medir el movimiento de un objeto en caída libre.
El mundo de la gravedad relativa terrestre ha sido dominado por varias décadas, desde 1939, por los gravímetros Lacoste Romberg (modelos D y G) y los últimos años han sido testigo en el crecimiento del Scintrex AutoGrav (CG3, CG5), microg LaCoste (gPhone), y ZLS (Burris).
En lo que se refiere a los gravímetros superconductores, GWR Instruments, Inc. es el fabricante exclusivo de este tipo de instrumentos. La levitación de una masa de prueba esférica en un campo magnético generado por las corrientes ultraestables persistentes en dos bobinas de niobio superconductoras a una temperatura de menos de 9.3 K sustituye al muelle mecánico. La investigación y desarrollo destinado a reducir el tamaño y el costo de gravímetros portátiles absolutos y superconductores es sin duda el objetivo más obvio. La tarea más difícil, sin embargo, se refiere al desarrollo de gravímetros absolutos sobre la base de una nueva visión del principio de interferometría: la interferometría atómica.
Referencias.
Iginio Marson, A Short Walk along the Gravimeters Path, International Journal of GeophysicsVolume 2012 (2012), Article ID 687813. Leer toda la nota...
Por fin un gran paso en la tecnología de los gravímetros portátiles.
A pesar de la utilidad de los gravímetros portátiles que miden la gravedad relativa, la tecnología de medición de este tipo de gravímetros no ha cambiado mucho en más de 80 años. Las innovaciones se han limitado a la electrónica de transmisión, almacenamiento y recepción de datos. Sin embargo, investigadores de la universidad de Glasgow, en el Reino Unido, recientemente probaron una nueva tecnologia propuesta por ellos y basada en MEMS (sistemas micromecánicos), para medir cambios en las mareas. La mayoría de los dispositivos que miden las diferencias gravitatorias, llamados gravímetros, se basan en dos principios: O bien se mide el tiempo que tarda un objeto a caer una cierta distancia (principio en el cual se basan los gravímetros de gravedad asoluta), o miden la distancia que un cierto peso estira un resorte (Ley de Hooke). En cualquiera de los dos casos, los gravímetros actuales pueden costar más de US $100.000 y son del tamaño y peso de una batería de coche o más, todo lo cual limita seriamente su utilidad, de acuerdo a Giles Hammond, uno de los principales autores detrás de la innovación. Aunque, los dispositivos portátiles actuales -algunos de las cuales pueden llegar a pesar 150 kilos- no pueden caber o ser transportados a muchos sitios, a los científicos les gustaría poder llevarlos sin problemas a lugares remotos o montarlos en pequeños aviones no tripulados (drones). Hammond y sus colegas se propusieron construir un gravímetro más barato y más pequeño, basado en el sencillo principio del resorte. El corazón de su dispositivo es un pedazo de de silicio del tamaño de una estampilla de correos que está construido de manera que en su centro hay aproximadamente 25 miligramos de material suspendido por tres estructuras tipo fibras, que son cada una de aproximadamente 5 micrómetros de diámetro (menos de un tercio del diámetro del cabello humano más fino). Juntos, estos dispositivos actúan como un resorte. A medida que el campo gravitatorio que rodea el dispositivo varía, tal como lo haría si se hace pasar sobre una gran caverna subterránea o un depósito denso de minerales, debido al repentino cambio de densidad en las rocas subyacentes, habrán pequeños movimientos del silicio de arriba hacia abajo en respuesta a ese cambio, dice Hammond. Esos movimientos son detectados por medio de la sombra del elemento de silicón a medida que se mueve a través de un detector de luz.

Con gravímetros de este nuevo tipo los investigadores, por ejemplo, podrán instalar redes densas para vigilar los movimientos de magma dentro y por debajo de los volcanes, y posiblemente discernir las magnitudes y los patrones de flujos de antemano a una erupción. O podrían montarlos en drones y utilizarlos para buscar cavernas subterráneas que con el tiempo podrían convertirse en sumideros, o para encontrar otras estructuras hechas por el hombre tanto modernas como arqueológicas. Para saber más sobre la historia de la Medición de la Gravedad:
Una breve historia de la medición de la Gravedad.
ReferenciasScience Magazine, Tiny gravity sensor could detect drug tunnels, mineral deposits By Sid Perkins Mar. 30, 2016 Leer toda la nota...
jueves, 28 de enero de 2016
Variaciones batimétricas podrían servir de barreras para detener la propagación de una ruptura sísmica.
En el caso del sismo de Chile del 14 de abril de 2014, con magnitud 8.1, se esperaba que el evento superara una magnitud de 9.0 dada la cantidad de energía de deformación acumulada desde la ocurrencia del que lo precedió en 1877. Esto es lo que se consideraba la brecha sísmica de Iquique de 550 km de longitud. Sin embargo tal parece que la ruptura fue detenida en su avance hacia el sur por la ocurrencia de una cadena de montes submarinos que forman parte de la cordillera submarina (ridge) de Iquique. Esto es lo que han encontrado unos investigadores de la Universidad de Kiel, en Alemania, lidereados por Jacob Geersen, un geofísico del GEOMAR Helmholtz Center for Ocean Research, el estudio, ha sido publicado en Nature Communications.
El caso de de particular relevancia para nuestro país, ya que también existen formas batimétricas, tales como la cordillera submarina (ridge) de Tehuantepec, que es posible que estén actuando como barreras al deformar la placa en subducción.
Leer toda la nota...
martes, 24 de noviembre de 2015
Las placas tectónicas pueden ser menos rígidas de lo que se pensaba.
Separación de Ondas S, como evidencia de Anisotropía. Eakin et al, Geosciences Nature 2015.
El proceso de consumir el viejo fondo marino en las zonas de subducción, como sabemos, es impulsado por la circulación en el manto producto de las fuerzas de convección. Uno de los aspectos más importantes pero menos conocidos de este proceso es la fuerza y el comportamiento de las placas oceánicas una vez que se hunden por debajo de la placas continentales.
Los resultados de un estudio reciente, publicado en la revista Nature Geosciences, proporcionan la primera evidencia directa de que las placas en subducción no sólo son más débiles y más suaves que convencionalmente se había previsto, sino que además aportan una mirada el interior de la placa y hace posible presenciar directamente su comportamiento a medida que se sumergen en la astenosfera.
Durante la formación de nuevo fondo oceánico, se extrae olivino del manto, el mineral más abundante de la Tierra. Las moléculas del olivino forman un patrón repetitivo regular, llamado su estructura cristalina. Conforme el material oceánico emerge en las dorsales oceánicas, la estructura cristalina va orientándose en la dirección del crecimiento de la placa. Este movimiento de las placas también fija la estructura cristalina del olivino en su lugar.
Las ondas sísmicas viajan a través de la corteza terrestre a diferentes velocidades (lo que se denomina anisotropía sísmica) dependiendo de la dirección en que viajan a través de la estructura del cristal de olivino, permitiendo a los investigadores entender cómo se deforman las placas de acuerdo a cómo se alínea el cristal de olivino.
Normalmente, el estudio de la estructura de las placas es difícil porque las placas se extienden a gran profundidad en la Tierra. Pero a diferencia de la mayoría de las zonas de subducción, donde las placas se sumergen una por debajo de la otra en un ángulo pronunciado, la placa de Nazca empieza su proceso de subducción por debajo de la de Sud América de forma casi horizontal (algo semejante también ocurre en México entre las placas de Cocos y NorteAmérica). Esto implica que los investigadores del equipo fueron capaces de recrear una imagen de la placa de Nazca hasta por 200 kilómetros, utilizando sismógrafos en la superficie.
De manera inesperada, la velocidad de la onda sísmica les sugirió que en algunos lugares el olivino había cambiado de orientación.
La única explicación para esta nueva orientación es que la placa de Nazca se deforma lo suficiente durante el proceso para "borrar" la orientación original y sustituirla por una nueva. Este descubrimiento implica que las placas tectónicas pueden ser menos rígidos que lo se pensaba. También sugiere que su estructura puede cambiar en un abrir y cerrar de ojos, geológicamente hablando.
Leer toda la nota...
jueves, 6 de agosto de 2015
Hans Christian Andersen y el Vesubio
Un curioso relato.
Hans Christian Andersen revolucionó la narrativa con sus cuentos de hadas atemporales, impulsados por una sensibilidad cinematográfica a la belleza. A mediados de febrero de 1834, mientras iba de gira por Europa, a sus 29 años de edad, Andersen llegó a Nápoles, en el momento en que el imponente monte Vesubio estaba en medio de una de sus erupciones entonces regulares. En una de sus erupciones siglos atrás, al menos dos ciudades habían sido sepultadas por la ceniza y la lava matando a unas 3.000 personas. El mesmerismo extravagante del evento lanzó un hechizo que se quedaría con él por el resto de su vida. En Diarios de Hans Christian Andersen (biblioteca pública) - el mismo oscuro volumen que nos dio bosquejos poco conocidos y hermosos de Andersen - se encuentra un recuento impresionante de su visita al Vesubio y su insensato intento de escalar el volcán, durante la erupción.
Leer la nota completa:
Young Hans Christian Andersen Climbs Mount Vesuvius During an Eruption and Lives to Tell About It in a Beautiful, Dramatic Account by Maria Popova Leer toda la nota...
viernes, 15 de mayo de 2015
Sismo en Nepal equivale a más de un millón de bombas atómicas: RZ
El
terremoto de Nepal equivalió a detonar más de un millón de bombas atómicas
como la detonada en Hiroshima durante la Segunda Guerra Mundial
POR
LUIS DEL TORO Noticias
El terremoto de Nepal equivalió a detonar más de un
millón de bombas atómicas como la detonada en Hiroshima durante la
Segunda Guerra Mundial, afirmó el Dr. Ramón Zúñiga Dávila Madrid,
Investigador del Centro de Geociencias, UNAM-Juriquilla, quien subrayó
que un sismo semejante ocurrió en 1934, y que tiene un impacto adicional
por los aludes y los deslaves, que también han generado víctimas.
En el acumulado, al momento se reportan más de 4 mil víctimas mortales y más de 6 mil heridos.
Explicó que los sismos de ese tamaño en los Himalayas son poco
frecuentes pero tampoco son inesperados, pues allí concuerdan dos
placas: la Euroasiática y la de la India.
Hay una colisión entre las placas y genera sismos no tan frecuentes como en el Pacífico Mexicano.
No anuncia el desencadenamiento de una cadena de sismos, sino que ocurrió el sismo donde se esperaba, sin contar con la precisión para determinar una posible fecha.
Sin embargo, la deformación acumulada era suficiente para liberarse.
El experto manifestó que los grandes sismos se repiten
cíclicamente, y se funda en la velocidad con la que se mueven las placas
en las que se divide la corteza de la tierra.
Las mediciones son cada vez más precisas, milimétricamente, y se pueden detectar movimientos de milímetros por años.
En el caso de esas placas, el movimiento es de 45 milímetros por año, y requeriría mil años para moverse 45 metros. Cada sismo, lo que hace es que se mueva súbitamente pocos metros, y eso nos dice cuándo podemos esperar que ocurra un sismo.
Explicó que cada sismo de este tipo desplaza de uno a 10 metros, y un sismo de 7.8, como fue el caso, el desplazamiento es menor de cinco metros.
Si son 45 milímetros al año, nos da una idea para pensar que debe ocurrir aproximadamente cada 100 años.
En México, dependiendo de la zona, de Michoacán a Chiapas, que
es donde ocurren los sismos más grandes, hay movimientos consistentes y semiperiódicos.
Hay variaciones de los 20 a los 50 años, para distintos segmentos de la corteza.
En Michoacán, donde ocurrió el sismo de 1985, ya nos estamos acercando a su período de recurrencia.
Se espera que en esa zona de 30 a 40 años después, se dan las condiciones para un sismo similar.
Comentó que en términos de prevención hemos avanzado, pues se han reforzado los reglamentos de construcción en varias ciudades.
El daño por los sismos no lo ocasiona el sismo mismo, sino la falta de rigidez de las construcciones.
Los culpables somos los seres humanos.
Si se piensa en los peces o en los animales, no les pasa nada, pero el ser humano vive bajo las construcciones, que uno edifica.
Adicional a las construcciones, están los aludes y deslaves,
como en Nepal, que es un efecto secundario que causa daños y
mortandad.
lunes, 15 de septiembre de 2014
INDICE DE PROTOGAEA por Gottfried Wilhelm Leibniz
Manuscrito originalmente publicado en Latín en Göttingen en 1749. § 1. Preámbulo. § 2. La formación de la Tierra por el fuego. § 3. Diferentes opiniones sobre la creación del globo terrestre. § 4. Sal de mar, fuego y las causas de la precipitación. § 5. Los muchos cambios de nuestra tierra desde su creación. § 6. ¿Cuál fue el origen del agua que cubre le Tierra y a dónde fue? § 7. Bructerus y el origen de los manatiales. § 8. Depósitos de metal en la tierra y una descripción de las vetas. § 9. La generación de los minerales a través de la Química. § 10. Productos comunes a los laboratorios y a las minas. § 11. La generación de las piedras preciosas naturales y artificiales. § 12. Las sublimaciones naturales y la preparación de la sal de amonia. § 13. Es a través del fuego que los metales se presentan en sus formas propias. § 14. Algunos cuerpos deben su forma al movimiento de las aguas. § 15. Algunos cuerpos coalescen en agua. § 16. Tipos de toba formada por goteo del agua. § 17. Algunas cosas se forman por la acción combinada del agua y el fuego. § 18. ¿De dónde vienen las huellas de peces impresas en pizarras? § 19. Los terremotos, los volcanes y otras cosas demuestran que hay fuego en el interior de la tierra. § 20. Las huellas de peces impresas en pizarras provienen de peces reales y no son bromas de la naturaleza. § 21. Las diferentes capas de la tierra, su localización y el origen de las sales y las aguas saladas. § 22. El origen de las montañas y colinas explicadas a través del agua, viento y terremotos. § 23. Conchas marinas se encuentran en toda nuestra región así como en otras regiones. § 24. Los varios tipos de conchas no fueron creados dentro de las rocas como es evidente por sus formas y posición. § 25. Las conchas y huesos de animales marinos excavados pueden ser identificados como partes de animales reales. § 26. En tiempos ancestrales, los mares cercanos contenían animales y crustáceos que ya no se encuentran ahí. § 27. Glossopetrae, asterias, troquitas, etc. son restos de animales marinos y no juegos de la naturaleza. § 28. Pero es erróneo incluir las formas poligonales que se encuentran en los cristales en los anteriores. § 29. En la que un tipo de ingenuidad perezosa, la cual inventa cosas ajenas a la verdad, es rechazada. § 30. ¿En dónde se pueden encontrar los Glossopetrae de Lüneburg? § 31. Los Glossopetrae son dientes de tiburón. § 32. Los usos médicos de los Glossopetrae. § 33. Belemnitas, osteocolla, rocas rellenas de conchas y marfil fósil. § 34. Huesos, mandíbulas, cráneos y dientes encontrados en nuestra región. § 35. Un cuerno de unicornio y un enorme animal desenterrado en Quedlinburg. § 36. La caverna de Sharzfeld y los huesos que han sido encontrados en ella. § 37. La caverna de Baumann y su contenido. § 38. Sobre la naturaleza del ámbar, especialmente el tipo que se encuentra en nuestra región. § 39. Los cambios originados por los ríos y los vestigios de levantamientos en nuestra región. § 40. La lucha entre el mar y la tierra. § 41. El mar y los pantanos alguna vez cubrieron Venecia y Este. § 42. Las maravillosas fuentes de Modena. § 43. Como fueron producidas las fuentes de Modena. § 44. Las capas de la tierra en Rosdorf cerca de Göttingen. § 45. Sobre los árboles enterrados y la madera petrificada. § 46. La turba y su origen. § 47. Sobre los árboles enterrados bajo el suelo. § 48. Las capas de la tierra observadas al cavar un pozo en Amsterdam. Leer toda la nota...
De acuerdo, Leibniz puede ser considerado el padre del Cálculo Infinitesimal, pero...¿el padre de la Geología?
A continuación les hago una reseña de una información extraída de la red, así como algunas ideas propias, sobre el famoso Leibniz.
martes, 29 de julio de 2014
El orden de los autores... ¿altera el producto?
Hoy me hicieron una pregunta que no me resultó fácil de responder: En un artículo con varios o múltiples autores, ¿cuál es el orden correcto de enlistar a todos los participantes?.
Mi primera respuesta fue que dependía de la rama de la Ciencia en cuestión, ya que, por ejemplo, es de todos conocido que algunos artículos sobre Física de Partículas tienen listas de autores muy numerosas, siendo en ese caso el primer autor el principal contribuyente en trabajo e ideas y el último el jefe del proyecto, con los demás en orden decreciente en cuanto a su aportación.
Esta manera de ordenar a los autores es seguida en otras áreas científicas.
Sin embargo, éste tipo de orden jerárquico presenta problemas pues algunas revistas se rehúsan a listar a más de seis autores, perdiéndose en "la memoria de la historia" a los autores posteriores incluyendo al líder. En otros casos, se hizo costumbre añadir al jefe del laboratorio al final sin importar si hubiera contribuido o no, así como incluir entre los autores a algunos participantes "fantasmas" ya que su contribución al trabajo en cuestión no era del todo clara. Estas y otras prácticas han impedido que existan reglas claras y la controversia persiste.
A continuación algunos artículos breves donde se discute el tema y que muestran que la respuesta todavía está por encontrarse.
“First Author, Second Author, et Int, and Last Author”: A Proposed Citation System for Biomedical Papers.
Lost in the middle: author order matters, new paper says
Conventions of Scientific Authorship | Science Careers
miércoles, 21 de mayo de 2014
Un vistazo a las publicaciones geocientíficas del futuro
Es un hecho que los avances en tecnología han cambiado radicalmente la manera de hacer ciencia por un lado, y de comunicar los resultados, por el otro.
En fechas recientes me llamaron la atención sobre un software que permite la creación de diagramas completamente tridimensionales, incluyendo la habilidad de maniobrarlos directamente (por ejemplo rotarlos o hacer zoom), basado únicamente en un juego de fotografías de buena resolución del objeto o la zona tomadas en diferentes perspectivas.
El software en cuestión se llama Photoscan (http://www.agisoft.ru/products/photoscan) producto de la firma Agisoft. Es en verdad un software muy poderoso y versátil al cual se le empieza a conocer su potencial en el campo de las geociencias.
Esto me hizo imaginar lo que puede pasar en un futuro, cuando escribamos un artículo y nos sea necesario (como lo es comúnemente) mostrar datos referentes a alguna zona geográfica, geológica, tectónica etc y queramos enfatizar y discutir sus características.
A continuación un botón de muestra de lo que pienso podría ser un artículo de Geociencias en un futuro cercano (Nota: es necesario salvar el pdf ya que el visualizador no permite la versión dinámica).
http://www.geociencias.unam.mx/~ramon/Ejemplofotogram.pdf
Photoscan tiene dos versiones, Standard y Professional con costos no muy onerosos para la comunidad académica, pero también existe una versión gratuita que se llama StereoScan (http://www.agisoft.ru/) y que funciona con sólo un par de fotos que compartan un traslape (semejante a las estereofotos). Los invito a experimentar con él y a escribir sus comentarios.
Leer toda la nota...
lunes, 19 de mayo de 2014
ÍNDICE 2009
La práctica hace al maestro pero, ¿sólo después de 10,000 hrs de práctica?
EINSTEIN Y LA REVOLUCIÓN EN CIENCIAS DE LA TIERRA
Taller Universitario de Investigación y desarrollo espacial (TUIDE)
Geoengineering, la solución?
¿Para que los números primos?
EVENTOS ASTRONOMICOS PARA EL 2009
un buen propósito para el Año Nuevo: como dar una mejor plática
Leer toda la nota...lunes, 28 de abril de 2014
INDICE 2008
Sócrates partero
Mas sobre el negro futuro
Naturalización de azoteas
La energía desde el punto de vista económico como ambiental
Sobre las causas de la crisis alimentaria mundial
LA REFORMA ENERGETICA EN MÉXICO
CREACIÓN DE LA AGENCIA ESPACIAL MEXICANA
¿Cual será el futuro de la ciencia?
Perturbaciones en la ionosfera, el clima espacial y la sociedad
¿Estamos aprovechando la capacidad de cómputo actualmente a nuestro alcance?
El Impacto del Espacio en la Sociedad
¿Que tan Falseable es la Ciencia?
¿Cuál es correcto "The Data is" o "The Data are"?
Hallan gen clave para vacuna contra el sida
Sobre publicaciones, indices de productividad y la revisión por pares en el contexto de la evaluación de productividad
¿Por qué ciencias de la Tierra?
La Tierra al desnudo. Proyecto OneGeology
"Surely You're Joking, Mr. Feynman!"
Narrativa VS Ciencia
Informacion sobre fuentes Geotermicas.
Sobre la "exclusividad" de las zonas de estudio
Acelerador de partículas: ¿progreso o cataclismo?
CONSTRUCTIVISMO & REALISMO
Leer toda la nota...viernes, 25 de abril de 2014
¿Cómo es que la Tierra obtuvo sus placas tectónicas?
Mientras que los científicos han vinculado los movimientos de estos rígidos rompecabezas con los eventos de nuestro planeta más violentos, como los terremotos, tsunamis, erupciones volcánicas, etc, ellos han tenido problemas para explicar exactamente cómo llegaron a existir en primer lugar.
Ahora, en la revista Nature, dos geofísicos han propuesto que la capa más externa de la Tierra, o litosfera, fue microscópicamente debilitada hecha quebradiza por el movimiento en las capas viscosas debajo de ella miles de millones de años atrás.
Los autores del estudio David Bercovici, de la Universidad de Yale y Yanick Ricard de la Univerisdad de Lyon notan que la Tierra es el único planeta en el sistema solar que parece tener placas tectónicas que se mueven libremente en su superficie, impulsadas por el movimiento de las capas inferiores.
"La aparición de la tectónica de placas es posiblemente un momento definitorio de la Tierra", escriben . "Cómo es que en nuestro planeta, el único de los cuerpos terrestres conocidas, se desarrolló ese único mecanismo de convección del manto con las placas tectónicas, sigue siendo un enigma".
Los autores han creado un modelo matemático para la ruptura de la litosfera en pedazos , y consiste en la simulación de la convección del manto, siguiendo patrones como los de la lava.
Los autores sostienen que cuando las secciones de enfriamiento del manto se movieron hacia abajo, extendían las rocas en la litosfera suprayacente y esta deformación causó cambios microscópicos en su estructura cristalina.
A partir de ahí ocurrió una "retroalimentación de auto- debilitación" e hizo que estas zonas deformadas se transformaran en zonas debilitadas. Estas áreas debilitadas fueron ampliadas mientras el movimiento de hundimiento del manto se desplazó a otras zonas, argumentan.
"Aunque este caso es muy idealizado, muestra que una placa completamente desarrollada puede evolucionar a partir de sólo un hundimiento", escribieron.
El proceso probablemente comenzó hace unos 4 mil millones de años, y causó fracturas completas hace 3 mil millones de años, escriben los autores.
Los autores también ofrecen una explicación de por qué al menos otro planeta, Venus, carece de placas similares .
Debido a temperaturas mucho más cálidas, los daños causados en la superficie quedarían sanadas con el tiempo, de acuerdo a su modelo.
"Sólo las zonas sutilmente débiles se acumulan porque el daño en sí es más débil, mientras que la cicatrización es más fuerte", escribieron los autores.
jueves, 9 de enero de 2014
El Futuro del Almacenamiento de Datos
Es posible que ya hayan tenido problemas con datos que tengan guardados en medios obsoletos como los floppies u otro forma. Pues resulta que el problema es serio.
Hay datos relevantes que no pueden ser recuperados debido a que ya no es fácil encontrar la manera para su reproducción. Yo tengo en mi gaveta un par de cintas magnéticas con datos de sismogramas de Hawaii, programas de cómputo y hojas de cálculo, que de requerirlos tendría que buscar algun laboratorio perdido donde tengan todavía alguno de esos monstruos de lectores de cinta. Y si tuviera la fortuna de encontrar una máquina de ésas funcionando, también me tendría que enfrentar a que habría que recordar el protocolo en que fueron guardados, porque en esos tiempos existían un buen número de protocolos diferentes (bits por pulgada, encabezado, encriptado, velocidad, etc.).
Lo mismo pasa ahora con los floppies de 5 1/4" (¿se acuerdan de ellos?) e incluso con los más recientes de 3.5" (¿tienen alguna PC a la mano que los pueda leer ?)
¿Cuánto creen que podrán durar las memorias USB?.
En el artículo que a continuación les refiero, se hace alusión al problema de los medios de almacenamiento de datos, los cuales cambian a una velocidad que no hace posible mantener maneras de recuperación de la información a largo plazo. Como ejemplo se menciona que un libro sobre Guillermo el Conquistador que data del siglo XIV todavía puede ser leído en el Archivo Nacional en Londres, pero el resultado de una comisión sobre ese mismo libro, que fue llevada a cabo como parte de su 900 aniversario, tuvo que ser extraído por medio de un proyecto específico de recuperación ya que estaban grabados en discos láser.
Existen diferentes ideas sobre cómo solventar este problema, pero uno de los que ofrece mayores ventajas es emplear el DNA, ya que de por sí es un medio super eficiente para codificar información.
Una vez más la naturaleza nos lleva ventaja.
Más información en la liga siguiente:
http://www.telegraph.co.uk/science/10553626/Can-DNA-reign-supreme-in-the-digital-dark-age.html