24.11.10


Este 2010 se ha caracterizado por los extremos. La temperatura en la superficie de océanos fue 0,54ºC más alta que la media y de 0,68ºC sobre el nivel del mar, superior al promedio del siglo XX. El mes de junio ha sido el más caluroso de la historia desde 1880, cuando comenzaron a registrarse los datos del clima, según las mediciones llevadas a cabo por la National Oceanic and Atmospheric Administration (NOAA), en USA. 

En el blog de Jeff Masters, destacan que Bolivia, a un mes del inicio del verano, sufrió la temperatura más alta de todos los tiempos el 29 de octubre pasado, cuando el mercurio registró 46.7°C (116.1°F) en Villamontes.

En lo que va de 2010, se ha roto el record en 19 países (inserto imagen publicada en la entrada del blog). En Pakistán, país que encabeza la lista, el mercurio subió el 26 de mayo hasta un asombroso 53.5°C (128.3°F) en la ciudad de MohenjuDaro, según informó el Departamento Meteorológico paquistaní. No solo fue la más alta en este país, sino que es la más alta registrada  en el continente de Asia. El viejo registro paquistaní era 52.8°C (127°F) en Jacobabad en 1919.


En contraposición, también tenemos récord para el frío. En algunas zonas del globo ha habido temperaturas más bajas de lo habitual. En España, la temperatura media ha sido la más fría desde 1997, según la AEMET. También hubo temperaturas más bajas en Escandinavia, el sur de China y el noroeste de Estados Unidos.
Comenzando el año, el 11 de enero, una ola de frío ártico se abatió sobre el hemisferio norte.
·      En algunas localidades de los Alpes escandinavos se alcanzó –44º C.
·      En los alrededores de Orlando (Florida) cayeron nevadas  y se registraron temperaturas entre 9 y 6 grados centígrados bajo cero y se registró un récord de un grado bajo cero en Hialeah, Miami.
·      En la misma fecha, la estación de montaña de La Gran Piedra, provincia de Santiago de Cuba, registró en la madrugada una mínima de 3,0 grados Celsius, récord para el mes de enero.
En los países sureños de Argentina y Chile, el invierno fue el más crudo de los últimos 45 años. El 9 de julio, después de 89 años, nevó sobre Buenos Aires. Ese día la temperatura fue de 2,6° y la sensación térmica, de 1,2° bajo cero. El 13 de julio se registro récord de frío en Santiago de Chile cuando el termómetro marcó -7,7 °C.
El 16 de noviembre, en la ciudad de Buenos Aires el termómetro marcó 2,5°.  Fue la temperatura más baja de noviembre registrada durante los últimos 90 años. Recordemos que es primavera en el cono sur.
Para la fecha de publicación de esta entrada, 24 de noviembre, en Nikkaluokta (Suecia) se batió la noche del 23 el récord de temperatura negativa para la temporada, 36 grados bajo cero, lo cual es un indicio de que el invierno va adelantándose este año en los países escandinavos e inclusive,  ha nevado en Götaland. Hace por debajo de cero en todas partes excepto en Gotland.
Sin ir muy lejos, un frente frío ha estado circulando desde el sur de Norteamérica hacia México y El Caribe, al extremo que desde el 15 de noviembre, en Caracas las temperaturas en horas de la madrugada han descendido a 16 grados centígrados (estas temperaturas son usuales en febrero, no en noviembre) y a 12,4 en las zonas altas y montañosas de la capital venezolana.  También se registraron los niveles más bajos de temperaturas en los estados Miranda, Vargas y Aragua.
A un mes escaso del inicio del invierno en el norte y el verano en el sur, tenemos estas temperaturas extremas. Todo hace pensar que muy pronto, el que se va a romper es el termómetro.
================================================================
NOTA: en el foro de la página de Luis Mujica se dan los siguientes datos de mínimas  en la capital venezolana, para la madrugada del 24-11-2010
- Cua 230 msnm 19,5°C
- Guarenas 516 msnm 17,8 

- La Victoria 526 msnm 17,1°C 
- El Paraiso, Caracas  16,4°C 
- San Bernardino, Caracas 933 msnm 16,4°C
- Chacao 950 msnm 16,7°C
- Terrazas del Avila 990 msnm 15,7°C 
- Universidad Simón Bolívar 1250 msnm 13,9°C
- San Antonio de los Altos 1484 msnm 13,9°C
- Altos de Pipe 1730 msnm 13,7°C (ayer 12,4°C)


================================================================
 Ver también:







2010: año de las temperaturas extremas

21.11.10

"Roguemos que la raza humana nunca escape de la tierra
y esparza su iniquidad por todas partes”. C. S. Lewis.

¿Se justifica invertir tanto dinero en experimentos relacionados con la vida en el Espacio cuando hay millones de personas con problemas para vivir en nuestro propio planeta que deberíamos resolver primero antes de pretender avanzar en la exploración espacial? La vida en el espacio pareciera ser una realidad a mediano plazo. Uno de los principales objetivos de la carrera espacial es llegar a explorar otros planetas, para lo que será necesario emprender viajes que podrían durar varios años. Los astronautas del futuro tendrán que ser capaces de cultivar alimentos frescos a bordo cuando se embarquen en misiones de muy larga duración.

Recientemente en la página de la ESA, Agencia Espacial Europea que promueve la participación de Europa en el desarrollo de la infraestructura espacial para realizar experimentos en un entorno donde la ingravidez es la característica principal, publicaron un artículo titulado “A greenhouse in space” es decir, “Un huerto en el espacio”, el cual es el tema de esta entrada. El artículo en cuestión ha sido tratado en nuestro idioma en varios blogs y páginas como la de El mundo.

En resumen, el experimento consistirá en regar unos ejemplares de arabidopsis (Arabidopsis thaliana) plantados en el invernadero instalado en el laboratorio Columbus de la Estación Espacial Internacional. El astronauta Paolo Nespoli, conductor de dicho experimento, estima iniciar el mismo a mediados de febrero de 2011, según explican en el artículo de la Agencia Espacial Europea con la participación de un grupo de estudiantes de entre 12 y 14 años. Los estudiantes deberán comenzar sus experimentos en tierra al mismo tiempo que Paolo Nespoli en órbita. Paolo sacará fotos del ciclo de desarrollo de la planta, y grabará en vídeo los momentos más importantes de su germinación, y los colgará en la página Web de la misión MagISStra.

Paolo Nespoli

Los estudiantes podrán comparar la evolución de sus plantas con las de la Estación Espacial durante las 10 semanas que durará el experimento. Además, tendrán la oportunidad de intercambiar sus observaciones con estudiantes de otros países europeos, en una auténtica comunidad de jóvenes científicos. Los centros educativos interesados en participar en este experimento pueden encargar su mini-invernadero rellenando un formulario y las instrucciones para su construcción, se podrán descargar en 13 idiomas desde la página web de educación de Vuelos Tripulados de la ESA a partir de Enero de 2011.

Volvamos a la pregunta que encabeza esta entrada: ¿se justifica invertir en experimentos como estos? Al respecto, les recomiendo la lectura del artículo  Los viajes al espacio: Tienen sentido?

Del citado artículo destaco: ¿Para qué malgastar ingentes cantidades de dinero en el Espacio? ... La NASA ha elaborado un listado de más de 700 ejemplos de aplicaciones en la vida diaria producto de investigaciones asociadas a la vida en el espacio que actualmente se aplican en campos de la actividad humana. No más en medicina pueden citarse los marcapasos cardíacos, los termómetros infrarrojos, la angioplastía láser, el sistema de mapeo ocular, el video termosensible (sistema capaz de detectar anomalías en el cuerpo humano sin necesidad de intervenciones quirúrgicas), sillas de rueda eléctricas, analizadores de sangre de enorme precisión que se utilizan en la mayoría de los centros de salud tanto públicos como privados, las unidades de terapia intensiva, los alimentos sintetizados y ultra nutritivos, los tomógrafos, y muchos otros.

Desde este punto de vista, pareciera que la inversión en la carrera espacial si se justifica, pues los resultados que arrojan estas investigaciones, aplican tanto para la vida espacial como para la actividad humana. ¿Responde esto la pregunta? Se los dejo como reflexión.

Un huerto en el espacio

1.10.10

¿Hay alguna teoría que explique y demuestre quién vino primero: la gallina o el huevo?   Por suerte, si existen teorías para el tema de los dinosaurios y particularmente la razón por la cual se extinguieron, tema que siempre me ha fascinado. De niña me preguntaba  ¿Qué causó la extinción? ¿Cómo es posible que los huesos subsistan tantos cientos de millones de años?  ¿Por qué sobrevivieron los mamíferos más pequeños? ¿Las aves son “dinosaurios con plumas y sin dientes”?  El tiempo ha transcurrido y los científicos han planteado teorías que tratan de responden todas estas preguntas.  A continuación, las tres teorías que explican por qué se extinguieron, que considero más relevantes.
 

La primera teoría, considerada por ahora la predominante, señala que la extinción de los dinosaurios y de muchas otras formas de vida, habría sido causada por el impacto de un gran meteorito contra la superficie de la Tierra hace 65 millones de años. En 1980 un grupo de investigadores liderados por el físico Luis Álvarez (Premio Nobel) y su hijo Walter,   descubrieron en las muestras tomadas por todo el mundo de las capas intermedias entre los períodos cretáceo y terciario (Límite “K-T Boundary”) de hace 65 millones de años, fecha que coincide con la extinción de los dinosaurios, una concentración de iridio cientos de veces más alta de lo normal.  Plantearon así la llamada "Hipótesis Alvarez", conforme a la cual la extinción se debió a un meteorito que cayó a la tierra en la península del Yucatán(México) a una velocidad mayor que la de una bala, abriendo una vasta caverna de 40 kilómetros de profundidad y de 100 kilómetros de diámetro. Este cráter denominado Chicxulub, colapsó rápidamente bajo la fuerza de gravedad, dejando un agujero de 180 kilómetros de diámetro y 2 kilómetros de profundidad. La energía liberada por este impacto fue igual a la de 100 millones de megatoneladas de TNTEl impacto provocó colosales maremotos e intensos terremotos mucho más allá de la zona cero y causó un levantamiento de polvo y hollín que cubrió la atmósfera durante años, tiempo suficiente para ahogar la fotosíntesis de las plantas y masacrar al 80% de todas las especies vivientes de la Tierra, incluyendo los dinosaurios.

 
Deccán
La segunda teoría dice que fue una erupción volcánica masiva que también conmocionó al mundo la que produjo la exterminación. La paleontóloga Gerta Keller de la Universidad de Princeton afirma que “El impacto de Chicxulub no pudo haber causado la extinción masiva porque el impacto del mismo se produjo 300.000 años antes. Pequeños microfósiles de animales marinos permanecieron virtualmente intactos. En todas esas localidades podemos analizar los microfósiles marinos en los sedimentos justo por encima y por debajo de la capa que señala el impacto de Chicxulub y no se pueden apreciar efectos bióticos destacables. No podemos atribuir ninguna extinción concreta a este impacto”. La paleontóloga fijó su atención en el vulcanismo de Deccan, en la India, pues le pareció que las evidencias de que la extinción masiva de los grandes lagartos apuntaban a las erupciones de Deccan Traps que escupieron fabulosas cantidades de lava que se extendieron por centenares de kilómetros. Se calcula que liberó a la atmósfera diez veces más gases alteradores del clima que la emitida en el propio impacto del meteorito de Chicxulub, según el vulcanólogo Vincent Courtillot del Instituto de Física del Globo en París. El vulcanismo de Deccan contribuyó produciendo y lanzando grandes cantidades de gases de efecto invernadero a la atmósfera durante un periodo de más de un millón de años, conduciendo hacia la extinción masiva. Deccan es casi antípoda de Yucatán así como Siberia lo es de Australia, donde supuestamente impactó el meteorito que produjo la extinción de hace 250 millones de años ¿Pudo haber sido consecuencia del impacto del meteoro en Yucatán lo que produjo el inicio de la activación volcánica en su antípoda Deccán?  Ello explicaría que la actividad volcánica fuese posterior.


La tercera y más novedosa teoría, plantea que las criaturas más grandes que vivieron sobre la tierra sucumbieron por culpa de los insectos. Según un grupo de paleontólogos una importante contribución a la extinción de los dinosaurios pudo haber sido la aparición y evolución de los insectos, los cuales fueron capaces de transmitir nuevas enfermedades. Gracias al ámbar, los insectos de la época de los dinosaurios han sido capturados casi como eran en vida, preservando incluso la sangre que habían extraído de los animales que picaron. En la página de ScienceDaly, hay un artículo que señala que la declinación y desaparición de los grandes dinosaurios fue a lo largo de un período de cientos de miles o incluso millones de años, lo cual contrasta con el rápido efecto del impacto de un asteroide. El artículo esta en inglés, pero en resumen indica que “los impactos de asteroide o flujos masivos volcánicos podrían haber ocurrido en la misma fecha que los dinosaurios se extinguieron pero un nuevo argumento parece indicar que las criaturas más poderosas que el mundo alguna vez haya conocido, pueden haber sido eliminadas por una fuerza diminuta y menos dramática como los insectos. Los expertos dicen que los insectos fueron nuevos portadores de enfermedades las cuales representaron una amenaza lenta pero aplastante. Pruebas de ello, han sido capturadas en detalle realista en diferentes tipos de insectos conservados en ámbar, que datan de la época cuando los dinosaurios desaparecieron.”


Este concepto fue planteado en el libro "What Bugged the Dinosaurs? de Jorge y Roberta Poinar, Universidad de Princeton, publicado hace un par de años. Los autores argumentan que los insectos proporcionan una explicación plausible y eficaz de la disminución lenta, inexorable y eventual de dinosaurios durante varios miles de años. Durante el período conocido como “K-T Boundary” o la línea entre el Período Cretáceo y Terciario hace aproximadamente 65 millones de años, ocurrieron algunos acontecimientos catastróficos, como el asteroide en Yucatán o flujos de lava. Los insectos han ejercido un impacto enorme sobre la ecología de la Tierra, y han contribuido con la extinción de organismos terrestres, escribieron los autores en su libro.

Apenas se han planteado tres de ellas, pero hay otras teorías como: el desplazamiento del eje rotacional de la tierra, Caos ecológico por factores geográficos, Descenso del nivel del mar y desaparición de hábitats, Cambios climáticos por la deriva continental, Inversión de polos magnéticos, nuevas especies de mamíferos comedores de huevos de dinosaurios, impactos múltiples de asteroides o Vegetación Venenosa.


Transcurridos tantos millones de años, creo que es muy difícil precisar cual de ellas demuestra sin lugar a dudas la causa de la extinción de la faz de la tierra de estos gigantes, por lo que seguiré haciéndome las mismas preguntas de mi niñez...

Sobre teorías de extinción de los dinosaurios…

4.8.10


Desde hace tiempo, se dice que el terremoto de Sumatra acaecido el 26 de diciembre de 2004, fue producto del proyecto HAARP, High Frequency Advanced Auroral Research Project, o Programa de Investigación de Aurora Activa de Alta Frecuencia, traducido al español. A raíz de los recientes terremotos de Haití y Chile, la especulación sobre el tema se ha incrementado a través de diversos medios (correo electrónico, Twitter, Facebook, youtube, entre otros), bombardeándonos con artículos y opiniones sobre la posible interferencia de estos experimentos en el cambio del clima con la consecuente ocurrencia de grandes terremotos y tsunamis, huracanes, tornados e inundaciones. Asimismo, que las ondas ELF (abreviatura del nombre en inglés Extreme Low Frequency), que se generan con estos experimentos, tendrían potencialmente la capacidad de desintegrar objetos, generar combustiones espontáneas e inducidas, cambiar patrones cerebrales, inducir conductas y producir enfermedades biológicas, las cuales imitan las ondas cerebrales.

Los desastres naturales como erupciones volcánicas, terremotos y tornados producen sonidos de una intensidad comparable con el sonido que hace una bomba atómica en su explosión, con la diferencia de que al estar por debajo de los 20 Hz son inaudibles al oído humano; lo que ha permitido iniciar investigaciones vulcanológicas y meteorológicas, para evitar futuros desastres. Al respecto, en History Channel dieron en Marzo pasado un documental sobre este proyecto y en el mismo realizan un experimento sometiendo a una roca a ondas ELF, colocada ésta sobre “una simulación de falla tectónica” y al cabo de un rato ésta se desliza, producto de las “vibraciones”, inaudibles para el oído humano. También destaca el documental que HAARP no es más que la antigua maquina de Tesla que lanza e IONIZA las nubes produciendo altas y bajas presiones en la atmósfera pero multiplicada millones de veces, lo cual explicaría lo de las luces en los cielos, previas a los eventos catastróficos.

Indagando más sobre el tema, desde el punto de vista científico y no especulativo, el misterioso proyecto se lleva a cabo en unas instalaciones militares situadas en Gakona, Alaska. Consiste en 180 antenas que en conjunto funcionan como una sola que emite 1 GW =1.000.000.000 W, es decir un billón de ondas de radio de alta frecuencia, las cuales penetran en la atmósfera inferior e interactúan con la corriente de los elecrojets aureales. ¿Con que objeto? En Wikipedia, página de consulta obligatoria, señalan que “Su objetivo es estudiar las propiedades de la ionosfera y potenciar los avances tecnológicos que permitan mejorar su capacidad para favorecer las radiocomunicaciones y los sistemas de vigilancia (tales como la detección de misiles)”. “El principal componente de HAARP es el Ionospheric Research Instrument (IRI), un calentador ionosférico, sistema transmisor de alta frecuencia (HF) utilizado para modificar temporalmente la ionosfera.

En esencia21.foros.ws publicaron una entrada titulada “PROYECTO HAARP” en la cual señalan que la finalidad del proyecto es “emitir pulsos artificialmente que estimulan a la ionosfera creando ondas que pueden recorrer grandes distancias a través de la atmósfera inferior y penetran dentro de la tierra para encontrar depósitos de misiles, túneles subterráneos, o comunicarse con submarinos sumergidos, entre mucha otras aplicaciones.” También resalta:  “HAARP con sus cientos de millones de vatios de potencia y antenas se puede considerar como un verdadero "calefactor" de la alta atmósfera, provocando una tremenda ionización que puede acarrear consecuencias imprevisibles, y que gracias a su efecto "espejo" podría dirigir sus efectos hacia cualquier zona del planeta. Estaríamos hablando de un nuevo tipo de arma, capaz de intensificar tormentas, prolongar sequías, sobre territorio de un supuesto enemigo, y perjudicándolo sin que este se diera cuenta sin mas ... ¿ ficción ?.”  Soy ingeniero en comunicaciones egresada hace más de 25 años, y pienso que el terremoto de Chile así como otros grandes desastres ocurridos en el siglo pasado, fueron producidos geológicamente debido al choque de las placas tectónicas más que debido al proyecto HAARP (cuando el terremoto de Valdivia no existía HAARP, por ejemplo).

Mientras científicamente no sea comprobable que HAARP tenga la capacidad de desintegrar objetos, modificar el clima, generar terremotos, controlar cerebros y actuar como una terrible arma, y tengamos dudas sobre los posibles efectos biológicos de las ondas generadas por este proyecto sobre la tierra y el cuerpo humano, es mejor tomar medidas razonables, tanto económicas como técnicas, para reducir la exposición a campos de alta y baja frecuencia generados por HAARP y cualquiera otra fuente.

Es conveniente mantenerse informado sobre este proyecto, que se está desarrollando en nuestro propio continente, así como de sus posibles consecuencias, por lo que les dejo algunos links que tratan sobre el tema, para que se formen su propio criterio.

http://www.haarp.alaska.edu/  (Página web de HAARP)

HAARP y las ondas ELF

1.7.10

La exobiología es la disciplina que estudia la viabilidad para que un cuerpo astronómico sea capaz de sustentar vida. Hasta el presente, la existencia de vida extraterrestre no ha sido comprobada. El 25 de mayo de 2008, la sonda europea Phoenix Mars Lander descendió sobre la superficie de Marte con el objetivo de confirmar la existencia de agua en el planeta mediante análisis hechos en el laboratorio que llevaba a bordo y envió fotografías, una de cuales encabeza esta entrada, las cuales parecen demostrar que aterrizó sobre un bloque de hielo.

Dos años después, la Agencia Espacial de EEUU, NASA, dio por muerto el laboratorio, el cual no superó el invierno marciano, y anunció el descubrimiento de nuevas evidencias de que Marte estuvo cubierto en gran parte por enormes océanos, de acuerdo con una serie de depósitos minerales sedimentarios hallados en los bordes de Hellas Planitia, un cráter localizado en el hemisferio sur marciano. El mineral encontrado es carbonato de calcio, el cual sugiere la presencia ocasional de agua descongelada. Esta sustancia química sirve de alimento para algunos microbios (aunque potencialmente sea tóxica para otros). La NASA todavía mantiene en operaciones a los vehículos exploradores Spirit y Opportunity, los cuales descendieron sobre la superficie del planeta hace casi cuatro años.


Muy bien, ya conseguimos agua en Marte, pero la habitabilidad planetaria es considerada como una extrapolación de las condiciones de la Tierra y las características del Sistema Solar, que favorecen la floración de la vida. En Wikimedia Commons, encontramos que la astrofísica define la “zona de habitabilidad estelar” como una estrecha región circunestelar en donde, de encontrarse ubicado un planeta (o luna) rocoso con una masa comprendida entre 0,6 y 10 masas terrestres y una presión atmosférica superior a los 6,1 mb correspondiente al punto triple del agua, la luminosidad y el flujo de radiación incidente permitiría la presencia de agua en estado líquido sobre su superficie.” La zona habitable (ZH) es una cáscara teórica que rodea a una estrella, dentro de la cual cualquier planeta tendría agua líquida en su superficie, el ingrediente más importante para la vida después de una fuente de energía (para la tierra es el Sol).

En la página de Redorbit publican un interesante artículo a propósito de este tema “Questions Remain About Water On Mars“ (Continúan las preguntas sobre la existencia de agua en Marte), el cual resumo a continuación.

Hace una década, la NASA publicó una serie de fotografías las cuales revelaban surcos sobre la superficie de Marte, que hacían sugerir la presencia de agua fluyendo sobre la superficie del planeta. Se le hizo seguimiento al descubrimiento, pero una década más tarde, no hay prueba concluyente que tal agua aún exista. Algunos científicos sugirieron que las gotas semisólidas observadas por el Fénix de la NASA, eran de agua. Las mismas gotas de agua congelada han sido descubiertas dentro de cráteres y bajo la superficie en regiones de latitudes medias y altas. Al respecto, los científicos se han preguntado cuando fue la última vez que hubo agua sobre la superficie de Marte.


El Orbitador de Reconocimiento de la NASA, también ha estado buscando pruebas de la historia del agua sobre Marte. En los diez años transcurridos, los científicos tienen la certeza de existencia en el pasado, de grandes cantidades de agua sobre Marte, la cual permanece congelada y oculta. "Sospechamos que definitivamente había agua sobre Marte, y no sólo que había agua, sino que la había en cantidad…Ahora con el Orbitador de Reconocimiento de Marte, hemos encontrado agua congelada hasta en latitudes medias… Cuánto tiempo ha estado el agua sobre Marte, y cuantos sitios podrían haberla tenido, puede ser la diferencia en cuán habitable podría haber sido Marte. Los científicos siguen buscando agua sobre Marte, así como los minerales formados en la presencia de la misma. Particularmente, buscan la presencia de la materia orgánica que puede aún permanecer conservada en la misma, desde tempranas épocas”, dijo Meyer. El esfuerzo entero esta centrado en determinar si realmente hay vida, o alguna vez la hubo sobre el planeta. "Hemos sostenido talleres para determinar cuales serían los posibles sitios donde el Laboratorio de Ciencia de Marte, a lanzar el próximo año, podría aterrizar para buscar tales minerales" concluyó. Hasta acá la traducción del artículo.

En relación con lo señalado, aunque particularmente me fascina el tema de la vida extraterrestre, y la posibilidad de que sea descubierta mientras yo esté viva, pienso que el interés de los científicos “centrado en determinar si realmente hay vida en Marte, o alguna vez la hubo”, según el artículo, debería orientarse a la búsqueda de agua en nuestro propio planeta. A menos que pretendan transportar trozos del casquete polar de Marte hasta la Tierra, para usarlos ante un eventual agotamiento del agua consumible. Tenemos enormes cantidades de agua en los océanos, que por ejemplo, pudiéramos desalinizar.

Para que haya vida, no basta solo agua. Es imprescindible contar con un medio ambiente estable, es decir, debe existir un equilibrio de la actividad geológica del planeta a lo largo de un mismo periodo, así como las mínimas perturbaciones externas posibles que garanticen las condiciones para la permanencia de la vida. ¿Tenemos en la Tierra un medio ambiente estable? Digamos que por ahora si. Entonces me pregunto ¿para qué queremos conseguir vida en otro planeta? ¿Para migrar y colonizarlo? ¿Y si conseguimos alguna forma de vida y resulta que son seres superiores y nos colonizan ellos?

Si no hemos sabido conservar el nuestro en óptimas condiciones, ¿Para qué irnos a otro planeta y volverlo basura, cuando es más fácil rescatar y conservar el nuestro?

Búsqueda de agua y presencia de vida en Marte: ¿vale la pena?

31.5.10


El Día Mundial del Medio Ambiente, fue establecido por la Asamblea General de Naciones Unidas en 1973, año a partir del cual todos los 5 de junio se celebra. La ONU quiso sensibilizar a la opinión mundial sobre el tópico del ambiente, llamando la atención a las personas para que se conviertan en agentes multiplicadores y activos, promoviendo en sus comunidades un cambio de actitud hacia temas conservacionistas, e incentivando la cooperación. Ese día, se realizan actividades como campañas de reciclaje y de limpieza, concentraciones en plazas y avenidas, conciertos, competencias y plantaciones de árboles. En Venezuela, el domingo 30 de mayo, día del árbol, se inició en el Parque Nacional Guaraira Repano (antes El Ávila), el Plan Nacional de Reforestación a través del Ministerio del Ambiente (Minamb), con la participación activa de las comunidades. Con este plan se aspira sembrar alrededor de siete millones de plantas a nivel nacional, para recuperar todos los bosques que fueron afectados por los incendios. Las jornadas de siembras se realizarán de manera continua todas las semanas, con la participación de más de tres mil comités conservacionistas”. Específicamente el día 29 de mayo, se celebra el día del Araguaney, árbol nacional de Venezuela, el cual podemos apreciar en la imagen de la entrada. Este año, el Minamb ha logrado reforestar con este árbol, 22 mil 764 hectáreas en todo el territorio nacional.

Lamentablemente, acciones como éstas, son contrarestadas por otras. En la entrada del mes de mayo del blog, nos referimos al derrame petrolero en el Golfo de México. A un mes de la tragedia, el monitoreo de aire realizado por EPA hasta el 24 de mayo de 2010, encontró aceptables niveles de calidad de aire para ozono y partículas de materia para esta época del año. Sin embargo, algunas de las sustancias químicas derramadas, pueden ocasionar efectos de corta duración como dolor de cabeza, irritación en los ojos, nariz y garganta, o náusea. La gente podría oler algunas de estas sustancias químicas a niveles muy por debajo de los niveles a los cuales podrían ocasionar problemas de salud a corto plazo. 

Pareciera que luego de 27 años celebrando días mundiales, aún no se ha creado conciencia suficiente y seguimos encharcando el planeta. Hacemos campañas y celebramos un "Día Mundial", pero no basta un "día". Cada uno de nosotros puede aportar su granito de arena. Para colaborar podríamos entre otras acciones:

• No desperdiciar agua. Incluye reparar grifos con fuga.

• Separar botellas, cajas y papel, y desperdicios orgánicos en containers distintos. Adicionalmente, da dinero.

• No tirar basura en la calle.

• Recoger el excremento del perro cuando se lleva de paseo. Los excrementos se volatilizan, y los respiramos, además de ensuciar las calles.

Es importante que el “día” se convierta en "siempre", para garantizar que la humanidad pueda disfrutar de un futuro seguro.

Día Mundial del Ambiente ¿Por qué no "todos los días"?

4.5.10

El derrame de petróleo, tras la explosión de la plataforma de extracción Deepwater Horizon, ubicada a unos 70 kilómetros de la costa de Luisiana y perteneciente a la empresa British Petroleum, el cual se inició el pasado 20 de abril, triplicó su tamaño en los últimos días y alcanza más de 9 mil kilómetros cuadrados, tan grande como el tamaño de Puerto Rico, según informó el Centro de Análisis de Imágenes Satelitales (Cstars) de la Universidad de Miami (ver imagen que encabeza esta entrada, cortesía de NASA). La fuga de petróleo vierte al mar más 5 mil barriles diarios, el equivalente a 800 mil litros, más de lo estimado originalmente.

Según Wikipedia, el vertido o derrame petrolero se produce debido a un accidente o práctica inadecuada que contamina el medio ambiente, especialmente el mar. Estos derrames afectan a la fauna y la pesca de la zona marítima o litoral afectado, así como a las costas donde con especial virulencia se producen las mareas negras con efectos que pueden llegar a ser muy persistentes en el tiempo.

El derrame de petróleo más grande de la historia en agua dulce fue causado por un buque tanque de Shell, en Magdalena, Argentina, el 15 de Enero de 1999, contaminando el agua, la flora y la fauna. El desastre del Prestige, ocurrió el 13 de noviembre de 2002 y afectó a las costas del norte de España e incluso zonas de costa francesa. Cuando ocurre en alta mar y el mar está calmado y hay poco viento se puede quemar el aceite. A veces se utilizan detergentes para dispersar o deshacer el contaminante, y microorganismos (biorremediación). Un accidente de este tipo fue el derrame de la nave Exxon Valdez en la costa de Alaska en 1989. El hábitat todavía se está recuperando hoy día.

El almacenaje de petróleo en las instalaciones está incluido en el diseño de los tanques petroleros, los cuales poseen un segundo contenedor en caso de fallas. En el punto de transferencia en el muelle, la contención del mismo es requerida alrededor de las mangueras en sus puntos de conexión, e interruptores de emergencia serán los encargados de detener el flujo dentro de los 30 segundos de ser activados. Los procedimientos de transferencia del petróleo deben tener como medida preventiva, un seguimiento estricto cuando los mismos son trasladados desde el tanquero para asegurar que ningún producto derivado del petróleo se pierda en la transferencia. De igual manera debe existir un despliegue del torrente alrededor de cada buque, antes de hacer la transferencia de petróleo, para que cualquier derrame que pudiera ocurrir, se mantenga en el área del mismo. La mayoría de los derrames de petróleo combinan el uso de barreras o materiales absorbentes, recolectores y un contenedor de petróleo. A pesar que hay Organizaciones Responsables de Derrames Petroleros, OSRO’s (Oil Spill Response Organizations por sus siglas en inglés), solo actúan cuando el mal esta hecho, y vemos que las medidas preventivas no son tales, pues siguen ocurriendo estos desastres.

Al momento de redactar esta entrada, la empresa que explotaba la planta que estalló y produjo el enorme derrame de petróleo en el Golfo de México anunció que se hará responsable de todos los gastos, luego de que Barack Obama lo exhortara a "pagar la factura". ¿No hubiese sido mejor “evitar” el problema?

Es inaudito que habiendo tantas energías alternativas, sigamos dependiendo del petróleo. Desde los años noventa del siglo pasado, analistas sostienen que la constante subida del precio del crudo va a hacer que los gobiernos de los países que no producen su propio petróleo se esfuercen por reducir la dependencia de los derivados del petróleo, y por desarrollar energías alternativas, las cuales son ‘limpias’ porque contaminan menos que las convencionales, como la nuclear, ya que no suponen combustiones ni generan residuos. Estamos hablando de energías como las siguientes:

• Solar: uso de paneles solares. Desventaja: los paneles solares son muy costosos (aunque un derrame petrolero lo es más aún)

• Eólica: producida por el movimiento del viento y se puede obtener a través de aerogeneradores. Los aerogeneradores deben instalarse en zonas donde el viento sea constante; como por ejemplo en algunas zonas de la patagonia argentina.

• Hidráulica: Es producida por la utilización del agua.

• Oeánica o mareomotriz: Es obtenida por la utilización del agua en los océanos y los mares. Ésta se pone en uso, cuando el agua de la marea alta se embalsa.

• Geotérmica: Es el uso del agua que surge bajo presión desde el subsuelo. Ésta se obtiene a través de una perforación en la tierra y luego de ésta, se añade agua. Este agua, al llegar a cierta temperatura se calienta produciendo vapor, el cual mueve alternadores de generación eléctrica.

• Biomasa: Utiliza la descomposición de residuos orgánicos. El biocombustible es el término con el cual se denomina a cualquier tipo de combustible que derive de la biomasa - organismos recientemente vivos o sus desechos metabólicos, tales como el estiércol de la vaca.

Pero la realidad es otra. Vemos como no hay avance en la sustitución del petróleo por las energías alternativas. Tanto los países productores como los transformadores del petróleo en productos de consumo masivo, pareciera no interesarles matar la gallinita de huevos de oro. Es más cómodo y rentable seguir moviendo los motores de vehículos y maquinarias con petróleo. De hecho, en Venezuela, recién se ocupan del tema, cuando debieron tomar medidas hace décadas y eso por el problema de fallas eléctricas, otro tema preocupante, las cuales según explican, se producen “como consecuencia del vaciado del embalse del Guri... por falta de agua.. porque no llueve… por culpa del fenómeno de El Niño…” O sea, que al final es “El Niño” y no nosotros, los que estamos acabando con nuestro hermoso planeta. Estoy segura que los venezolanos hemos aprendido la lección y estamos contribuyendo con el ahorro energético, pero los gobiernos tienen que ocuparse realmente en implementar de inmediato, el uso de energías alternativas no contaminantes y renovables, para que desastres como el actual en el Golfo de México, no vuelvan a ocurrir.

Energías alternativas evitarían desastres como el del Golfo de México.

16.3.10


En el libro “El Símbolo Perdido” de Don Brown, que actualmente estoy leyendo, al final del capítulo 18, uno de los personajes, la Dra. Katherine Solomon, experta en ciencia “noética”, le plantea a su futura asistente Trish lo siguiente: "un pequeño grano de arena tiene masa y debido a esta masa ejerce una gravedad minima. Si tomamos trillones de granos de arena y dejamos que se atraigan entre si hasta formar...la luna, su gravedad combinada será suficiente para mover océanos. Hagamos pues una hipótesis: ¿Y si un pensamiento...en realidad tiene masa? ¿Y si los pensamientos fueran mensurables, con masa cuantificable? Entonces ejercerían gravedad y podrían atraer cosas hacia sí. Si mucha gente focalizara en su mente un mismo pensamiento empezarían a fundirse en uno solo, y la masa acumulativa de ese pensamiento empezaría a crecer y aumentaría su gravedad. Si suficientes personas piensan lo mismo, la fuerza gravitacional se haría tangible...y ejercería una fuerza que podría tener un efecto cuantificable en nuestro mundo físico.”

Toda hipótesis tiene que ser comprobada. Por ello, Katherine crea hermosos cristales de hielo simétricos enviando pensamientos positivos a un vaso de agua mientras se congelaba. También experimenta lo opuesto: envía pensamientos negativos y turbios, y los cristales de hielo se congelan formando formas caóticas y fracturadas… El libro plantea que se ha demostrado experimentalmente que el alma pesa 21 grs. Es decir, el alma y los pensamientos son tangibles y asi soporta su hipótesis… Pregunto ¿Alguien ha podido crear cristales de hielo simétricos enviando pensamientos a un vaso de agua? ¿Pesa el alma en verdad? No conseguí nada “oficial” que lo confirme. Particularmente, creo que hasta que no sea demostrable científicamente tal hipótesis, no podemos hablar de una ciencia sino más bien de disciplina filosófica o de religión.

Admito que no conocía el término “noética”, así que quise profundizar al respecto, y ver si se trataba de ciencia ficción o de algo serio con avances importantes, y busqué información en la red. Hice dos preguntas:


  •  ¿Qué es noética? La palabra proviene del griego del verbo noew, que significa "ver discerniendo", de donde se deriva "pensar”. Wikipedia señala “En filosofía, el término noética se refiere a todo lo que tiene que ver con el pensamiento, especialmente, el objetivo e inteligible. Se usa, habitualmente, en relación con Aristóteles, cuya noética sería su doctrina de la inteligencia (del intelecto, del entendimiento).”

  • ¿Qué es ciencia noética? Es la que estudia e investiga la naturaleza y potenciales de la conciencia, haciendo uso de métodos de conocimiento, como la intuición, los sentidos y el sentimiento, es decir, explora el mundo interior de la mente para relacionarlo con el universo físico”.
Me sorprendí de la cantidad de páginas y literatura que trata el tema (en Facebook, en blogs). En algunos de los artículos los autores comienzan la entrada haciéndose las mismas preguntas que me hice yo leyendo el libro, si la noética se trata en verdad de una ciencia. En otros, los autores son acérrimos defensores de la “ciencia” ¡Y hasta hay un Instituto de Ciencias Noéticas! Las opiniones están pues divididas. Destaco el artículo “la realidad cuántica”, donde el autor escribe “los líderes de la mecánica cuántica -incluyendo Niels Bohr, Werner Heisenberg y Edwin Schrodinger -rechazan la idea de que la física y el misticismo describan los mismos fenómenos. Según Max Planck, los esfuerzos para juntarlos han sido “fundados en un malentendido o mas prácticamente, en haber confundido la imagen de la religión con los enunciados de la ciencia”. A mi parecer, la “ciencia noética” esta más inclinada hacia lo paranormal que hacia lo científico.

Por cierto, hace unos años, leí “La Novena Revelación”, de “James Redfield,”, y la tercera de esas revelaciones era “Un Universo de energía dinámica: empieza a conectarte con la energía que envuelve a las cosas. Con práctica, aprenderás a ver el aura alrededor de los seres vivos y aprenderás a proyectar tu propia energía para entregar fuerza”… Resalto proyectar energía para generar fuerza pues me parece “familiar” con el concepto de uso de la consciencia colectiva para producir energía, que plantea la ciencia noética. Sin embargo, en La Novena Revelación, la energía que generaríamos sería para convertirnos en seres de luz, que caminan directamente al cielo”, o sea, el planteamiento no es para nada científico.
De niña, seguía con avidez series como “Perdidos en el Espacio” y “Viaje a las estrellas” donde los personajes solían “mover” objetos con el pensamiento… Claro, en ese entonces el termino usado era psicoquinesis y no ciencia noética, pero para mi viene a ser lo mismo. En ese entonces, pensaba con asombro cómo podía el personaje materializar o mover objetos, con solo pensarlo y mi imaginación me trasladaba a otros mundos donde yo tenía ese maravilloso poder. Los avances en medicina no cesan en su intento por hacer la vida más fácil a los enfermos. La Universidad de Brown, en Estados Unidos, ha desarrollado un sensor que, implantado bajo el cuero cabelludo, permite a personas con parálisis mover objetos. Ya existe un casco que lee las “ordenes” del cerebro las cuales se transmiten a un computador, el cual tiene un software que permite a un robot moverse de acuerdo a nuestras ordenes, pero sin el software, no lo hace “solo”. Ya estaríamos hablando de robótica.

La mente es capaz de mover "moléculas comunicadoras" que hacen que nuestro cuerpo levante el brazo, o nuestras piernas se muevan para caminar. Si ya estamos caminando, y hay un obstáculo, nuestra mente le dice a las piernas que se detengan. Entonces, ¿por qué no podríamos canalizar esos pensamientos para que muevan algo más que nuestro propio cuerpo? ¿Por qué no podemos medir ni pesar pensamientos capaces de mover nuestro cuerpo?... Desde el punto de vista científico, todavía no tenemos una respuesta.

Ciencia Noética ¿pensamientos tangibles?

13.3.10


La automatización es el uso de sistemas o elementos computarizados para controlar procesos, que permiten sustituir a operadores humanos, de acuerdo al mapa conceptual que destaca la entrada del blog SAPIENCIA, en la cual se describen los resultados correspondientes a los trabajos de los alumnos del último semestre de la asignatura Sistemas Mecanizados, de la Universidad Simón Rodríguez de Caracas. Allí se discriminan los sistemas por especialidades: agropecuaria, automotriz, electrodomésticos, medicina, robótica, seguridad y telecomunicaciones. En general,. La automatización, inicialmente fue electromecánica, es decir, una combinación de ciencias del electromagnetismo, de la electricidad y de la mecánica. Posteriormente fue avanzando hasta convertirse en mecatrónica, disciplina de la ingeniería que combina la mecánica, la electrónica y la tecnología de la información.

En esta entrada vamos a referirnos específicamente a la Robótica, disciplina que estudia la ciencia y tecnología de los robots, entidades virtuales o mecánicas artificiales. Desde que Leonardo da Vinci diseñó alrededor del año 1495, los planos para un caballero mecánico o “robot de Leonardo”, que podía sentarse, alzar los brazos y mover la cabeza y la mandíbula, hasta la invención de ASIMO (acrónimo de "Advanced Step in Innovative Mobility"- paso avanzado en movilidad innovadora), creado por Honda en el año 2000, capaz de trasladarse como cualquier persona, interactuar con los seres humanos y ayudarle en tareas simples, representando uno de los mayores logros en sistemas mecanizados comenzando el nuevo milenio, transcurrieron exactamente cinco siglos. Sin embargo, en menos de una década, la popularidad de ASIMO, reforzada por su apariencia “humana”, a diferencia de esos grotescos robots del pasado, y aunado al avance de La Robótica Evolutiva (RE), la cual desarrolla los controladores de los robots mediante la evolución al usar Algoritmos Genéticos, una serie de pasos organizados que describen el proceso que se debe seguir, para dar solución a un problema específico, ya tenemos una versión New ASIMO, la cual respecto al modelo anterior, es más rápida (6km/h vs. 3km/h) y conoce más trucos, como servirte el café. ASIMO es capaz de ser controlado por una persona mediante un dispositivo ICC con un 90,6% de aciertos.

Todo ello nos hace pensar, que a vuelta de la esquina nuestras vidas serán compartidas por “Robotines”… ¿Recuerdan los supersónicos? Los que no los recuerdan, obviamente porque no habían nacido, nos referimos a una serie animada futurista de principio de los 70, en la cual robots inteligentes eran otro miembro más de la familia.

Si bien la robótica brinda ayuda a discapacitados, facilita la vida al realizar tareas en nuestro lugar y nos da entretenimiento, el hecho de que los robots sean construidos usando algoritmos genéticos, a “imagen y semejanza del hombre”, no deja de representar un peligro, pues la humanidad esta expuesta a que en un futuro, sea reemplazada por ellos. Espero estar equivocada y que no lleguemos al extremo que las máquinas se vuelvan contra nosotros, como lo plantea la película Yo Robot, o sean tan parecidos a nosotros que no podamos diferenciarlo de un robot, como el niño de la película IA.

Es mi opinión, que cada robot debe ser creado para efectuar la tarea específica para la cual fue concebido, sin darle oportunidad a “tomar decisiones”. Esa cualidad es exclusiva del hombre. Así como el microondas calienta los alimentos y no aspira, y la aspiradora aspira y no calienta, el robot debe tener una computadora manipulada por el hombre donde es él y solo él quien le indica al robot cual labor va efectuar: de 7 a 8 haz el desayuno, de 9 a 10 limpia las ventanas, etc. y luego al final del día, lo desconecta. No es el robot quien razona y dispone. Si hablamos de medicina, cada robot debe tener su especialidad: si opera ojos son ojos, sin darle lugar a “razonar”… si soy capaz de operar ojos, ¿por qué no oídos? ¿y si me transplanto estos ojos que estoy operando para ser más humano?... y otras “absurdas” ideas que puedan ocurrírseme, como  absurdas eran aquellas ideas de ciencia ficción de hace 20, 30, 40 años, pero que hoy parecieran ser casi una realidad.

Finalizo invitándolos a leer el artículo “La habitación china”, experimento mental que intenta rebatir la validez del Test de Turing, el cual plantea a su vez, que una máquina es incapaz de llegar a pensar, criterio que debería prevalecer, por el bien de la humanidad. 

¿Que opinan ustedes?

La Robótica: ¿debe ser evolutiva?

27.2.10


02/03/2010: El sismo de 8,8 grados Richter, movió el eje de la Tierra. La página universetoday destaca el artículo “Chilean Earthquake May Have Shortened the Length of a Day on Earth”, el cual traduzco a continuación:  ¿Cuán grande fue el terremoto en Chile? El investigador Richard Gross indica que la sacudida pudo haber afectado el planeta entero, cambiando su eje. Posiblemente puede haberse acortado la duración del día en 1.26 microsegundos. La utilización de un modelo JPL arrojó como resultado que el temblor debería haber movido el eje, si sus cifras son correctas, en 2.7 milliarcseconds (aproximadamente 8 centímetros, o 3 pulgadas). El mismo modelo estimó que la magnitud del terremoto de Sumatra el 26-12-2004, de 9.1 grados, acortó la duración del día en 6.8 microsegundos y movió el eje de la Tierra por 2.32 milliarcseconds (aproximadamente 7 centímetros, o 2.76 pulgadas).

Aún cuando el terremoto chileno fue 0,3 grados más pequeño que el de Sumatra, la posición del eje se movió un centímetro más, por dos motivos:

- Primero, a diferencia del terremoto de 2004, localizado cerca del ecuador, el terremoto chileno estuvo localizado en latitudes más bajas, lo cual incide más eficazmente en el cambio del eje de la Tierra.

- Segundo, la falla responsable de la ocurrencia del terremoto de Chile, tiene un ángulo ligeramente más escarpado, que la falla responsable del terremoto de Sumatra. Como consecuencia, la falla de Chile produce más movimiento de la masa de la Tierra verticalmente y de ahí mayor el cambio del eje de la Tierra.

27/02/2010.  El terremoto de magnitud 8.8 de este 27 de febrero en Chile (el séptimo más fuerte registrado desde el ocurrido en Valparaiso en el año 1960) y el de 7.0 en Haití de Enero pasado, son un recordatorio de que América Latina y el Caribe se encuentran entre las regiones más expuestas a terremotos en el mundo. También son muy vulnerables debido a los "ranchos" o pobres viviendas construidas en cerros y cauces de ríos. No deja de preocuparnos, que ambos fenómenos sucedan con un mes y algo de diferencia. ¿Cuáles son las probabilidades de que dos grandes sismos ocurran tan seguidos?


Mientras escribo esto, aún esta en vigencia el alerta de tsunamis para el Pacífico, y la cifra de muertos sigue aumentando a medida que transcurren las horas. Buscando mantenerme informada, y a propósito de la posible similitud de éste terremoto de hoy con el de Valparaiso en 1960, conseguí un artículo en el diario NY Times, el cual les transcribo a continuación.

El terremoto de magnitud 8.8 que sacudió la costa de Chile temprano en la mañana del sábado 27 de Febrero, ocurrió a lo largo de la misma falla responsable del temblor más grande alguna vez registrado, el de 9.5 en la costa de Valparaiso, también en Chile en Mayo de 1960 que mató miles en ese país, y cientos a través del Océano Pacífico. Ambos terremotos ocurrieron a lo largo de una línea de falla de la placa tectónica de Nazca, sección de la corteza terrestre en el Océano Pacífico Oriental, al sur del Ecuador, la cual desliza debajo de la placa Sudamericana. Las dos se deslizan una sobre otra a razón de una tres pulgadas y media por año, falla vertical. El temblor del sábado, generó un tsunami con olas de unos 2 metros de altura a lo largo de la costa chilena y generó alerta de tsunami para el Océano Pacífico. El epicentro se encontró a unos 300 Kms al norte del centro del terremoto de 1960, que fracturó más de 1200 Kms de la falla y fue medido en la magnitud de 9.5.

Los expertos señalaron que el terremoto no pareció tener ninguna conexión con el sismo de magnitud 7.0 ocurrido el día anterior en la costa del sur de Japón. Tampoco, señalan, tiene que ver con el sismo de magnitud 7.0 que ocurrió en Haití el 12 de enero, el cual ha matado a más de 200,000 personas, ocurrido a lo largo de una falla lateral. Paul Caruso, un geofísico norteamericano, dijo que el temblor del sábado generó aproximadamente 500 veces más energía que el de Haití, que fue medido en la magnitud 7.0. " Pero aun cuando este temblor en Chile es más intenso, probablemente no va a tener la devastación de Haití, al menos sobre la tierra. En primer lugar, la calidad de construcciones es mejor en Chile que en Haití. Y el hecho que el temblor ocurrió a cierta distancia de la costa también debería ayudar a limitar la destrucción. En Haití, la ruptura ocurrió sólo a unas millas de la capital, Puerto Príncipe. La ruptura del sábado fue centrada aproximadamente 350 Kms hacia el sudoeste de la capital chilena, Santiago, y 125 Kms de la ciudad más cercana, Chillan. En algunos aspectos, el temblor chileno es similar al terremoto indonesio del 26 de diciembre de 2004. Aquel temblor, que también ocurrió a lo largo de una falla de empuje, generó un tsunami que mató a más de 200,000 personas alrededor de Océano Índico.

Cuando estos movimientos ocurren debajo del agua, las probabilidades de generar tsunamis es mayor dijo David Schwartz, geólogo de Menlo, California " Cuando las fallas deslizan, causa el rompimiento y hace subir el agua, " dijo " Esto empuja una parte del agua. Y aquella agua tiene que ir a algún sitio. " Es lo que ocurrió en 1960. Un tsunami generado por aquel temblor devastó Hilo, Hawai, con ondas(olas) tan altas como 35 pies, matando a 61 personas. El tsunami alcanzó las partes del norte de la isla japonesa de Honshu, aproximadamente un día después del temblor, matando a 185 personas y destruyendo más de 1,600 casas.

Termino expresando que no estoy de acuerdo con el "experto" quien dice que los sismos de Japón y de Haití, no tienen relación. Debemos recordar que las placas tectónicas se asientan unas sobres otras, y si una se mueve, la otra eventualmente también lo hará, y más con sismos tan fuertes. Japon esta en la placa del Pacifico y la misma colinda con la de Cocos y ésta con la del Caribe y también se apoya sobra la de Nazca (Ver imagen). ¿ Tienen o no relación? Mejor estemos preparados, porque los sismos no avisan, digan lo que digan los expertos.

La imagen que encabeza esta entrada la tomé de la galería "The big Picture"

Grandes terremotos en Haití y Chile: América Latina vulnerable.

2.2.10


Por lo menos 1783 muertes en todo el mundo el resultado de la actividad sísmica en el 2009.El peor terremoto del año fue un evento de magnitud 7,5 que mató a aproximadamente 1.117 personas en el sur de Sumatra, Indonesia el 30 de septiembre, según el Servicio Geológico de EE.UU. (USGS) y confirmada por la Oficina de las Naciones Unidas para la Coordinación de Asuntos Humanitarios (OCAH) . Sin embargo, el número de víctimas mortales relacionadas con el terremoto en 2009 fue mucho menos que el recuento de 2008 de más de 88.000. El elevado número de víctimas mortales en 2008 se debió principalmente a la magnitud 7,9 devastador terremoto ocurrido en Sichuan, China 12 de mayo. Aunque sin relación, el terremoto en Indonesia 30 de septiembre ocurrió un día después del terremoto más fuerte del año, de una magnitud 8,1 el 29 de septiembre en la región de las Islas Samoa. Los tsunamis generados por el terremoto mató a 192 personas en American Samoa, Samoa y Tonga. Un terremoto de magnitud 6,3 sacudió la ciudad medieval de L'Aquila, en el centro de Italia el 6 de abril, matando a 295 personas.

En general, los terremotos cobraron la vida de personas en 15 países en cuatro continentes durante el 2009, incluyendo Afganistán, Bhután, China, Costa Rica, Grecia, Indonesia, Italia, Kazajstán, Honduras, Japón, Malawi, Samoa, Sudáfrica y Tonga, así como el territorio de los EE.UU. de la Samoa Americana. Terremotos personas heridas en 11 países adicionales, incluyendo el territorio continental de Estados Unidos, donde un terremoto de magnitud 4,4 en 2 de mayo hirió a una persona en el área de Los Angeles. El mayor terremoto de 2009 en los 50 estados de Estados Unidos fue, una vez más, en las Islas Aleutianas de Alaska. El terremoto de magnitud 6,5 se produjo en las Islas Fox el 13 de octubre. Se consideró a las ciudades de Akutan y Unalaska, pero no causó víctimas ni daños. El terremoto más grande del año en los estados contiguos de Estados Unidos tuvo una magnitud de 5,2 caso el 2 de octubre en el sureste del valle de Owens de Lone Pine, California Debido a la escasa población en la zona epicentral, el terremoto no causó daños, aunque se consideró tan lejos como la Merced y Los Ángeles, California y Las Vegas, Nevada.

El año pasado también marcó el quinto aniversario de la magnitud de 9,1 del terremoto de Sumatra-Andaman Island y posterior tsunami el 26 de diciembre de 2004. Ese terremoto y el tsunami mató a 227.898 personas, que es el cuarto mayor número de víctimas de los terremotos y la mayor cifra para un tsunami en la historia. Como consecuencia de ese terremoto, el USGS ha mejorado significativamente su notificación terremoto y la capacidad de respuesta. Las mejoras incluyen la adición de nueve estaciones de tiempo real sísmica en la cuenca del Caribe, una región propensa a los sismos y los tsunamis cerca de la frontera sur de EE.UU., la implementación de un centro de operaciones 24x7 terremoto en el USGS National Earthquake Information Center (NEIC), y desarrollo de innovadores herramientas para la evaluación rápida de la exposición de la población y los daños a los terremotos potencialmente perjudiciales.

El USGS estima que varios millones de terremotos se producen en todo el mundo cada año, aunque la mayoría no se detectan porque han afectado a zonas remotas o tienen magnitudes muy pequeñas. El USGS NEIC publica los lugares de alrededor de 40 sismos por día, o unos 14.500 anuales, con un umbral de la publicación de magnitud 4,5 o mayor en todo el mundo o 2,5 o superior en los Estados Unidos. En promedio, sólo 18 de estos se producen los terremotos de una magnitud de 7,0 o superior cada año.En el año 2009, 17 sismos alcanzó una magnitud de 7,0 o superior y una se rompió de una magnitud de 8,0. Estas estadísticas son superiores a los de 2008, que experimentaron sólo 12 terremotos de magnitud 7,0 y en ninguno más de 8,0. Factores tales como el tamaño de un terremoto, la ubicación y profundidad del terremoto en relación con los centros de población y la fragilidad de los edificios, servicios públicos y carreteras, influyen en cómo los terremotos que afectan a las comunidades cercanas.

Una lista completa de las estadísticas de 2009 del terremoto se pueden encontrar en la Información sobre Terremotos de 2009 del sitio Web. Para controlar los terremotos en todo el mundo, el USGS NEIC recibe los datos en tiempo real de casi 990 estaciones en 85 países, entre ellos el 150-estación de la Red Global sismológicos, que es apoyado conjuntamente por el USGS y la National Science Foundation y operado por el USGS en colaboración con el Instituciones de Investigación Incorporada de Sismología (IRIS), consorcio de universidades. En los Estados Unidos, los terremotos presentan un riesgo significativo de 75 millones de personas en 40 estados. El USGS y sus socios en la multi-agencia nacional Earthquake Hazard Reduction Program están trabajando para mejorar el terremoto de monitorización y notificación a través de la USGS Sistema Sísmico Nacional Avanzado (ANSS). Más información acerca de ANSS se puede encontrar en el sitio Web de ANSS.
Fuente pagina del USGS.

Víctimas por actividad sísmica en el 2009

22.1.10


Ampliando el tema sobre las posibles causas de incremento de actividad sísmica en el mundo, con magnitudes cada vez más altas, nuestro colaborador Renato da con un boletín emitido ayer 21 de Enero, el cual alerta sobre el aumento en la frecuencia de sismicidad en Yellowstone, especialmente en lo que va de Enero, soportada con la siguiente gráfica, tomada de la página de la USGS:
Llama la atención la coincidencia entre el incremento de ocurrencia de sismos por desplazamientos de placas, con el aumento de sismicidad en Yellowstone. Me inquieta pensar, que el terremoto en Haití con sus respectivas réplicas, y los sismos con magnitud mayor a 5.5 ocurridos últimamente a nivel mundial, tengan alguna relación con el aumento en la sismicidad de este supervolcán. Para determinar que tan cierto es este planteamiento, comencé por consultar en la página en inglés de la USGS, cuál ha sido la ocurrencia de sismos en los últimos 8 días, es decir, del 15 al 22 de Enero. Solo para Yellowstone (ver la sección de eventos de Magnitud 2.5 o más en los Estados Unidos y Zonas Adyacentes; o de Magnitud 4.0 o más para el Resto del Mundo en el siguiente link, http://neic.usgs.gov/neis/bulletin/bulletin_esp.html), sorprende contar 36 eventos entre 2.5 y 3.8, y 10 de ellos de magnitud 3.0 o más! Evidentemente, las erupciones volcánicas producen terremotos. Pero ¿sucede lo contrario? La pregunta viene, porque los Volcanes y los terremotos son dos manifestaciones de actividad de las placas litosféricas, las cuales se concentran principalmente en el borde de los continentes, en zonas donde hay contacto de dos placas. En los actuales momentos, estos bordes están particularmente activos, de acuerdo a la siguiente figura, preparada por Renato:

Con el motor de búsqueda de Google, conseguí que los primeros artículos relacionados al asunto tratan el tema “como la sexta revelación del libro del Apocalipsis” y “se esta dando el movimiento de placas tal como vemos en la película 2012”, planteamientos que respeto, pero un poco fantasiosos. Así que opté por consultar fuentes más científicas, que confirmen si los terremotos pudieran anteceder erupciones.

En Wikipedia describen al “Parque Nacional de Yellowstone, como situado en los Estados Unidos, al noroeste del estado de Wyoming, creado en 1872, lo que lo convierte en el parque nacional más antiguo del mundo, con una extensión de 8.983 km² y famoso porque en él se encuentran dos tercios de todos los géiseres del mundo, motivo por el cual recibe cada año la visita de cerca de tres millones de personas, lo que hace de él uno de los parques americanos más frecuentados.

Pareciera que los recientes terremotos, si pudieran estar afectando Yellowstone y de allí el aumento en frecuencia e intensidad de la sismicidad esta semana, aunque realmente no tienen relación porque el magma que alimenta este supervolcan proviene de un "punto caliente". Así que seguí indagando y en Astroseti, hay un articulo publicado en 2006, en el cual indican: “Un estudio revela que fuerzas que moran debajo del Parque Nacional de Yellowstone podrían estar haciendo aún más grande a uno de los mayores volcanes de la Tierra. A lo largo de la década pasada, parte del volcán se ha elevado casi 12 centímetros, muy probablemente debido a un respaldo de roca fundida que fluye kilómetros por debajo de la corteza del planeta. El artículo completo pueden leerlo en http://www.astroseti.org/vernew.php?codigo=2000

Esta nota me llevó a otro artículo en la página de National Geographic, en el cual señalan que "el geólogo Jake Lowenstern, quién está estudiando el volcán debajo de Yellowstone, informó al Canal de National Geographic, las pistas antes de una erupción. El magma comenzará a subir. Esto causará que la tierra parezca como si tuviera pequeños bultos en la superficie. Los geólogos han puesto un equipo especial por todas partes del parque. Estos aparatos nos dicen que a la tierra de Yellowstone no le está saliendo bultos. Los terremotos son otra señal de que un volcán está a punto de entrar en erupción. En Yellowstone hay terremotos todo el tiempo. La mayoría son muy pequeños. Antes de una erupción habrá muchos terremotos fuertes que harán vibrar al parque. Pero esto tampoco está ocurriendo. Es posible que tome miles de años o quizás más antes de que Yellowstone entre en erupción otra vez"

Sin embargo, esto fue en 2006 y han transcurrido casi 4 años, por lo que habrá que seguir muy de cerca el comportamiento de esta sismicidad, esperando que sea cierto lo de “Es posible que tome miles de años… antes de que Yellowstone entre en erupción otra vez”

Sismicidad en Yellowstone

21.1.10



Corriente anormal lleva la Gulf-Stream hacia Groenlandia

Finalmente en la página en inglés http://www.dailykos.com/, conseguí respuesta a mi inquietud sobre la posible influencia de la corriente del Golfo en el comportamiento inusual de la ola de frío polar. Claro, yo pensé que como el Atlántico esta más frío, la corriente del Golfo también, pero según el artículo, la corriente cálida del Golfo "consiguió una conexión hacia el mar de Groenlandia" en un hecho sin precedente.

He traducido el artículo y en el mismo podemos interpretar que : "Una circulación atmosférica sin precedentes ha conducido una fuerte corriente directa de unión (conexión) entre la corriente del Golfo y la corriente de Groenlandia. Este es un acontecimiento excepcional. Aunque estos acontecimientos meteorológicos tan excepcionales han sido predichos, la conexión inusual podría ser una variación natural de tiempo y corrientes..." "El aire caliente sobre el Océano Artico y Groenlandia, redujo la marcha de la formación de hielo en el mar. El hielo en el Mar de Labrador disminuyó a finales de diciembre pasado como consecuencia de esta fuerte corriente de conexión, que trajo agua caliente por encima de la costa occidental de Groenlandia"

También agrega: "El pasado da pistas a lo que podría estar ocurriendo en el Atlántico Norte. Recientes investigaciones sobre paleoclimas muestran que agua muy caliente del Gulf-Stream penetró muy al norte en los mares entre Groenlandia y Noruega en el Paleozeno, antes de las glaciaciones del Pleistozeno. La USGS trazó un mapa Sinóptico (el PRISMA) con valores actuales para reconstruir las posibles condiciones globales futuras, y tratar así de entender la dinámica del clima. Los resultados previos indican que hay diferencias de temperaturas entre las ocurridas antes de la glaciación y las actuales, en la latitud Norte (Dowsett et al. 1992), toda vez que las aguas actuales no están aún tan cálidas como entonces. Es decir, para ese periodo, las temperaturas cercanas al ecuador eran similares a las temperaturas actuales, pero no así en las latitudes más altas, pues eran varios grados más calientes que hoy en día."

Pienso, que esta anormalidad ha sido un aviso.

Publicado el 11-01-2009: El sábado les comenté el inusual desvio de la ola de frío hacia el sur, debido a un frente de alta presión que impidió su normal circulación hacia arriba. Hoy, Omar Baddur de la Organización Meteorológica Mundial (OMM) señala lo siguiente: "La ola de frío polar que afecta desde hace varias semanas a una gran parte del hemisferio norte se debe a un fenómeno conocido pero poco frecuente de "bloqueo" de la circulación del aire. Por el momento es "demasiado pronto" para establecer un vínculo entre las temperaturas glaciales registradas en algunas regiones con el fenómeno de El Niño, indicó. El Niño es calentamiento cíclico de las aguas del océano Pacífico ecuatorial que provoca manifestaciones atmosféricas inhabituales en el mundo entero. Por ahora "la única explicación" de la ola de frío "es una situación meteorológica de bloqueo", agregó. El fenómeno de bloqueo se caracteriza por un cambio de la circulación del aire que se hace habitualmente en invierno en el hemisferio norte, del oeste hacia el este. "La ondulación se hace del norte hacia el sur. Cuando esa ondulación es muy vasta, a escala planetaria y persiste varias semanas, se habla de bloqueo", explicó Baddur. Actualmente hay tres ondulaciones, con aire frío que desciende directamente del polo norte, en tres zonas distintas, señaló Baddur. Una en Estados Unidos y México, otra en un eje meridional que cubre toda Europa del oeste (desde los países escandinavos hasta el oeste del Mediterráneo, pasando por Gran Bretaña, Francia, Alemania y España) y una tercera en Rusia oriental y China. "Un bloqueo a tal escala no se produce muy seguido, podemos decir cada 30-50 años", dijo Baddur. El bloqueo actual se está terminando, agregó el especialista de la OMM."En general dura varias semanas, entre un mes y un mes y medio. Comenzó en diciembre por lo tanto llegamos al final", afirmó Baddur."

Por otra parte el representante de la Aemet ha asegurado que es "normal" que se produzcan periodos de dos o tres días de frío intenso como los que se han registrado, pero "lo que no puede considerarse tan normal es que nieve en cotas muy bajas como ocurrió el domingo en Córdoba y pueblos de Sevilla. Esta situación se ha producido, debido a la combinación de una masa de aire húmedo de componente oeste con el aire frío existente en niveles muy bajos.

En México
: La masa de aire polar que originó el frente frío número 22 afecta a al menos 20 entidades del país, por lo que continuará la alerta en las próximas 48 horas debido a las heladas, potenciales lluvias y temperaturas de ocho grados bajo cero que en las últimas horas causaron la muerte de tres personas en el estado de Nuevo León. En Durango, el termómetro alcanzó el fin de semana 11 grados bajo cero. En Zacatecas el termómetro marcó ocho grados bajo cero.

En China
: Las bajas temperaturas que sufre China desde principios de año han causado que una parte del mar en las costas del norte del país se haya congelado, una situación poco habitual otros inviernos, informó hoy la agencia oficial Xinhua. Según los responsables marítimos estatales, se trata de la "más grave situación de los últimos años" en las aguas que bañan la provincia costera de Shandong, y podría empeorar en los próximos días ya que se espera que las bajas temperaturas continúen. El hielo, por ejemplo, ha sorprendido a más de 200 barcos pesqueros en la bahía de Jiaozhou, que se encuentran bloqueados allí a la espera de que el hielo se derrita. Otro peligro que conlleva la situación es el desprendimiento de grandes bloques de hielo de estas capas, amenazando la navegación marítima. La ola de frío ha causado problemas de transporte y energéticos en todo el país asiático, especialmente en el norte, donde ciudades como Pekín sufrieron poco después de Año Nuevo las peores nevadas en seis décadas.

En Ucrania
: Al menos 169 personas murieron por hipotermia en Ucrania, 46 de ellas en sus casas, en lo que va de invierno, como consecuencia de las bajas temperaturas, informó hoy el ministerio de Sanidad ucraniano. Según los datos actualizados hasta el mediodía de hoy, 2.317 personas acudieron al hospital por congelación, de los cuales 1.548 fueron ingresados porque su vida corría peligro.

Océanos absorben más CO2 de lo esperado:
Lei tres artículos en inglés publicados en http://www.sciencedaily.com. El primero indica "La mayor parte del dióxido de carbono emitido por la actividad humana no permanece en la atmósfera, sino que es absorbido por los océanos y ecosistemas terrestres. De hecho, sólo aproximadamente el 45 por ciento de las emisiones permanecen en la atmósfera ". El segundo confirma "Nuevos datos muestran que el equilibrio entre la emisión de dióxido de carbono y la fracción absorbida por la atmósfera ha permanecido aproximadamente constante desde 1850, a pesar que las emisiones se han elevado de 2 mil millones de toneladas por año desde 1850, a 35 mil millones de toneladas por año a la fecha. Esto sugiere que ecosistemas terrestres y océanos tienen una capacidad mucho mayor para absorber CO2 de lo esperado". El tercero, publicado hoy, señala "Un equipo internacional de científicos conducidos por la UEA, ha desarrollado un nuevo método de medir la absorción de CO2 del Atlántico Norte completo, y ha trazado un mapa de los resultados... El nuevo método estima el flujo y como varía de año en año y con cada estación, con un detalle nunca antes realizado. Métodos similares podrían ser establecidas en otros océanos y los resultados podrían ser usados para detectar cualquier debilitamiento en la respuesta de absorción del dióxido de carbono por parte de los océanos. Los resultados son importantes para analizar los efectos de subida de CO2 en la atmósfera."

En http://oraculodeoccidente.wordpress.com, hay interesantes publicaciones y comentarios relacionados al tema. Alli comenté, que es irónico que el planeta sufra en este momento una ola de frío extremo en el norte y de un calor extremo en el sur. En Caracas estamos sufriendo un inusual calor de 28 grados cuando debería ser de 16/18 grados, y la actual sequia que ha vaciado el embalse hidroeléctrico de El Guri, ha obligado a aplicar restricciones de suministro y uso de energía eléctrica.

De acuerdo a lo anterior:
- No puede aún establecerce un vínculo entre las temperaturas glaciales con el fenómeno de El Niño
- No puede considerarse normal las nevadas en cotas muy bajas (Sevilla, Mexico, Florida)
- La ola de frío polar que afecta desde hace varias semanas a una gran parte del hemisferio norte se debe a un fenómeno conocido pero poco frecuente de "bloqueo"

- Nuevos datos muestran que el equilibrio entre la emisión de dióxido de carbono y la fracción absorbida por la atmósfera ha permanecido aproximadamente constante desde 1850, o sea, estos comportamientos inusuales no se deben al efecto invernadero.

La temperatura del Atlántico esta algo más fría este año. Sigo indagando en la red, a ver si consigo alguna publicación que mencione si se esta realizando algún estudio sobre la posible incidencia de un océano más frio en el "enfriamiento" de la Corriente del Golfo, y por ende, en que tengamos un invierno mas extremo en el norte del planeta. ¡Es para reflexionar!.

Corriente del Golfo y la ola de frío