Inicio

 

Ya puedes DESCARGAR todos nuestros PROGRAMAS DE RADIO "EL ALEPH" en la Sección NOSOTROS-PROGRAMACIÓN--

 

NOTICIAS CIENTÍFICAS


Octubre 2010

TITULARES DE LAS NOTICIAS DEL MES

 

Creadas células "zombies" que se activan con luz

El Sol desde otra perspectiva

Las "buckybolas" pueden ser el origen de la vida

La última frontera del universo

Mundos oscuros en los confines del universo

La ciencia se acerca a la lectura del pensamiento

Hallan la estrella de neutrones más masiva

El rayo que nos cambió la vida

Textiles inteligentes integrados en redes inalámbricas para ocio y salud

¿Y si el universo fuera un hologroma?

Vegetación autóctona clave para recuperar territorios contaminados

Bienvenidos a la segunda era espacial

La NASA descubre plata en la cara oculta de la Luna

El LHC busca universos paralelos

"Esto puede ser muy parecido a `Gran Hermano´"

La sonda LCROSS confirma la presencia de agua helada en la Luna

La ONU pesimita con respecto a los acuerdos de Cancún

La nueva "arca de Noé" es una torre de 100 metros

El canibalismo del "Tiranosaurio rex"

Cazando leones en Atapuerca

"Las matemáticas siempre han ayudado al progreso de las ciencias"

El nitrógeno antropogénico, una amenaza para la flora y la fauna

Un yacimiento de gas junto al "Prestige"

Objetivo: detectar el cáncer en la sangre

La mano de obra sale a 4,6 euros por iPhone en China

EEUU trata al primer paciente con células madre embrionarias

"No he visto un nivel de destrucción así en mi vida"

El primer ministro húngaro habla de "negligencia humana" tras el vertido tóxico

Google diseña un coche sin conductor

Naves interestelares: un grupo de científicos diseña una máquina para ir más allá del Sol

Mil millones de toneladas de hielo del polo Sur para observar neutrinos

Aragón registra un caso de malaria autóctono

El vertido tóxico ya alcanza el Danubio

Terremotos: ¿esta la naturaleza fuera de control?

California tiembla por la amenaza del "Big One"

Así robó el Sol a Marte su atmósfera

La fuga de una sustancia tóxica deja al menos tres muertos en Hungría

Nobel de Física para dos científicos rusos por sus trabajos sobre el grafeno

Los océanos pueden esconder 750000 especies marinas

La mosca de la fruta se expandió por el mundo desde África

Nuevo telescopio de rayos X para estudiar agujeros negros

Pseudociencia en el campus

La muerte de un planeta

Los dinosaurios que surgían de la tierra

 

Archivo


-Creadas células "zombies" que se activan con luz

Compuesto fotosensible.

  Un equipo de la Universidad Duke (EEUU) ha desarrollado células que cambian su estado cuando se les proyecta un simple rayo de luz azul. La investigación, publicada en Nature Methods, tiene el objetivo de desarrollar células modificadas que puedan regenerar tejido cerebral dañado o incluso segregar un medicamento en tejidos enfermos, según Chandra Tucker, investigadora principal del proyecto. Se trata de una técnica a muy largo plazo cuyos primeros frutos se centrarán en la investigación básica o animal, reconocen los autores.

Los investigadores usaron células de levadura, así como células de hígado y del cerebro de ratones. Introdujeron en ellas dos proteínas de la planta Arabidopsis thaliana. Cuando se exponen a la luz, las proteínas se activan dentro de las células, lo que podría ayudar a controlar sus funciones. Hasta ahora, los trabajos previos en este campo necesitaban inocular otros productos en las células modificadas para que sus interruptores se encendiesen o apagasen cuando se les aplicaba luz.

"Este nuevo sistema, con una de las moléculas ya dentro de las células, hace mucho más fácil construir un interruptor de luz", explica Tucker. El interruptor de Tucker permite controlar la interacción de diferentes proteínas dentro de las células.

Si se logra perfeccionar la técnica, podría contribuir a que células enfermas se suicidasen o que otras segregasen medicamentos a zonas dañadas. Como también funciona en células cerebrales, se podrían reconstruir conexiones neuronales

 

Fuente: publico.es, 31-10-10

 

 

-El Sol desde otra perspectiva

 

Esquema de un torbellino horizontal (las flechas representan la velocidad). | CSIC

 

  El telescopio solar Sunrise ha desvelado una "inesperada" actividad en el Sol, según los primeros resultados de esta misión publicados en doce artículos en la revista The Astrophysical Journal Letters.

La misión, cuyos resultados proceden en su mayoría del magnetógrafo IMaX, diseñado y construido en España, ha revelado una "espectacular" actividad en regiones de la superficie solar que se consideraban en calma. El magnetógrafo es el instrumento que registra los componentes del campo magnético de un astro y fue construido bajo la dirección del Instituto de Astrofísica de Canarias y con la participación de la Universidad de Valencia, el Instituto Nacional de Técnica Aeroespacial y el Instituto de Astrofísica de Andalucía.

"Tan sólo con el análisis de dos períodos de observación de media hora cada uno hemos obtenido resultados espectaculares, la mayoría con datos de IMaX/Sunrise, lo que constituye un verdadero éxito de la misión y de la tecnología desarrollada por el equipo español", ha remachado el investigador del CSIC José Carlos del Toro.

El telescopio Sunrise, durante un viaje de cinco días en globo circunvolando el Ártico, estudió la superficie solar con una resolución sin precedentes, de casi 100 kilómetros. Despegó en junio de 2010 desde Suecia y se situó durante cinco días a una altura de 40 kilómetros sobre la superficie terrestre.

Varios hallazgos

Los recientes resultados aportan luz a algunos de los más antiguos problemas de la física solar, como el calentamiento de la cromosfera, la capa inmediatamente superior a la fotosfera, la superficie del Sol.

Hasta ahora se desconocía por qué, si la temperatura de la fotosfera se estima en 6.000 grados, en la cromosfera se alcanzaban hasta 20.000. IMaX/Sunrise ha hallado que en las regiones por debajo de la fotosfera se produce el doble de energía acústica de lo que se pensaba, "lo que se acerca a los valores necesarios para explicar el calentamiento cuando dicha energía se transporta hacia arriba".

Esta energía se produce por los movimientos convectivos en el Sol, es decir, por material caliente que asciende hacia la superficie, se enfría y vuelve a descender. Esta convección genera cambios de presión que se propagan en forma de ondas que, al transportarse, liberan energía térmica y aumentan la temperatura. IMaX/Sunrise también ha permitido obtener pruebas directas de la existencia de tubos de flujo magnético a pequeña escala, considerados los ladrillos del magnetismo solar desde los años 70, pero cuya existencia había sido imposible de demostrar de forma directa por su pequeño tamaño. Otro de los hallazgos se relaciona con la granulación solar, fenómeno producido por el gas caliente que sube hacia la superficie desde el interior solar (similar al burbujeo del agua al hervir) y que se manifiesta en forma de gránulos con un tamaño medio de aproximadamente 1.000 kilómetros y una duración de cinco minutos.

Se han descubierto torbellinos horizontales que avanzan a través de las celdas de los gránulos y pequeñas estructuras magnéticas horizontales que aparecen y desaparecen. En definitiva, Sunrise "ofrece una panorámica del Sol inédita y caracterizada por una actividad constante a pequeña y gran escala", según Del Toro. En un segundo vuelo, previsto para 2013, Sunrise completará una trayectoria alrededor del polo Sur de entre 12 y 14 días.

Fuente: elmundo.es, 30-10-10

 

-Las "buckybolas" pueden ser el origen de la vida

El pasado mes de julio, el telescopio Spitzer de la NASA descubrió en una nebulosa planetaria un raro fenómeno que nunca antes había sido hallado en el espacio. Consiguió detectar «buckybolas», unas moléculas de carbono con forma de balón de fútbol y con propiedades únicas cuya existencia más allá de la atmósfera resultaba una auténtica sorpresa. El asombro fue tan grande que los científicos llegaron a plantearse que podría tratarse de algo anecdótico, y que, simplemente, habían tenido suerte al encontrarlas. Nada de eso. Estas esferas de carbono no solo existen allá arriba, sino que son muy abundantes. El Spitzer las ha encontrado alrededor de tres estrellas moribundas en la Vía Láctea y cerca de una cuarta en una galaxia cercana, donde hay tantas que su masa equivale a quince lunas como la nuestra. El hallazgo puede tener importantes repercusiones en la comprensión de cómo se formó la vida en la Tierra.

Las «buckybolas», también conocidas como fullerenos, son moléculas que constan de 60 átomos de carbono unidos. Toman su nombre del parecido con las cúpulas geodésicas del arquitecto Buckminster Fuller, como las que se encuentran en la entrada del parque temático Epcot de Disney, en Orlando, Florida (EE.UU.). Estas esferas en miniatura fueron descubiertas por primera vez en un laboratorio hace 25 años, y son muy comunes en el hollín de las velas y en las capas de rocas y meteoritos, pero no fue hasta el pasado julio que pudo confirmarse su existencia en el espacio.

«Resulta que las buckybolas son mucho más comunes y abundantes en el Universo de lo que inicialmente se pensaba», explica la astrónoma Letizia Stanghellini, del Observatorio Nacional de Astronomía Óptica en Tucson, Arizona. «Spitzer las había encontrado recientemente en una posición específica, pero ahora las hemos visto en otros entornos. Esto tiene implicaciones para la química de la vida. Es posible que las buckybolas del espacio exterior proporcionaran las semillas para la vida en la Tierra».

 

Quince veces la masa de la Luna

Los investigadores, liderados por Aníbal García-Hernández, del Instituto de Astrofísica de Canarias, encontraron las esferas alrededor de tres estrellas moribundas similares al Sol, conocidas como nebulosas planetarias, en nuestra Vía Láctea. Todas las nebulosas donde se han detectado buckybolas son ricas en hidrógeno. Esto contradice lo que los investigadores han pensado durante décadas, ya que creían que el hidrógeno contaminaría el carbono, provocando que se formasen cadenas y otras estructuras en lugar de esferas.

El equipo también localizó estas bolas en una nebulosa planetaria dentro de una galaxia cercana conocida como Pequeña Nube de Magallanes. Y hay muchísimas: juntas tienen un 2% la masa de la Tierra, lo que es lo mismo a quince veces la masa de la Luna.

Cestas para la vida

Las implicaciones de este descubrimiento son de gran alcance. Los científicos han especulado en el pasado con las buckybolas, las cuales pueden actuar como cestas para moléculas y átomos, y podrían haber transportado sustancias a la Tierra para el inicio de la vida. Las pruebas para esta teoría proceden del hecho de que se han encontrado buckybolas en meteoritos que portan gases extraterrestres.

«Las buckybolas son una especie de diamantes con agujeros en el centro», dice Stanghellini. «Son unas moléculas increíblemente estables y difíciles de destruir, y podrían transportar otras moléculas interesantes en su interior. Esperamos aprender más sobre el importante papel que pueden desempeñar en la muerte y el nacimiento de estrellas y planetas, y tal vez en la propia vida».

En la Tierra, el estudio de estas moléculas se aplica a la investigación en fármacos, superconductores, dispositivos ópticos y potabilización de agua, entre otros ejemplos.

Fuente: abc.es, 29-10-10

 

-La última frontera del universo

Un mínimo punto de luz, casi invisible, indetectable durante miles de millones de años, aparece de pronto en el fondo negro del Universo. Como un signo de puntuación escrito en el espacio, los telescopios dejan de leer para detenerse y enfocar lo más posible sus objetivos. Esa pequeña nota luminosa es el objeto más distante jamás detectado, una galaxia de complejo nombre bautizada como UDFy-38135539, cuya luz ha tardado 13.000 millones de años en llegar a la Tierra. Ningún cuerpo celeste más lejano ni más antiguo ha sido visto jamás por el ser humano.

A medida que las técnicas de detección se han ido desarrollando, los astrónomos han sido capaces de encontrar objetos cada vez más lejanos en el espacio; galaxias, estrellas o quasares que aparecieron apenas unos cientos de millones de años después de la gran explosión del Big Bang, cuando el Cosmos, mucho más pequeño y menos «concurrido», era muy diferente del que hoy conocemos, y la aparición de la Tierra ni siquiera estaba apuntada en la agenda de la creación.

En el centro del cuadrado blanco galaxia más lejana de la conocidas

 

 

La galaxia que ha batido todos los records fue detectada por primera vez por la nueva Cámara de Gran Angular 3 (WF3) del telescopio espacial Hubble en 2009. Ahora, científicos del Observatorio Europeo Austral (ESO) han confirmado en una investigación publicada en la revista Nature, su antiquísima naturaleza. No ha sido nada fácil dar con ella, ya que su luz, emitida tan sólo 600 millones de años después del Big Bang, ha llegado a la Tierra de forma extremadamente débil, en gran parte porque hasta esa época una densa nube de hidrógeno neutro cubría casi todo el Universo. Descubrirla es como encontrar una aguja en una pajar... lleno de niebla. Para ello, han utilizado la técnica de espectroscopia, la más fiable para echarle años a las galaxias.

«Estamos asistiendo, si no a la primera generación de estrellas, a una de las primeras que aparecieron en el Universo, y eso tiene un impacto cosmológico muy fuerte», explica Miguel Mas Hesse, investigador del Centro de Astrobiología (INTA-CSIC). Es cierto. La carrera de hallazgos ha sido impresionante en los últimos diez años. La última galaxia ha desbancado en el puesto de objeto más lejano a una estrella descubierta el pasado año, cuya muerte en forma de estallido de rayos gamma, una potente explosión de energía, llegó a la Tierra tras viajar también cerca de 13.000 millones de años. A su vez, este «ejemplar de Neandertal», como fue descrita por los científicos españoles que participaron en su detección, le quitó el puesto a una lista de galaxias y quasares formados cuando el Universo tenía de 700 a 800 millones de años.

La edad oscura

Ahora, los científicos se enfrentan a un reto aún mayor, descubrir objetos de un tiempo incluso anterior, cuando el Universo entero no tenía más de 500 millones de años, estructuras que pertenecen al final de la llamada «edad oscura», la época tras la que aparecieron las primeras estrellas y de la que se aún se sabe muy poco. «Estamos seguros de que en los próximos años, con los instrumentos que ya tenemos -entre ellos destaca el Gran Telescopio de Canarias-, vamos a ser capaces de alcanzarlo», augura Mas. Pero serán dos grandes telescopios, el espacial James Webb, que se lanza en 2014, optimizado para trabajar en la longitud de onda en la que llegan las emisiones de este tipo de estrellas «arqueológicas», y el potentísimo y gigantesco E-ELT, que abrirá su gran ojo tres años más tarde en Chile, los que podrán analizar en profundidad estas maravillas . Cuando entren en funcionamiento, el Universo tendrá menos secretos.

Los objetos más antiguos tras el Big Bang:
1) 13.074 millones de años: La galaxia UDFy-38135539, descubierta en 2009, es el objeto más lejano y antiguo
2) 13.035 millones de años: El estallido de rayos gamma GRB 090423, en cuyo descubrimiento participó el CSIC
3) 12.968 millones de años: Galaxia A1689-zD1. Su edad pudo ser confirmada hace un par de años
4) 12.888 millones de años: Galaxia A2218, donde se forman estrellas masivas de manera intensa
5) 12.882 millones de años: Galaxia OIK 1. Su edad fue confirmada por espectroscopia en 2006
6) 12.797 millones de años: El quásar CFHQS J2329-031, una galaxia dominada por un agujero negro muy masivo.

Las capas de cebolla

¿Cómo saben los científicos que lo que o es tan lejano y antiguo? Básicamente, el quid de la cuestión lo tiene un fenómeno de la Física llamado corrimiento al rojo, que pone a cada objeto su medalla en el ranking. «Cuanto más lejos está un objeto, su espectro se desplaza hacia las longitudes de onda del rojo, lo que permite calcular la distancia a la que se encuentra», indica Miguel Mas. La galaxia ganadora tiene un corrimiento al rojo de 8,6; la estrella en segunda posición, uno de 8,2. «Hace diez años, el límite estaba tan solo en 2 ó 3, lo que demuestra lo mucho que hemos avanzado». señala el investigador del CSIC. «Es como quitar capas a una cebolla -continua-, cuanto más lejos están los objetos vamos más atrás en el tiempo y podemos conocer cómo ha evolucionado el Universo».

Fuente: abc.es, 29-10-10

 

-Mundos oscuros en los confines del universo

Rebuscando en los archivos de imágenes digitales tomadas por el telescopio espacial Hubble, un equipo de astrónomos ha detectado recientemente 14 nuevos vecinos de Plutón. El estudio de tales objetos trans-Neptunianos, oscuros y helados, sirve para comprender los momentos iniciales de la formación de nuestro Sistema Solar hace ahora 4.500 millones de años.

Comparación de tamaños y colores de los mayores TNOs | A. Feild (STScI)

Algunos de los mayores TNOs que se conocen | NASA, ESA, A. Feild (STScI

La región abisal del Sistema Solar

Plutón no es más que uno de los numerosos pequeños mundos que pueblan la región profunda del Sistema Solar, más allá de la órbita de Neptuno. Apenas iluminados por el lejano Sol, estos objetos trans-Neptunianos (o TNOs, por sus siglas en inglés) viven en una permanente oscuridad que dificulta su localización y su estudio.

Se ha determinado bien la órbita de unos dos centenares de TNOs, pero de la inmensa mayoría de éstos se conoce muy poco. Plutón, prototipo de los recientemente denominados 'planetas enanos', es el mayor de todos los objetos de esa región, desde donde también nos llegan numerosos cometas, como el Halley.

Auténticas reliquias intactas desde la formación del Sistema Solar, estos cuerpos conservan la composición química de la nube primordial que formó nuestro sistema planetario. Su estudio nos permite por tanto ayudar a comprender los momentos iniciales de la formación del Sol y su grupo de planetas, hace ahora unos 4.500 millones de años.

Buscando débiles estelas

El inmenso legado del telescopio espacial Hubble, en la forma de numerosísimas y muy profundas imágenes digitales, se ha revelado como un poderoso archivo para detectar nuevos ejemplares de estos débiles TNOs. El astrónomo César Fuentes y sus colaboradores del Harvard-Smithsonian Center for Astrophysics (cerca de Cambridge, EEUU) han desarrollado una técnica automática para detectar tales objetos sobre imágenes de archivo. En esas imágenes, un TNO, debido a su movimiento alrededor del Sol, aparece como una débil estela luminosa ante las estrellas fijas del fondo.

Los astrónomos desarrollaron un software para localizar tales estelas de manera automática. La localización de una estela se complementó con un cuidadoso examen visual que permitió confirmar (o rechazar) la asociación real de cada estela con un TNO. Tras explorar varios centenares de imágenes de zonas próximas a la eclíptica (el plano que contiene al Sol y a los ocho planetas), este equipo de investigadores localizó 14 nuevos TNOs, entre ellos uno binario (similar al sistema Plutón-Caronte). Todos ellos son oscuros y extremadamente débiles (más de 100 millones de veces más débiles que las estrellas visibles por el ojo desnudo).

Las medidas de sus movimientos en el cielo permitieron calcular las órbitas y distancias de todos los objetos. Y haciendo hipótesis razonables sobre la reflectividad del material de que están constituidos, llegaron a determinar los tamaños de todos estos objetos, que resultan estar en un rango de 40 a 100 kilómetros de diámetro. Todos estos resultados han sido publicados en un artículo reciente del Astrophysical Journal (Fuente et al. 2010, disponible aquí.)

Algunos de estos TNOs pueden tener órbitas muy inclinadas respecto de la eclíptica, por lo que examinando imágenes de regiones más distantes sería posible detectar aún más TNOs. Los autores esperan extender su trabajo de esta manera para llegar a detectar quizás varios centenares de nuevos objetos.

Sin duda el archivo del Hubble nos reserva aún numerosos descubrimientos y sorpresas.

Nuevos Horizontes

El 19 de Enero de 2006, la NASA lanzó desde Cabo Cañaveral la sonda New Horizons, una misión no tripulada que tiene por objetivo la exploración in situ del sistema Plutón-Caronte y de sus dos lunas Nix e Hidra. La sonda pasó por las proximidades de Júpiter en el primer semestre de 2007 y allí aprovechó el campo gravitatorio del gigante gaseoso para ganar más velocidad. Se espera que la sonda sobrevuele Plutón (al que se acercará a una distancia menor de 10.000 kilómetros) y Caronte en Julio de 2015. También está previsto que New Horizons pueda explorar otros TNOs antes del año 2020.

También interesante

Fuente: elmundo.es, 28-10-10

-La ciencia se acerca a la lectura del pensamiento

Aunque leer la mente sigue siendo una utopía, es posible que, en un futuro, se pueda conseguir y, con ello, permitir la comunicación de pacientes con graves lesiones neurológicas.  Un dispositivo desarrollado por investigadores del Instituto Tecnológico de California ha sido capaz de registrar la respuesta de las neuronas del lóbulo temporal medio a distintos estímulos visuales.

De esta forma, los investigadores que publican su hallazgo en la edición de hoy de Nature son capaces de adivinar en qué están pensando dentro de las opciones ofrecidas en el experimento.  Para llevar a cabo su estudio, los científicos, dirigidos por Moran Cerf, aprovecharon los electrodos implantados en el cerebro de varios pacientes para tratar sus convulsiones cerebrales y midieron su respuesta ante determinados conceptos, que incluían desde personalidades como Madonna a lugares como la torre Eiffel.

Fuente: publico.es, 27-10-10

-Hallan la estrella de neutrones más masiva

Un grupo internacional de astrónomos ha anunciado en Nature el descubrimiento de la estrella de neutrones más masiva observada hasta la fecha, un hallazgo que tendrá importantes repercusiones en diversos campos de la Física y la Astrofísica. La estrella, un púlsar que está a 3.000 años luz de la Tierra y que gira sobre sí mismo 317 veces por segundo, forma "pareja" con una enana blanca.

 

"Esta estrella de neutrones tiene el doble de la masa del Sol -explica Paul Demorest, del Observatorio Nacional de Radio Astronomía, (NRAO)- . Lo cual es sorprendente, ya que tanta masa comprimida en tan poco espacio significa que muchos de los modelos teóricos que tenemos sobre la composición interna de estrellas de neutrones quedan descartados. La medida de esta gran masa también tiene implicaciones en nuestra comprensión sobre la materia cuando se encuentra en densidades extremadamente altas y aclara numerosos detalles de la física nuclear".

Una estrella de neutrones es el cadáver superdenso de una estrella muy masiva que ha estallado en forma de supernova. Después de la explosión, toda la masa de la estrella original queda comprimida en una esfera que mide apenas unos pocos km de diámetro. La fuerza gravitatoria de este cuerpo superdenso es tal que los electrones, cuya carga eléctrica es negativa, han terminado por incrustarse "contra natura" en los protones de los núcleos atómicos (que tienen cargas positivas), dando como resultado partículas eléctricamente neutras, los neutrones.

Una cucharada de cientos de millones de toneladas

Estos neutrones, aplastados unos contra otros por la gravedad, dan lugar a cuerpos de extraordinaria densidad, las estrellas de neutrones. Una simple cucharadita de la materia superdensa de una estrella de neutrones puede pesar cientos de millones de toneladas. Esta tremenda densidad hace que las estrellas de neutrones sean extraordinarios laboratorios naturales para el estudio de los estados más extremos y densos de materia conocidos por la Física.

Para medir la masa de la estrella, que prácticamente dobla a la de la mayoría de las estrellas de neutrones conocidas, los científicos han utilizado un curioso efecto (el retardo Saphiro) predicho por la teoría General de la Relatividad de Einstein. La estrella forma parte de un sistema binario, y está acompañada por una enana blanca que orbita a su alrededor. La estrella de neutrones, que gira rápidamente sobre sí misma (317 veces por segundo) es un púlsar que emite, en cada rotación, potentes ondas de radio.

Este púlsar, llamado PSR J1614-2230, y su compañera completan una órbita, una alrededor de la otra, en apenas nueve días. Y resulta que la orientación de ambas estrellas permite una excelente observación desde la Tierra, algo de vital importancia para medir la masa de ambas. Cuando las órbitas llevan a la enana blanca a colocarse directamente delante del púlsar, las radioondas que emite y que llegan hasta la Tierra tienen que pasar muy cerca de la enana blanca. Y ese acercamiento causa un ligero retraso causado por la distorsión gravitatoria de la enana blanca. Ese ligero retraso, el retardo Saphiro, es precisamente el que permite medir la masa de ambas estrellas.

"Hemos tenido mucha suerte con este sistema -afirma Scott Ransom, otro de los investigadores del NRAO-. La rápida rotación del púlsar nos proporciona una clara señal para seguirlo a través de su órbita, que está casi perfectamente alineada (con la Tierra). Además, resulta que la enana blanca es particularmente masiva para una estrella de esa clase. Y esta combinación única de factores hace que el retardo Saphiro sea mucho más fuerte y fácil de medir".

Dados sus datos preliminares, los investigadores pensaban que la estrella de neutrones no tendría más de una vez y media la masa del Sol. Pero tras observar una rotación completa de ambas estrellas comprobaron, para su sorpresa, que era de más del doble. Un hecho que, según ellos, cambia nuestra comprensión tanto sobre la composición de las estrellas de neutrones como sobre el comportamiento de la materia bajo la presión de densidades extremas.

Fuente: abc.es, 27-10-10

 

 

-El rayo que nos cambió la vida

La historia del láser comenzó en 1917 como un postulado teórico de Albert Einstein, que pensó que existía la posibilidad de estimular los electrones de un átomo para lograr que emitieran luz en una determinada longitud de onda. Pero todavía tendría que pasar algún tiempo para la demostración experimental de este efecto; más de 40 años para conseguir desarrollar el primer dispositivo eficiente basado en este enunciado.

 

A principios de siglo, probablemente, a nadie se le pasó por la cabeza que la teoría de la radiación estimulada pudiera tener implicaciones prácticas y, mucho menos, que acabara siendo uno de los cinco inventos más importantes de la historia. En la actualidad, es difícil creer que el desarrollo que hace posible el 95% de las comunicaciones de telefonía se le denominara en los años 50 'un invento en busca de una aplicación', pero así fue. Y tal vez sea uno de los mejores ejemplos de cómo una idea surgida de la curiosidad científica puede transformar radicalmente el mundo.

El interés por desarrollar este artefacto comenzó en los años 50, una época en la que diferentes grupos de investigadores, algunos por su cuenta y otros asociados a prestigiosos laboratorios, perseguían la idea de construir lo que luego sería conocido como láser. Y aunque, finalmente, fue Mainman el que se llevó 'el gato al agua' fabricando en 1960 el primer láser experimental que empleaba rubí como medio amplificador, fueron muchos los científicos que pusieron su granito de arena para que este invento fuera posible.

Como anécdota curiosa que ejemplifica lo que ha cambiado la visión de la Ciencia en este medio siglo, se podría contar que cuando este físico comunicó a la prensa su invención, el dispositivo era tan minúsculo -sólo medía unos centímetros de longitud- que para la foto se mostró a los periodistas otro aparato que, aunque no funcionaba, impresionaba más por su tamaño.

Alentado por la industria del cine se le atribuyeron propiedades espectaculares, como la del 'rayo de la muerte', aunque sus inicios fueron más modestos. De hecho, su primera aplicación industrial fue la soldadura de chapa de automóviles. Pero a estas alturas, los investigadores, aún no sabiendo exactamente para qué, ya intuían sus enormes posibilidades y las patentes relacionadas con este invento se multiplicaron.

Hoy en día nos sería muy difícil imaginar un mundo sin láser. Es la base de la fibra óptica que hace posible el funcionamiento de la red de comunicaciones que ofrece la telefonía o Internet; de soportes como el CD, el DVD o el Blu ray; del lector de código de barras; de las impresoras láser; de los hologramas de seguridad en tarjetas de crédito; del desarrollo de la ingeniería aeronáutica o automovilística; de los bisturís que han revolucionado la cirugía; del perfeccionamiento de las miras telescópicas; de los medidores de distancias. En definitiva, si nos detuviéramos a analizar muchos de los objetos que nos rodean y aplicaciones que nos han cambiado la vida es seguro que, directa o indirectamente, este invento tiene mucho que ver.

Pero ¿qué propiedades tiene esta luz que la hace tan especial? ¿En qué se diferencia de la emitida por otras fuentes, como podría ser el fuego o una bombilla? Para empezar la palabra 'Laser' son las siglas inglesas de Light Amplification by Stimulated Emission of Radiation (Amplificación de Luz por Emisión Estimulada de Radiación) y se trata de una luz con unas ciertas características bien diferenciadas.

El láser es monocromático, de un solo color, mientras que la luz ordinaria es el resultado de la combinación de diferentes colores. Es coherente, lo cual significa que todas sus partículas de luz están en sintonía con las demás. Y posee también direccionalidad, lo que implica que sus fotones viajan en la misma dirección, pudiéndose concentrar en un punto muy pequeño. Y estas propiedades son la base de su inmenso poder y versatilidad, ya que permiten hacer desde una holografía o cortar un duro metal a medir la distancia que hay de la tierra a la luna.

El láser del futuro

Este año 2010, el láser cumple medio siglo de vida y coincidiendo con este aniversario, el Instituto de Física Interdisciplinar y Sistemas Complejos del IFISC (CSIC-UIB) ha elaborado, dentro de la Semana de la Ciencia, un programa especial en el que quieren divulgar múltiples aspectos de este gran invento del siglo XX. El ciclo de conferencias comenzó con la impartida por Claudio Mirasso, catedrático de la UIB e investigador del IFISC, titulada 50 años de un invento que ha cambiado nuestras vidas, en la que explicó los fundamentos científicos del láser, de su tecnología; así como sus aplicaciones presentes y posibilidades de futuro.

Y si lo que conocemos es sorprendente, lo que está a punto de llegar entra en el territorio de la ciencia ficción. Según este investigador no quedan muchos años para lograr la fusión nuclear. La instalación NIF (National Ignition Facility) es un gran proyecto de EEUU que posee 192 haces de luz enfocados hacia un punto mínimo. La focalización de toda esa energía en un diámetro inferior a un cabello alcanzaría temperaturas de 100 millones de grados -como en el interior de una estrella- y sería capaz de liberar en la miniexplosión instantánea una cantidad ingente de energía como para alumbrar a todo un país. ¿Quién nos dice que no será el láser la fuente de energía inagotable y limpia que estamos buscando?

Por otra parte, la posibilidad de focalizar el haz más y mejor está mejorando la capacidad de almacenamiento de la información. Según Mirasso, la fecha en que podamos tener en un disco de ordenador todas las películas de la historia del cine en alta definición está a la vuelta de la esquina. Otro de los campos menos conocidos del láser es el que está relacionado con la nanotecnología. El origen de todas estas aplicaciones son las pinzas ópticas conformadas por un haz de rayo láser fuertemente enfocado, que produce un área de máxima intensidad y con la energía suficiente para atrapar una partícula de materia y mantenerla inmóvil en el punto de enfoque de la luz.

Fueron desarrolladas en 1986 por Ashkin y sus colaboradores y, desde entonces, gracias a la incorporación de diversos tipos de haces de luz se han perfeccionando, por lo que se cuenta con múltiples técnicas de manipulación óptica muy avanzadas. Por ejemplo, estas pinzas se han utilizado para examinar la cantidad de fuerza necesaria para estirar y enrollar moléculas individuales de ADN. ¿Cómo podríamos denominar a comienzos del siglo XXI a este 'invento en busca de una aplicación'?

Fuente: elmundo.es, 26-10-10

 

 

 

-Textiles inteligentes integrados en redes inalámbricas para ocio y salud

Aitex, Ateval y la empresa textil Rapife, junto con otras entidades, universidades y empresas europeas trabajan en el desarrollo en nuevos textiles inteligentes aplicados a la medicina, a la rehabilitación y a los videojuegos dentro del proyecto europeo Wear-a-Ban. Este proyecto nos sitúa en un nuevo escenario tecnológico relacionado con el desarrollo textil inteligente que integra sensores, tanto de movimiento como emocionales, y basados en tecnología de radiofrecuencia, según informa Fedit.

Wear-a-Ban, así se llama este nuevo proyecto europeo cuyo objetivo es desarrollar redes inalámbricas sofisticadas que integrarán textiles inteligentes que monitorizarán tanto parámetros físicos (como el movimiento), como parámetros emocionales.

Se investigarán el potencial de las tecnologías inalámbricas en “redes de área corporal” que permitan obtener sinergias hombre-máquina en segmentos de mercado tales como los textiles inteligentes y interactivos, robótica para asistencia y rehabilitación y dispositivos de interfaz naturales para videojuegos.

Se busca que la comunicación entre hombre y máquina sea más intuitiva y natural, integrando la información motora y emocional, parámetros que son difíciles de expresar con dispositivos estándares. Los recientes avances en microelectrónica, procesamiento de señales integrados y tecnologías de software, permiten obtener soluciones hombre-máquina más naturales que facilitarán nuevas manera de jugar, rehabilitación médica etc.

Fuente: interempresas.net, 25-10-10

 

-¿Y si el universo fuera un hologroma?

Especialistas del Fermilab -uno de los laboratorios científicos más avanzados y afanados del mundo- están construyendo un aparato denominado “Holometer” (u “holómetro”), cuya función será determinar si el universo tridimensional que perciben nuestros sentidos es “de verdad” o solo se trata de un holograma. El artefacto busca responder la vieja cuestión de si el espacio-tiempo es uniforme o discreto.

Diseño conceptual del holómetro del Fermilab

 

¿Cómo es realmente el universo que percibimos? Esta pregunta aparentemente inocente ha mantenido a ejércitos de físicos discutiendo durante mucho más tiempo del que hubiesen preferido. Cuando descubrieron que la energía en realidad no podía tomar “cualquier” valor, sino que estaba “dosificada” en pequeñísimos paquetes (llamados cuantos) resultó inevitable preguntarse si las dimensiones espaciales son realmente tan continuas como nos parecen o si, por el contrario, también están “pixeladas”.

¿Qué significa esto? Imaginemos que tomamos una cámara fotográfica que posea una resolución de “infinitos megapíxeles”, y comenzamos a tomar fotografías de un objeto cualquiera. A “1x” el objeto aparece tal como lo vemos con nuestros ojos. A “10x” comenzamos a percibir detalles que difícilmente veríamos a simple vista. A “100x” comienzan a aparecer detalles imperceptibles de otra manera, que revelan las microrayaduras y granos de polvo depositados sobre su superficie. Si seguimos aumentando el detalle de las imágenes, llegará un momento en que podremos “ver” las moléculas que lo conforman.

Y si seguimos aumentando la resolución de nuestra cámara imaginaria, veremos sus átomos, y luego sus partículas. Lo que intentan averiguar los científicos es si esta “realidad”, en alguna escala que somos incapaces de percibir, comienza a “cuantificarse” tal como se “pixela” una fotografía al aplicarle un valor de zoom demasiado alto.

La tercera dimensión

Determinar semejante cosa no es, por supuesto, una tarea sencilla. Los encargados de tomar el toro por las astas han sido los científicos del Fermilab, el laboratorio físico nacional estadounidense que posee el segundo acelerador de partículas más potente del mundo. Una de las teorías que manejan los especialistas -y que a los profanos nos suena a chino- es que la realidad consiste solamente en dos dimensiones, y lo que percibimos como una “tercera dimensión” no es otra cosa que una “ilusión” -sumamente realista, por supuesto- que surge de la interacción de estas dos con el tiempo.

Si esto es cierto, la realidad sería algo así como un holograma, una especie de truco de mago de feria en el que se nos “vende” una dimensión que realmente no está allí. Algunos físicos creen que no podemos darnos cuenta del engaño “culpa” de algunas limitaciones impuestas por las leyes de la física, como que “nada puede viajar más rápido que la luz” y naderías por el estilo. No sabemos cómo se podría conciliar todo esto con las 10 dimensiones contempladas por la Teoría de Cuerdas y los universos paralelos que buscan con el LHC, pero seguramente ambas hipótesis no puedan ser válidas a la vez.

En el Fermilab han comenzado la construcción de un holómetro (“holometer”) , un máquina de altísima tecnología que podría atisbar por los “espacios” existentes entre uno y otro “píxel” de la realidad. Explicar cómo funciona una máquina como esa es sumamente complicado, pero en un comunicado del laboratorio han dejado entrever que hará su magia gracias a un reloj extremadamente preciso (en realidad, será el más exacto jamás construido) y un láser. Los primeros datos serán proporcionados por el holómetro en algún momento del año próximo. Si recuerdas la película «Matrix», esto significa que tienes entre 3 y 12 meses para decidir si tomas la pastilla roja o la pastilla azul.

 

Fuente: abc.es, 25-10-10

 

 

 

-Vegetación autóctona clave para recuperar territorios contaminados

 

Un grupo de investigadores perteneciente a la Unidad de Botánica del Departamento de Biología de la UAM, y dirigido por la Dra. Vicenta de la Fuente, estudia las dinámicas de vegetación y las modificaciones en los suelos de uno de los territorios más ácidos y con mayor contenido en metales de la Península: la cuenca del Río Tinto (Huelva).

En un trabajo publicado recientemente en Arid Land Research and Management, los investigadores presentan un compendio de la vegetación autóctona de la cuenca del Río Tinto y de las dinámicas temporales regresivas y progresivas de la misma. En el trabajo se muestra que la evolución progresiva (desde las comunidades de vegetación colonizadora de suelos pobres y terrenos desnudos hasta alcanzar la fase madura del bosque) implica un enriquecimiento en especies autóctonas y un cambio gradual en los suelos, donde disminuye la acidez y se tiende a reducir la concentración de alguno de los elementos predominantes del territorio (S, Fe, As y Pb).

Estos resultados constituyen una clave de vital importancia a la hora de plantear programas de restauración de territorios contaminados con metales pesados. El empleo de la vegetación autóctona, respetando la secuencia de la serie de vegetación del territorio afectado, garantiza una reforestación efectiva (aunque lenta), contribuye a la protección de la flora y vegetación autóctona, favorece el enriquecimiento progresivo de la biodiversidad vegetal, modifica el paisaje y evita pérdidas económicas por la muerte de especies alóctonas no aclimatadas.

Dinámicas de vegetaciones y suelo

Desde el punto de vista climático, edáfico y biogeográfico, la vegetación de un territorio homogéneo evoluciona temporalmente hasta alcanzar lo que se considera la comunidad vegetal clímax o permanente, que generalmente suele ser un bosque. Partiendo de una roca desnuda, el esquema teórico que seguiría la vegetación hasta alcanzar la comunidad clímax sería: comunidades vegetales pioneras, pastos, matorrales, pre-bosques y bosques. El conjunto de todas estas comunidades constituiría lo que se denomina serie de vegetación. El cambio sucesivo de las comunidades vegetales que componen la serie de vegetación conlleva una evolución en los suelos sobre los que se asienta desde el punto de vista físico y químico.

Río Tinto

El río nace en el corazón de la comarca minera del Andévalo, situada sobre uno de los depósitos de sulfuros metálicos más extensos del mundo. En este ambiente dominan el ácido sulfúrico, el hierro férrico y numerosos metales que se encuentran químicamente biodisponibles en concentraciones tóxicas dada la elevada acidez de las aguas y los suelos del territorio. Además, la histórica e intensa actividad minera en la comarca, tanto a cielo abierto como subterránea, ha provocado la pérdida de suelos y por ende la eliminación de la cubierta vegetal, quedando una gran extensión de terreno desnudo, taludes, desmontes y escombreras.

 

Fuente: UAM, 24-10-10

 

 

 

-Bienvenidos a la segunda era espacial

Los catalanes Ana Bru y Ramón Segarra se vieron ya vestidos de astronautas. Pepita Campdesuñer, la empresaria jubilada de 80 años, empezó a contar los días para su primer vuelo a la heterosfera. Y Richard Branson, el visionario fundador de Virgin Galactic, oteó con impaciencia los cielos moteados de Nuevo México, invocando la silueta etérea de su nave suborbital.

"Bienvenidos a la segunda era espacial", proclamó Branson, mientras anticipaba el vuelo rasante de WhiteKnightTwo, la nave nodriza, arropada en el aire por la trepidante SpaceShipTwo (capaz de subir por encima de los 100 kilómetros de altitud propulsada por un cohete híbrido).

"Entre ocho y 19 meses acabaremos con la fase de pruebas y estaremos listos para los primeros vuelos comerciales", vaticinó el magnate de Virgin, con su inconfudible melena rubia, sin quitarse la chupa de cuero. "La seguridad es nuestra prioridad absoluta: los turistas espaciales han comprado un billete de vuelta".

Hasta la fecha, un total 370 mortales que están dispuestos a pagar 144.000 euros por dos horas y media de vuelo. Setenta de ellos se desplazaron este fin de semana hasta el Spaceport de Nuevo México, a tomarle la medida a la primera pista 'espacial' de tres kilómetros de largo por 61 metros de ancho.

La mayoría esperaba ver poco más que una serpiente de asfalto en mitad del desierto. Los primeros sorprendidos fueron Ana Bru y Ramón Segarra, que decidieron ponerse el casco de obras e inspeccionar el impresionante aeropuerto/hangar diseñado por Norman Foster, emergiendo ya con su perfil de molusco futurista sobre la arena.

'Quisimos ser los primeros en probar'

"Nosotros siempre tuvimos fe en este proyecto, aunque para muchos era difícil de imaginar", confesaba la pareja de 'pioneros' catalanes, que reclutan aspirantes españoles a través de la agencia Bru&Bru. "Quisimos ser los primeros en probar y la verdad es que hoy lo hemos visto más claro que nunca. Ahora que el futuro está tan cercano, sentimos mucha emoción y un cierto cosquilleo".

 

Aeropuerto espacial de Nuevo México

El WhiteKnightTwo sobrevoló varias veces su futuro nido, antes de aterrizar en la pista recién inaugurada, en medio de un paisaje sideral y a más de 20 kilómetros de la población más cercana (llamada curiosamente 'Verdad y Consecuencias', en homenaje a un legendario programa televisivo).

"Dejamos atrás 52 años de historia y entramos decididamente en una nueva era", certificó la administradora adjunta de la NASA Lori Garver a pie de pista. "Atrás queda lo que llamábamos la 'carrera' espacial. Ahora avanzamos por el camino de la cooperación entre países y entre empresas. Estamos todos en la misma nave".

Richard Branson se subió sobre la marcha y anunció que Virgin Galactic pujará –en solitario o junto a otras dos compañías- al programa de 50 millones de dólares para desarrollar futuras naves tripuladas auspiciado por la Administración Obama. "Tenemos planes para explorar el campo de los vuelos orbitales en los próximos años", anticipó.

De momento, Branson se ha reservado el primer vuelo para toda la familia (incluidos su hijo Sam y sus padres de 92 y 89 años) y confía en despegar del Spaceport de Nuevo México a finales del 2011 o primeros del 2012. "Para mí, este viaje es algo muy presonal", recalcó. "Aunque mi empeño será hacer el turismo espacial accesible para el común de la gente. Cuando llevemos quinientos o mil pasajeros podremos bajar las tarifas, y, tal vez, fletar tres vuelos diarios. Espero que los vuelos suborbitales sean algo 'normal' para vuestros hijos y vuestros nietos".

"¿Para cuándo un Aeropuerto Espacial en Europa?", le preguntamos. "Tenemos que consolidar primero este proyecto antes de pensar en futuras ubicaciones". ¿España está en el radar? "Amo mucho a España y puedo asegurar que cuando llegue el momento estará muy alto en la lista".

"Lo primero es estabilizar este proyecto aquí, y después lo llevaremos a España", declaró en español y con cierta sorna el gobernador Bill Richardson, que decidió impulsar el proyecto (estimado inicialmente en 212 millones de dólares) para convertir Nuevo México en el centro de gravedad del turismo espacial.

Más que la experiencia de la ingravidez, Ana Bru espera disfrutar de la "pura adrenalina" de la subida y, sobre todo, de la experiencia de la bajada. "Ahí es cuando de verdad sientes donde tienes el estómago", asegura, recordando el entrenamiento en el simulador del Nastar Space Center de Filadelfia. Ramón Segarra recuerda la sensación de otra manera –"es como si te estiraran la piel"- pero insiste en que los vuelos suborbitales son aptos "para cualquier persona con buena salud".

"Nosotros no somos multimillonarios, ni coleccionamos coches en el garaje como Bill Gates", asegura Ana. "Hemos ido reservando el dinero durante bastante tiempo porque sabemos que ésta puede ser la gran experiencia de nuestras vidas. Yo siento una tremenda curiosidad por ver y apreciar la Tierra desde allí arriba".

"Volando me siento insignificante, como si estuviera conectada con la naturaleza", confiesa por su parte la octogenaria y vitalísima Pepita Campdesuñer, superada tan sólo en edad por los padres del propio Branson. "Yo tomé uno de los primeros vuelos comerciales en un trimotor en 1953, entre Bilbao, Barcelona y Palma. Recuerdo también como si fuera ayer el momento en que el hombre puso el pie en la Luna. Y quiero vivir desde dentro este otro momento histórico... A ver si me llega".

Fuente: elmundo.es, 23-10-10

 

-La NASA descubre plata en la cara oculta de la Luna

El impacto sobre la superficie lunar, provocado por un cohete de la NASA en octubre del año pasado, ha revelado que, bajo la superficie del cráter Cabeus, en el polo sur, hay un 5,6% de agua helada, y también otros elementos como hidróxido, monóxido de carbono, amoníaco, mercurio, magnesio, sodio y hasta la preciada plata.

La NASA lanzó el Satélite de Observación del Cráter Lunar, conocida como misión LCROSS, el 18 de junio del año pasado. Llevaba a bordo un cohete, el Centauro, que tres meses y medio después, el 9 de octubre, se estrellaba contra la Luna, generando una gran nube de más de más de 750 metros sde altura obre su superficie. Según el artículo que se publica en 'Science', se estima que fueron expulsados hacia el espacio entre 4.000 y 6.000 kilos de restos y vapor de agua.

A los cuatro minutos de la explosión, la sonda LCROSS atravesaba esa nube para recoger muestras, que durante un año han sido analizadas por varios grupos de investigación en Estados Unidos.

Los resultados del equipo de Anthony Colapetre, del Centro de Investigación Ames de la NASA, revelan que el impacto expulsó unos 155 kilos de vapor de agua y hielo, y estiman que un 5,6% de la masa total del interior del cráter Cabeus es agua helada. También encontraron hidrocarburos, sulfuro y dióxido de carbono.

 

Geología compleja

En la Universidad de Brown, otro equipo, dirigido por el geólogo Peter Schultz, ha analizado las características del cráter y los minerales que contiene, encontrando que la composición de la Luna es mucho más compleja de lo que se pensaba. Además de agua, también contiene compuestos como el amoniaco, el sodio y la plata.

Todos estos elementos combinados, les han dado pistas sobre el origen de estos minerales y el proceso por el cual acabaron los cráteres polares, que no han visto la luz del Sol en miles de millones de años.

Schultz cree que los elementos detectados llegaron a la Luna por impactos de cometas, asteroides y meteoritos a lo largo de su historia. Apunta que se fueron depositando por todas las parte del satélite terrestre, pero que después fueron liberados de la superficie por otros impactos menores o se calentaron con el Sol, lo que les dio energía suficiente para volar hasta alcanzar los polos, donde habrían quedado atrapados entre las sombras de los cráteres.

Además, mantiene la hipótesis de que la variedad de elementos volátiles implica que hay una especie de guerra constante entre lo que se acumula y lo que se pierde continuamente en la tenue atmósfera lunar. "Hay un equilibrio entre lo que llega y lo que se va, aunque creo que va ganando lo que está llegando", afirma el experto, que ha estado estudiando la Luna desde los años 60.

Fuente: elmundo.es, 22-10-10

 

 

 

-El LHC busca universos paralelos

 

El gigantesco acelerador de partículas LHC, construido por el CERN, podría encontrar dentro de poco tiempo evidencias de la existencia de “universos paralelos”. Suena a ciencia ficción, pero parece que los experimentos de física de alta energía que se realizan en ese lugar podrían efectivamente probar la validez de estas teorías. Mientras tanto, seguimos esperando la “aparición” del escurridizo bosón de Higgs.

Es muy difícil hablar de “universos paralelos” sin pensar en el argumento de una historia de ciencia ficción. Sin embargo, y aunque la idea ha sido difundida ampliamente por los escritores de este tipo de novelas, el concepto tiene muchos adeptos entre los científicos. Desde el punto de vista de la ciencia, tal como lo explica el último boletín de noticias emitido por el CERN, referirse a los universos paralelos significa hablar de “formas desconocidas de materias o dimensiones extras”. Desde hace décadas, los físicos se han quemado las pestañas tratando de determinar si el universo realmente posee las cuatro dimensiones de toda la vida (tres físicas y una temporal), o si existen otras que por su naturaleza no podemos percibir.

 

 La Teoría de Cuerdas, por ejemplo, postula que las partículas de nuestro universo, como los electrones o protones, no son un mero "punto sin estructura interna y de dimensión cero”, sino una minúscula cuerda que vibra en un espacio-tiempo de más de cuatro dimensiones. Sus defensores creen que estas cuerdas no se mueven en el espacio-tiempo ordinario de cuatro dimensiones (tipo Kaluza-Klein) sino que lo hacen en seis dimensiones adicionales, compactadas, dando lugar a un universo de 10 dimensiones: una temporal, tres espaciales “normales” y seis “minimizadas” e indetectables por ahora.

Dimensiones ocultas

Los físicos del CERN que investigan los orígenes del Universo esperan que en 2011 puedan obtenerse, gracias al LHC, las primeras pruebas concretas de estas “dimensiones ocultas”. Esto no significa que se hayan abandonado los esfuerzos dedicados a dar con el bosón de Higgs -a veces referido como “la partícula de Dios” por la prensa- ni mucho menos. De hecho, estas dimensiones extrañas del universo podrían evidenciarse mientras se producen los choques de partículas de alta energía que el acelerador provoca para encontrar la escurridiza súper partícula.

El director general del CERN, Rolf Heuer, tiene la esperanza de que al analizar los datos generados por el acelerador aparezca alguna evidencia de estos -quizás mal llamados- “universos paralelos”. El mismo Heuer ha dicho que el acelerador está produciendo choques de protones a un ritmo de 5 millones por segundo, algunas semanas antes de lo que estaba previsto. Si no surgen retrasos, a principios del próximo año este ritmo se incrementará, y los detectores del CERN entregarán miles de millones de datos extra entre los que se podrían encontrar “algunas sorpresas”.

Aparece y desaparece

¿Como podemos saber que una de estas dimensiones ocultas existe realmente? Los físicos del CERN creen que al analizar los datos del acelerador podrían encontrar rastros de que alguna partícula “desaparece” durante un brevísimo lapso de tiempo, para luego aparecer nuevamente. Si ello ocurre, una de las explicaciones posibles sería que la partícula en cuestión se ha “deslizado” a alguna de estas seis dimensiones ocultas para luego volver al universo que todos conocemos. Esto, de producirse y probarse su existencia, no significa que tengamos -ni remotamente- la posibilidad de explorar o viajar a estos “universos paralelos”. Solo habríamos probado que la estructura íntima de la materia es diferente a lo normalmente aceptado, que -por supuesto- no es poca cosa.

Fuente: abc.es, 22-10-10

 

 

"Esto puede ser muy parecido a `Gran Hermano´"

El viaje imaginario a Marte más ambicioso de la historia lleva más de 140 días en marcha. Sus participantes tres rusos, un francés, un italocolombiano y un chino no se han movido ni un centímetro del módulo de aislamiento en Moscú en el que simulan un viaje de ida y vuelta al planeta rojo. Por delante quedan más de 350 días en los que seguirán siendo objeto de decenas de experimentos y durante los cuales se enfundarán en trajes espaciales para explorar una superficie marciana de pega. Diego Urbina, uno de los tripulantes de la misión Mars 500, financiada por la Agencia Espacial Europea y el Instituto de Problemas Biomédicos de Moscú, narra su experiencia a Público con un sistema de email con retardo, debido a que, en teoría, está a más de 33 millones de kilómetros de la Tierra.

¿En qué punto se encuentran y cuándo llegarán a Marte?

Desde aquí la Tierra sería como una moneda de dos euros a una distancia de 70 metros. Llegaremos a Marte en febrero de 2011. Entonces, Alexander, Wang Yue y yo nos iremos a vivir al módulo de aterrizaje marciano durante un mes y realizaremos una exploración con trajes de astronauta.

¿Cómo es un día normal dentro del módulo de confinamiento?

Nos levantamos a las ocho de la mañana y nos entregamos a las tareas rutinarias, tests psicológicos, muestras de orina... Después desayunamos juntos. Antes nos lavamos las manos, claro. Hacemos experimentos y luego vamos al gimnasio durante una hora. Luego comemos y hacemos más experimentos. Tenemos casi toda la tarde libre. La pasamos leyendo, viendo películas o jugando a videojuegos con la red interna de la nave. En total tenemos unas seis horas de trabajo al día, diez horas libres y otras ocho para dormir. Algunos días sientes que necesitas más trabajo, aunque a finales de mes, cuando se concentra la mayoría de los experimentos, esto es una locura.

Están realizando más de 100 experimentos, desde usar medicina alternativa a aliviar la tensión con realidad virtual. ¿Cuáles han sido los más difíciles?

Mis experimentos favoritos son los simuladores con naves espaciales y los que tienen ejercicio físico, aunque el que más aborrezco es uno en el que tengo que sostener una bolsa de 25 kilos durante un buen rato. Otro que no es nada divertido es pincharme el dedo cada hora durante una mañana entera para tomar muestras de sangre, aunque afortunadamente sólo lo tenemos que hacer cada dos meses.

Ahora que lleva 140 días, ¿qué cree que sería diferente si realmente estuviera viajando hacia Marte?

Muchas cosas serían igual. La separación de tu familia, la soledad, la autonomía, la necesidad de vivir una vida nueva mucho más simple, el extraordinario cuidado que debes tener contigo mismo, la necesidad de que el equipo funcione, la paciencia y testarudez que se necesita para hacer algo como esto... Pero otras cosas cambiarían, como la posibilidad de sufrir accidentes con la nave o lo emocionante que sería llegar a Marte de verdad.

¿Qué ha sido lo mejor de estos 140 días?

He tenido muchas experiencias positivas, sobre todo cuando intentas sobreponerte a las dificultades con cierta ingenuidad. Por ejemplo, me he inventado una manera para poder twittear de forma indirecta, sin internet. También he ideado un software que me ahorra tener que repetir muchos experimentos. Hasta he diseñado una especie de bolsillo extra para los pantalones cortos reglamentarios, que por un error se hicieron sin bolsillos. Todo esto parecerá una tontería desde fuera, pero aquí te ayuda a seguir adelante, a aprender de ti mismo y conocerte mejor.

¿Qué ha sido lo peor?

Por ahora no me puedo quejar, toco madera. Tal vez lo peor sea no poder hablar italiano o español casi nunca.

¿Qué dice su familia sobre lo que está haciendo?

Me animan mucho. Me mandan noticias de todo el mundo. No podría hacer lo que hago sin el apoyo que me están dando.

Su misión se ha rebautizado como el Gran Hermano Marciano'. ¿Está empezando a parecerse?

Puede ser muy parecido, porque tenemos a un grupo de gente que vive en el mismo sitio y está siendo grabada en todo momento. El resto es diferente, aquí la gente no finge, ni se pelea ni hace cosas intolerables para ganar audiencia o ser más popular. Aquí sólo somos seis tipos intentando hacer cada día lo más agradable posible, mientras hacemos un trabajo duro.

¿Qué es lo que más echa de menos? ¿Tal vez a su pareja?

La libertad de poder ir a donde quiera. La facilidad de comunicarme con quien quiera por teléfono o internet. Echo de menos a mi familia y amigos. Sin embargo, estar aislado de posibles distracciones tiene ventajas, más oportunidades para mejorar como persona.

¿Cómo está la moral para llegar a los 520 días?

Estupenda. Pasamos mucho tiempo juntos y estamos de buen humor. Esperamos que todo siga así en la segunda parte de la misión.

¿A qué piensa dedicarse una vez termine la misión?

Seguiré siendo ingeniero espacial y me dedicaré a la educación para contribuir a que algún día la humanidad salga de su cuna, la Tierra.

¿Qué será lo primero que haga cuando salga de ahí?

Me pegaré una cena impresionante y me iré a bailar música latina hasta que me caiga redondo.

Fuente: publico.es, 21-10-10

 

 

 

-La sonda LCROSS confirma la presencia de agua helada en la Luna

Cinco toneladas de Luna que habían estado esperando miles de millones de años en un oscuro cráter salieron a la luz cuando una sonda de la NASA se estrelló allí el 9 de octubre del año pasado. El análisis del material liberado, presentado ayer en rueda de prensa y detallado hoy en la revista Science, confirma que los cráteres del polo sur de la Luna albergan una gran cantidad de agua helada.

El cráter Cabeus, lugar del impacto de la sonda Lcross de la NASA en el polo sur de la Luna NASA

 

Estos resultados “indican que hay minerales de interés a poca profundidad y que se podrá acceder a ellos con las tecnologías actuales” si se envía una misión robótica o tripulada al polo sur de la Luna, explicó ayer Ignasi Casanova, geólogo planetario de la Universitat Politècnica de Catalunya que trabaja en un proyecto de exploración lunar.

Cuando
la NASA lanzó la misión LCROSS en junio del 2009, el objetivo era precisamente explorar la superficie lunar con vistas a volver a enviar astronautas allí alrededor del 2020 y más adelante construir una base lunar. En este sentido, la misión ha cumplido sus objetivos. Desde el punto de vista de ingeniería, sus resultados allanan el trabajo a futuras misiones, apunta Casanova.

En los últimos 16 meses, sin embargo, la Administración Obama ha reorientado la estrategia de la NASA y ha renunciado a los planes de reanudar los vuelos tripulados a la Luna. En este nuevo contexto, no hay planes para que los frutos de LCROSS tengan continuidad a corto plazo.

Según los resultados presentados ayer, el impacto que la misión LCROSS provocó en el polo sur de la Luna abrió un cráter de entre 25 y 30 metros de diámetro. Con el calor liberado en la colisión, los minerales que se encontraban allí pasaron de unos 230 grados bajo cero a más de 700 grados. El impacto liberó por lo menos dos toneladas de minerales, y probablemente entre cuatro y seis, que salieron despedidas hacia el espacio formando un gran penacho de gas y polvo.


Los investigadores han estimado que cerca de un 5,6% del material liberado era
vapor de agua, una cantidad suficiente para pensar en extraer oxígeno del suelo del satélite el día que los astronautas vuelvan a la Luna. El director científico de la misión, Anthony Colaprete, calcula que hay suficiente agua para llenar 1.500 piscinas olímpicas en el cráter Cabeus, una formación de unos 100 kilómetros de diámetro que fue elegida para el impacto.

Cabeus fue seleccionado porque tiene una amplia región en la que nunca brilla el sol. Al estar siempre a baja temperatura, pensaban los científicos, habría conservado el agua helada de los cometas que han caído allí desde los albores del sistema solar. Los resultados presentados ayer han superado las expectativas, ya que el cráter contiene más agua de la que se esperaba.

Junto al agua, los investigadores han identificado otras moléculas interesantes como hidrocarburos ligeros, así como metales inesperados como plata y mercurio. “Los hidrocarburos son interesantes cara a comprender cómo llegaron estos minerales a la Luna”, explicó ayer Ignasi Casanova. En cuanto al mercurio, del que se liberaron 120 kilos en el lugar del impacto, habrá que tomar precauciones para evitar que intoxique a astronautas en el futuro, advirtió Kurt Retherford, investigador de la misión.

Fuente: lavanguardia.es, 21-10-10

 

-La ONU pesimita con respecto a los acuerdos de Cancún

La ONU ha descartado que la Conferencia de las Partes de Naciones Unidas sobre Cambio Climático (COP16) que se celebrará a finales de año en Cancún alcance "acuerdos exhaustivos", pero confió en que se logren pactos "integrales con resultados a corto plazo".

Así lo afirmó en la capital mexicana Christiana Figueres, principal representante de la ONU para el diálogo sobre el cambio climático, quien aseguró que durante la cita de Cancún se requerirá una "voluntad política decidida" para lograr acciones concretas.

La alta funcionaria señaló, a través de una videoconferencia durante un seminario sobre cambio climático organizado por la ONU, que los gobiernos que asistirán a Cancún "quieren abordar todos los temas, pero será imposible hacerlo en detalle".

Acuerdos y desencuentros

En su opinión, uno de los asuntos más complejos en la negociación será el de lograr metas en la reducción de emisiones de dióxido de carbono y definir qué países deben adoptar estas limitaciones. Sin embargo, señaló que existe un consenso sobre la necesidad de crear un fondo para que los países desarrollados apoyen la reducción y adaptación al cambio climático de las naciones en desarrollo.

Otro de los puntos en los que se podrían avanzar acuerdos, según Figueres, es la reducción de la deforestación a través del Mecanismo de Reducción de Emisiones por Deforestación y Degradación de los Bosques (REDD+). La funcionaria afirmó que en Cancún podrían darse las condiciones para otorgar incentivos a los países que reglamenten la deforestación. Sobre la aprobación de una nueva "arquitectura financiera" las naciones están divididas entre los que quieren que se apoyen en instituciones existentes como el Banco Mundial, y los que defienden la creación de un fondo nuevo controlado por los gobiernos, dijo Figueres.

Se refirió también a la confrontación entre China y Estados Unidos, los dos países con mayores emisiones contaminantes del mundo y que no están sometidos a compromisos de reducción. A su juicio, la Cumbre de Cancún debería lograr que ambas naciones firmen sus promesas, hasta ahora "informales", de reducción de emisiones.

Futuro incierto

Figueres aseguró que es una incógnita qué sucederá con el Protocolo de Kioto, que vence en 2012, pues la mayoría de países en desarrollo apuestan por un nuevo periodo de compromiso a partir de 2013 y otros, como Rusia y Japón, se oponen a ello. Este lunes, el Gobierno de México, anfitrión del encuentro de Cancún, reconoció también que "no están dadas las condiciones" para lograr un acuerdo global de reducciones de emisiones de gases en esa cita.

Según Figueres, la COP15, celebrada el pasado año en Copenhague y que concluyó sin un acuerdo vinculante en reducción de emisiones, estuvo marcada por la falta de transparencia, mientras que para la COP16 el gobierno mexicano actúa bajo la premisa de la "inclusividad".

Las autoridades mexicanas calculan que más de 30.000 personas asistirán cada día a la cita de Cancún, a la que de momento ningún mandatario ha confirmado su participación pero en la que estarán representadas 193 naciones.

Fuente: elmundo.es, 20-10-10

 

 

-La nueva "arca de Noé" es una torre de 100 metros

Un zoológico vertical de más de 100 metros ha sido propuesto para ser construido en Buenos Aires, en la Reserva Ecológica Costanera Sur. El proyecto, denominado Eco-Cliff, consiste en una espectacular torre que podría servir como punto de anidación para miles de aves migratorias y un hábitat ecológico para todo tipo de animales.

 

Una de las estructuras conceptuales más interesantes presentadas en los últimos tiempos ha sido la torre de burbujas del MIT, que estaba planeada para las Olimpiadas de 2012 en Londres. Sin embargo, ahora estamos frente a un concepto aún más interesante, que podría construirse en Argentina. La torre ha sido diseñada por Hila Davidpu, Tal Gazit, Eli Gotman y Hofi Harari para participar de una competición para construir un zoológico vertical frente a Puerto Madero, en la Reserva Ecológica Costanera Sur.

Sería un verdadero espectáculo para la vista si se hiciera realidad. Según explican los responsables, para minimizar el uso de vehículos a motor, la torre solo sería accesible mediante teleférico y utilizaría un sistema de células fotoeléctricas para autoabastecerse de energía. Y no solo sería un impactante diseño, sino que también sería un zoológico y hábitat para varios tipos de animales. Todos los visitantes podrían ver a los animales a través de senderos artificiales que serpentearían a lo largo de la torre, ofreciendo una experiencia fuera de lo común. Con la idea de simular un acantilado, la torre tendría varias aperturas para que ingresen los rayos del sol, la lluvia y el aire fresco, y se serviría de un sistema de redes y cables para cumplir distintas funciones. La pregunta que quedaría por responder es si muchas especies animales serían capaces de vivir en una torre de más de 100 metros del altura, en condiciones que, sin más detalle, parecen distar bastante de las de su hábitat natural. Si llegan a hacerlo posible, sería una cita obligada como muchas otras fantásticas construcciones alrededor del mundo.

Fuente: abc.es, 19-10-10

 

 

-El canibalismo del "Tiranosaurio rex"

El rey de los dinosaurios practicaba el canibalismo. El temido 'Tiranosaurio rex' no sólo comía otros dinosaurios sino que también se alimentaba de ejemplares de su misma especie. Un grupo de paleontólogos de EEUU y Canadá ha llegado a esta conclusión tras comprobar que las mordeduras halladas en algunos huesos gigantes fueron hechas por un 'Tiranosaurio rex'. La investigación ha sido publicada esta semana en la revista PLoS ONE.

El cine ha hecho del 'T. rex' uno de los dinosaurios más conocidos. Fue también uno de los carnívoros terrestres de mayor tamaño de todos los tiempos: podía alcanzar los 13 metros de longitud y medir cinco metros de altura. Asimismo, su peso podía llegar a las 10 toneladas. Este animal vivió hace entre 67 y 65 millones de años en el Maastrichtiano, la última época del Cretácico, en el territorio que hoy ocupa Norteamérica.

Su dieta es uno de los aspectos que más discusión siguen suscitando entre los científicos ya que, hasta ahora, había pocas pruebas directas sobre la forma en la que se alimentaba.

Una práctica habitual

Recreación de un T. rex devorando a otro. | N. Longrich / Yale University

 

Tras examinar las colecciones de fósiles de varios museos, el equipo liderado por el investigador de la Universidad de Yale Nick Longrich halló en cuatro ejemplares de 'T. rex' marcas de dientes realizadas por dinosaurios carnívoros de gran tamaño. La mayor parte de las mordeduras estaban en las patas. El único animal capaz de hacer este tipo de marcas en la época en la que vivieron los animales examinados era otro 'T. rex'.

Los investigadores se han mostrado sorprendidos por la frecuencia con la que aparentemente practicaban el canibalismo, aunque todavía no saben su significado. Es posible que actuaran como carroñeros cuando un animal moría o bien el resultado de una pelea entre 'T. rex': el ganador se daba un festín a costa del derrotado. "Los carnívoros actuales se comportan así todo el tiempo. Era una manera de acabar con la competencia y obtener comida al mismo tiempo", asegura Longrich.

Sin embargo, algunas de las marcas fueron hechas tiempo después de que el animal hubiera fallecido. Según los investigadores, esto podría explicarse de la siguiente manera. El dinosaurio vencedor se habría comido las partes más accesibles de su víctima en el momento de la muerte. Tiempo después, habría vuelto a por los huesos de las patas.

 

A pesar de que a los científicos sólo les consta que otra especie de dinosaurio, el 'Majungatholus', practicara el canibalismo, los paleontólogos sospechan que se trataba de una práctica relativamente común entre los grandes carnívoros.

 

Fuente: elmundo.es, 19-10-10

 

-Cazando leones en Atapuerca

Efectivamente, el nivel 10 de este yacimiento está siendo excavado desde el año 1980, primero en una reducida extensión y desde hace más de 10 años en una área de aproximadamente 80 metros cuadrados.  Se han registrado decenas de miles de restos esqueléticos pertenecientes básicamente a herbívoros, así como herramientas de piedra talladas sobre rocas de silex y cuarcita, pertenecientes presumiblemente a los restos dejados por el Homo heildebergensis en sus ocupaciones humanas en esta cueva durante el Pleistoceno medio, hace entre 300.000 a 350.000 años.

El análisis efectuado sobre los restos óseos de un paleodepredador de gran tamaño podría alcanzar los 400 kilos; se ha podido demostrar que se habían practicado sobre su cadáver una serie de intervenciones destinadas a la obtención de la biomasa animal. Había sido despellejado y eviscerado, siguiendo las pautas que los homininos hacían servir en el Pleistoceno con otros vertebrados herbívoros.

La caza de un león de gran envergadura con las armas de que disponían estos homínidos, hipotéticamente palos afilados y lanzas, no debía ser una tarea fácil a menos que el animal tuviera alguna patología que lo hacia más vulnerable. Es interesante el hecho que se constate que los Homo heidelbergensis, en sus estrategias cinegéticas, tuvieran también como objetivo estos grades depredadores.

Todo parece indicar un gran incremento de complejidad para las poblaciones de homininos que habitaban la meseta hace más de 300.000 años. Los descubrimientos que hemos efectuado en la Sima de los Huesos, con una antigüedad de más de 500.000 han evidenciado una gran encefalización, así como una gran robustez en los taxones analizados. Estas dos características nos hacen pensar que los homininos de Gran Dolina, más recientes que los de la Sima, pero pertenecientes a la misma especie, disponían de unas habilidades y un potencial de caza extraordinario, por lo cual no es de extrañar que cacen leones.

A medida que la investigación avanza, nuevos hallazgos nos permiten conocer las estrategias adaptativas de nuestros antepasados. Enfrentarse a animales poderosos formaba parte de su estrategia social. Seguramente, sin incrementar su sociabilidad durante decenas de miles de años, no hubiera podido hacer frente a este reto.

Fuente: elmundo.es (blog sapiens), 18-10-10

 

 

 

-"Las matemáticas siempre han ayudado al progreso de las ciencias"

Simon Levin (Baltimore, 1941) recogió el jueves pasado en Barcelona el Premio Ramon Margalef de Ecología 2010 por su contribución a la ecología teórica y por su trabajo innovador sobre la integración de diferentes escalas para la comprensión de los procesos ecológicos.

Simon Levin, en Barcelona, después de recoger el Premio Margalef. Guillem Valle

 

 

Usted es matemático de formación. ¿Hasta qué punto han sido importantes las matemáticas en su carrera?

Me han dado la metodología para entender las cosas, realizar predicciones, sugerir soluciones. Las matemáticas siempre han ayudado al progreso de las ciencias. En la universidad empecé a ocuparme de la dinámica de fluidos y de la física, pero quería ir más allá. Las matemáticas se habían aplicado a la ecología y la biología, aunque cuando yo empecé había muy pocos investigadores provenientes de este campo. Siempre enfatizo la importancia de asociar la teoría matemática a las pruebas empíricas en los trabajos de laboratorio o de campo.

Cada vez se utilizan más los modelos de previsión, pero ¿no cree que nos faltan demasiados datos?

Sin duda. Hay una limitación muy grande. Y, a menudo, la teoría que tenemos no es adecuada a los datos de los que disponemos. A veces el trabajo teórico sustituye al empírico si este no se puede llevar a cabo y para ello debemos poder desarrollar modelos de confianza. Es la situación en la que nos encontramos al predecir el cambio climático o algunas enfermedades infecciosas

El Premio Margalef destaca su contribución al integrar diferentes escalas a las investigaciones...

Todos los problemas científicos implican procesos que operan a diferentes escalas: temporales, espaciales o de complejidad organizativa. La física trata de capturar de forma estadística el comportamiento de un número muy grande de moléculas en situaciones simples, como hervir agua, por ejemplo. Este tipo de problemas también se dan en fenómenos biológicos y sociales.

¿Cómo se mejora la gestión de los ecosistemas?

Es nuestro mayor reto. Vivimos en una comunidad global, donde los recursos son compartidos por todos. El mayor beneficio global requiere que algunos actores (individuos o naciones) se sacrifiquen.

¿Hasta qué punto afecta al mar la sobreexplotación pesquera?

En los mares se dan los cambios más preocupantes. Tenemos que recibir los bienes y servicios que nos ofrecen los ecosistemas, que es la esencia de la sostenibilidad. Por desgracia, hemos visto los recursos pesqueros como algo infinito. Sabemos que las especies que consumimos se han reducido, especialmente por la sobreexplotación y eso da lugar a situaciones como la del mero chileno, un pescado muy popular y delicioso, que las ONG nos sugieren que dejemos de consumir. Sin embargo, está en los menús. ¿Debo dejar de comer este pescado? Al fin y al cabo, ya está muerto. Pero sustituir poblaciones salvajes por las de piscifactoría lleva a otros problemas medioambientales, como la contaminación o el abuso energético, que son inaceptables.

Fuente: publico.es, 17-10-10

 

 

 

 

-El nitrógeno antropogénico, una amenaza para la flora y la fauna

 

Investigadores de Dinamarca y Estados Unidos han descubierto que los ecosistemas del planeta están saturados de nitrógeno generado por el ser humano. Además, la concentración de nitrógeno se ve aumentada por la quema de combustibles fósiles y por la intensificación de la actividad industrial y agrícola.
 

Este exceso de nitrógeno podría repercutir gravemente en el clima y viene al mismo tiempo acompañado de una contaminación de cursos de agua dulce y zonas litorales por efecto de diversas actividades humanas. El estudio, publicado en la revista Science, ha revelado que una aplicación más amplia de prácticas sostenibles y ya consolidadas contribuiría a limitar los impactos nocivos en el medio ambiente.

Los investigadores, pertenecientes a la Universidad del Sur de Dinamarca y a las Universidades de California-Berkeley y Rutgers (Estados Unidos), explican que el ciclo del nitrógeno, que tiene miles de millones de años de antigüedad, consiste en la transformación de las formas de nitrógeno de la atmósfera que no son útiles biológicamente en una serie de formas que sí lo son y que diversos organismos necesitan para crear proteínas, ADN y ARN (ácidos desoxirribonucleico y ribonucleico) y hacer la fotosíntesis. La «fijación del nitrógeno» es el término científico empleado para referirse a la conversión de nitrógeno atmosférico en diversos compuestos, como el amoníaco, ya sea por medios naturales o procesos industriales. . La fijación del nitrógeno se produce en un ciclo que abarca la atmósfera, el suelo, las plantas y sus raíces y por él discurren los productos generados, fomentando relaciones entre organismos, microorganismos y plantas.

Con el tiempo, dicho ciclo ha cambiado gradualmente desde sus orígenes debido a distintas circunstancias como la luz solar, los procesos volcánicos y las actividades biológicas. Tras 2.500 millones de años de evolución, los procesos microbianos han conformado el ciclo del nitrógeno tal y como lo conocemos ahora.

Las actividades humanas empezaron a influir en este ciclo a principios del s. XX. «De hecho, en los últimos 2.500 millones de años probablemente ningún otro fenómeno ha influido más que las actividades humanas en el ciclo del nitrógeno», indicó uno de los autores del estudio, el profesor Paul Falkowski del Instituto de Estudios Marinos y Costeros de la Universidad Rutgers. «En conjunto, las actividades humanas generan actualmente el doble de los procesos de fijación de nitrógeno terrestre que las fuentes naturales y proporcionan cerca del 45% del total del nitrógeno biológicamente útil que se produce cada año en la Tierra».

Los datos recabados indican que la mayor parte del exceso de nitrógeno que hay en los ecosistemas del planeta se debe a un incremento del 800% en el uso de fertilizantes a base de nitrógeno en el periodo 1960-2000.

Este exceso se atribuye también a un uso inadecuado de una gran cantidad de fertilizante a base de nitrógeno en cultivos de todo el planeta. Cerca del 60% del nitrógeno contenido en los fertilizantes aplicados no llega a ser absorbido por las plantas y por tanto es arrastrado desde las zonas radicales y a va a parar a ríos, lagos, acuíferos y aguas costeras, los cuales contamina por eutrofización. Este proceso se debe al exceso de nutrientes que agota el oxígeno de las masas de agua y, por consiguiente, provoca la muerte de la flora y la fauna.

Con respecto a la atmósfera, los investigadores indican que el óxido de nitrógeno es un gas de efecto invernadero cuyo efecto en el calentamiento del planeta es 300 veces por molécula superior al del dióxido de carbono. En resumen, el óxido de nitrógeno elimina el ozono de la estratosfera, que protege el planeta frente a los dañinos rayos ultravioleta.

«Es probable que los procesos naturales de retroalimentación de los microorganismos provoquen un nuevo régimen estacionario en escalas de tiempo de numerosas décadas», afirmó el profesor Falkowski. «En dicho régimen estacionario, el nitrógeno excedente procedente de fuentes humanas se eliminará a la misma velocidad a la que se añadirá, sin llegar a acumularse».

Los autores han concretado tres intervenciones fundamentales para remediar los daños causados al ciclo del nitrógeno: 1) aplicar rotaciones sistemáticas en cultivos que suministren nitrógeno; 2) optimizar los tiempos y las cantidades de los fertilizantes aplicados y adoptar técnicas fitogenéticas seleccionadas o bien desarrollar variedades de plantas transgénicas cuya eficiencia en el uso del nitrógeno sea mayor; y 3) aplicar técnicas fitológicas tradicionales que aumenten el potencial de variedades económicamente viables de trigo, cebada y centeno.

 

Fuente: CORDIS, 16-10-10

 


 

-Un yacimiento de gas junto al "Prestige"

Misión Galega do Gran Burato es el nombre que ha recibido la expedición científica compuesta por una veintena de investigadores que, desde hoy, tratará de determinar si en la costa gallega se acumula gas en un volumen suficiente como para hacer rentable su explotación comercial. En concreto, el yacimiento de hidratos de gas, una tipología de hidrocarburo, se encuentra muy cerca del pecio del petrolero Prestige, hundido hace ahora ocho años, en una cavidad de cuatro kilómetros de diámetro y 300 metros de fondo, en lo que constituye "la estructura de este tipo más grande del mundo", según Daniel Rey, catedrático de la Universidade de Vigo, del grupo de Geología Marina y Ambiental (Geoma) que coordina la misión. Pese a todo, Rey se muestra cauteloso en cuanto a los resultados. "Sabemos que existe el yacimiento pero la zona es muy inaccesible [se encuentra a 140 kilómetros de la costa y a 1.700 metros de profundidad], por lo que es imposible hablar en estos momentos de si será rentable o no su explotación. Lo que queremos determinar en esta primera fase es si merece la pena seguir con las prospecciones", precisa.

Por la misma razón, es demasiado pronto para establecer cómo se efectuarían las eventuales extracciones y la explotación del hidrocarburo. De lo que no existe ninguna duda es de la acumulación gasística. Los primeros indicios salieron a la luz en 2007 durante la travesía del buque oceanográfico L'Atalante hacia la zona de hundimiento del Prestige. Tres años después, se ha confirmado la presencia de "indicios de gas importantes". La morfología del gran burato (gran agujero, en gallego), así como los registros sísmicos, son pruebas concluyentes de la presencia de una reserva de gas.

 

El Buque Sarmiento de Gamboa

Quince días de estudio

Investigadores de la Universidade de Vigo y de Aveiro (Portugal), así como científicos del Instituto Español de Oceanografía y del Instituto Andaluz de Ciencias de la Tierra se embarcarán durante 15 días en el buque oceanográfico Sarmiento de Gamboa en una expedición financiada por la Conselleria de Industria de la Xunta.

"La estructura es gigantesca desde el punto de vista geológico y supone una investigación muy interesante, con el interés económico añadido que supone la posibilidad de encontrar gas", explica el catedrático. Con un presupuesto inicial "modesto" de 450.000 euros, precisa Rey, lo siguiente será determinar si compensa seguir adelante con las inversiones.

"En esa fase sería preciso poner a prueba una tecnología muy específica y puntera con la que sólo cuentan las grandes petroleras", aclara Rey, que intenta calmar las "expectativas" generadas desde que trascendió la existencia del yacimiento. "Aunque se confirme la viabilidad, no va a cambiar la economía de un día para otro", dice. La Xunta no duda, en cambio, de que "si se constatase la existencia de gas con un yacimiento que pudiese ser explotado, Galicia cambiará su posición en el contexto internacional de la energía", según el conselleiro de Industria, Javier Guerra.

Fuente: publico.es, 15-10-10

 

 

 

 

-Objetivo: detectar el cáncer en la sangre

Los marcadores biológicos constituyen el 'santo grial' del diagnóstico precoz y el tratamiento personalizado en oncología. Esta semana se ha celebrado en Denver (EEUU), bajo los auspicios de la Asociación Americana de Investigación del Cáncer, la reunión más importante en este ámbito. Los estudios presentados muestran la intensa búsqueda de sustancias con un gran potencial para detectar tumores en fases iniciales o predecir su evolución con una simple muestra de sangre.

Uno de los trabajos expuestos, desarrollado en Reino Unido por la empresa Oxford Gene Technology, consiste en un conjunto de biomarcadores que pueden determinar si existe un cáncer de próstata con un porcentaje de seguridad del 90%. Otro estudio describe un procedimiento que detecta en sangre la mayoría de los cánceres de colon cuando apenas han empezado a gestarse. Mama, vejiga, pulmón... todos los tumores podrían contar, en el futuro, con sistemas de diagnóstico mucho más sencillos que los actuales. Los más optimistas creen que, incluso, podrían llegar a sustituir a las actuales mamografías, colonoscopias y biopsias.

Sin embargo, de momento se trata únicamente de promesas. Respaldadas por expertos de reconocido prestigio y con una sólida base científica, pero con un largo recorrido por delante. Tal y como explica Jesús García-Foncillas, codirector del Programa de Biomarcadores en Oncología del Instituto Roche y director del Departamento de Oncología de la Clínica Universidad de Navarra, "existe una clarísima base racional para afirmar que, desde los primeros albores de un tumor, las células tumorales secretan moléculas que pueden detectarse en sangre periférica".

 

El problema es que esas sustancias aparecen en cantidades muy pequeñas cuando el cáncer es incipiente y, con frecuencia, sólo se observan de forma clara y abundante cuando el tumor ya se encuentra en una fase bastante más avanzada.

Confusión

Algunos marcadores pueden plantear otro escollo: que sean poco específicos. Puede ser que se relacionen con una enfermedad, pero que también estén elevados en otras patologías o circunstancias. Un ejemplo hipotético: si una proteína presente en la sangre de quienes sufren un cáncer de colon en fase inicial también se encuentra en cantidades elevadas en los fumadores, ¿cómo podrían asegurarse los médicos de que realmente se trata de un tumor? La respuesta está clara: mediante la realización de otras pruebas disponibles, como la colonoscopia.

En la última década se ha intensificado la búsqueda de biomarcadores para el diagnóstico precoz del cáncer en sangre. Pero, debido a las dificultades mencionadas, "hoy por hoy, lo que tenemos en la práctica clínica diaria es muy poco", señala Félix Bonilla, jefe del Servicio de Oncología del Hospital Universitario Puerta de Hierro Majadahonda de Madrid. "Hay dos muy buenos para los tumores germinales de testículo y de ovario, que permiten hacer un diagnóstico sin necesidad de pruebas de imagen", añade. Se trata de las proteínas beta-HCG y alfa-fetoproteína. Otra sustancia muy usada es el antígeno prostático específico (PSA) para detectar el cáncer de próstata, aunque su empleo no está exento de controversia.

Los oncólogos utilizan otros biomarcadores que se encuentran en la sangre. Sin embargo, no van destinados al diagnóstico, sino al seguimiento de la evolución de los tumores. Se ha comprobado que algunas sustancias aportan información muy útil sobre el pronóstico de la patología y muestran si responde de forma adecuada a la medicación.

Ésta es, precisamente, una de las áreas que, según García-Foncillas, sí que está logrando introducirse en los hospitales de todo el mundo. No todos los posibles biomarcadores destinados a predecir qué fármaco es mejor para cada tumor llegan a buen puerto, pero el experto calcula que aproximadamente uno de cada cinco pasa la criba y se consolida en la práctica clínica.

 

Fuente: abc.es, 14-10-11

 

 

 

-La mano de obra sale a 4,6 euros por iPhone en China

 

La mano de obra para la fabricación del iPhone 4 sale en China a 6,54 dólares (4,6 euros) por unidad, lo que significa un 1,1% de su precio de venta, según la firma de investigaciones de mercado iSuppli.

Este dato resulta llamativo coincidiendo con la denuncia de las condiciones laborales de los trabajadores de Foxconn, empresa encargada de la fabricación del iPhone y con sede en China, envuelta en polémica por una ola de suicidio.

Por el contrario, el informe resalta que los márgenes de beneficio de Apple con el iPhone rondan el 60%.

El pasado mes de junio, iSuppli también cifraba el coste total de fabricación del dispositivo en 188 dólares (152,4 euros). El análisis era con la versión de 16 GB del iPhone 4, que se podía adquirir por 199 dólares (161,3 euros) en EEUU, a lo que había que sumar un contrato de consumo con AT&T.

Algunos de los precios de las piezas eran, por ejemplo, el chip del giroscopio, en 2,6 dólares (2,1 euros) o el chip A4 fabricado por Samsung, 10,75 dólares (8,7 euros). El componente más caro era la pantalla del dispositivo, fabricada por LG Display con un coste de 28,5 dólares (23 euros).

 

Fuente: publico.es, 13-5-10

 

 

 

 

-EEUU trata al primer paciente con células madre embrionarias

El primer paciente inscrito en el primer ensayo clínico con células madre embrionarias humanas del mundo ha sufrido hace menos de 14 días un daño medular agudo que le ha producido una parálisis parcial. Es muy probable que sea una víctima más de los accidentes de automóvil, pero no se sabe, igual que no se conocen su nombre, su sexo y su edad. Lo único que se sabe es que está siendo tratado en el hospital privado Shepherd Center de Atlanta (Estado de Georgia, EE UU), porque así lo han comunicado la empresa Geron, fabricante de los dos millones de células que se aplicaron el viernes a este paciente, y el citado hospital. No se van a dar más datos por ahora, pero los requisitos para entrar en el ensayo clínico sí se conocen y son los descritos: pacientes con lesión medular grave, con falta total de actividad locomotora o sensorial por debajo de la lesión, y que por las características de esta puedan ser tratados entre los siete y los 14 días siguientes.

Las acciones de Geron subieron ayer alrededor de un 6% en Bolsa y algunos activistas contrarios al uso de células embrionarias criticaron el ensayo: "Geron ayuda a su acción, no a la ciencia ni, especialmente, a los pacientes. Pasarán años antes de tener pruebas sólidas sobre la seguridad o la efectividad", declaró, por ejemplo, David Prentice, del Consejo de Investigación de la Familia.

La empresa obtuvo este verano el permiso definitivo de la autoridad sanitaria (la Administración de Alimentos y Medicamentos, FDA) para realizar el ensayo, de fase I. El objetivo es probar la seguridad y la tolerancia del tratamiento durante un año, aunque también se evaluará su posible eficacia en la regeneración de la médula espinal. La terapia consiste en una única inyección de un tipo de células del sistema nervioso en el lugar del daño en la médula espinal. Estas células producen mielina -la capa aislante que rodea los axones de las neuronas y les permite comunicarse a través de impulsos eléctricos- así como otros compuestos que favorecen la actividad de las neuronas. Cuando se inyectaron en animales estas células, que son precursoras de los oligodendrocitos, se vio que migraron al lugar de la lesión, se convirtieron en oligodendrocitos funcionales y mejoró ostensiblemente la locomoción de los animales.

El ensayo se hará con solo 10 pacientes y en todos o algunos de los siete hospitales seleccionados, de los que únicamente se conocen dos, el Shepherd Center y el Northwestern Medicine de Chicago.

"El inicio del ensayo clínico es un hito en el campo de las terapias basadas en células madre embrionarias", dice Thomas B. Okarma, presidente de Geron, en un comunicado. "Cuando empezamos a trabajar con estas células, en 1999, muchos predijeron que pasarían décadas antes de que se pudiera aprobar una terapia y realizar ensayos clínicos".

Geron ha partido de células procedentes de embriones desechados en tratamientos de fertilidad, que ha logrado diferenciar en laboratorio para dar lugar a las que va a utilizar en el ensayo. Es una empresa privada que no utiliza fondos públicos por lo que no resulta afectada por el laberinto legal en que se encuentra en Estados Unidos la investigación con células madre embrionarias humanas con estos fondos. Los tribunales permitieron recientemente que sigan los experimentos en marcha en este área mientras entran a juzgar el fondo de la cuestión, tras admitir a trámite denuncias contra el uso de este tipo de células.

Mientras tanto, sigue el desarrollo de técnicas de manipulación genética para llegar al mismo sitio a partir de células adultas, que se reprograman, y los intentos por clonar células de pacientes para obtener terapias celulares sin rechazo.

Fuente: elmundo.es, 12-10-10

 

 

-"No he visto un nivel de destrucción así en mi vida"

 

El muro de contención ya está terminado, pero los habitantes de Kolontár perderan unas 40 casas dañadas por la riada y los productos químicos del lodo

 

El muro ya ha sido levantado, pero muchos de los vecinos de Kolontár están concentrados ahora mismo en otro tipo de construcciones. Sus casas tendrán que ser derruidas por los efectos de la riada de lodo tóxico que ha convertido en un infierno rojo su tierra. Les han prometido viviendas, pero no saben dónde ni quién pondrá en dinero para poder cobijarse bajo un nuevo techo.

"No he visto un nivel de destrucción así en mi vida", confiesa Denis Dalmy, un arquitecto encargado de revisar los daños de los edificios. Los peritos, más allá de causa directa de la riada, que ha dañado las infraestructuras de las casas, han destacado que unas 40 tendrán que ser derribadas por los perniciosos efectos de los productos químicos y metales pesados que contiene el barro, informa Nuño Domínguez. "Con tanto lodo, habrá que tirarlas".

Tibor Dobson, coordinador de la protección civil húngara (OKF), ha confirmado que el Gobierno ha prometido nuevas viviendas a las víctimas, que podrían elegir su ubicación: bien en una zona de la localidad no afectada por la riada, bien en otra población. Los que han corrido mejor suerte tendrán que esperar previsiblemente hasta el sábado para regresar a sus hogares.

 

Seis metros de alto

Las obras del nuevo dique de contención para proteger del lodo tóxico a las localidades húngaras de Kolontár y Devecser han concluido. En algunos puntos mide hasta seis metros y los materiales empleados han sido rocas y tierra compacta, según OKF. 

Por su parte, la portavoz de protección civil, Györgyi Tüttös, explicó que los medios de comunicación y los habitantes no tienen permitido por ahora acercarse a la zona, ya que los niveles de contaminación aérea son tres veces superiores a lo permitido. En un par de días es posible que puedan hacerlo.

Kolontár, el poblado más afectado

Kolontár, en al oeste de Hungría, fue el poblado más afectado por el derrame el 4 de octubre de barro rojo y el levantamiento del nuevo dique de contención tiene por objetivo desviar una posible segunda riada del material corrosivo restante en el reservorio. El muro de unos 1.500 metros de largo está compuesto por unas 40.000 toneladas de rocas transportadas con camiones de gran tonelaje.

Las autoridades húngaras dan por seguro que ocurrirá un segundo vertido, aunque el barro rojo restante es menos fluido por lo que apenas se desplazará unos mil metros de la balsa. Tüttös explicó que las grietas detectadas en el muro norte del dique de la represa no han aumentado desde hace varios días, lo que indicaría que ha disminuido el peligro de un nuevo vertido.

Fuente: elmundo.es, 12-10-10

 

 

 

 

-El primer ministro húngaro habla de "negligencia humana" tras el vertido tóxico

 

El Estado húngaro ha tomado el control de Magyar Alumínium (MAL), la empresa responsable del vertido tóxico que ha causado ocho muertos en el oeste del país y graves daños ecológicos, tras la detención de su director.

"La empresa responsable de la catástrofe debe ser puesta bajo el control del Estado", dijo el primer ministro húngaro, Viktor Orban, en una intervención en el Parlamento en la que recalcó que la "negligencia humana" está detrás de la catástrofe. En su discurso, el jefe de Gobierno húngaro prometió un proceso legal "severo y justo", tras asegurar que no se puede "seguir viviendo con peligros secretos".

"Tenemos razones para creer que hubo personas que eran conscientes del peligroso debilitamiento de los muros, pero llevados por sus intereses creyeron que no merecía la pena repararlos", agregó.

Detenido el director de la empresa

El director de MAL, Zoltán Bakonyi, ha sido detenido de forma cautelar durante 72 horas por las acusaciones de crear un peligro público y ser responsable de la muerte de varias personas, así como de incontables daños naturales.

Bakonyi ha sido detenido este lunes por agentes de la Oficina Central de Investigaciones, que posteriormente lo han interrogado, según informó la Policía. En los días anteriores tanto Orbán como otros miembros del Gobierno aseguraron que lo sucedido se debió a un error humano y que los responsables serían "castigados severamente".

 

 

Imagen de la balsa

Las prioridades

Las cuatro prioridades del gobierno después de la catástrofe medioambiental son, según adelantó Orbán: indemnizar a los damnificados, asegurar el trabajo en la empresa para que no se pierdan empleos, impedir otras catástrofes y encontrar a los responsables de lo sucedido.

MAL ha sido puesta bajo control directo del Estado, dirigida por un "comisario de defensa de catástrofes", que será responsable de "supervisar, dirigir y manejar" los bienes de la empresa.

La construcción de un nuevo dique

Mientras el Gobierno ha dado un golpe de autoridad para tratar de depurar responsabilidades por la peor catástrofe ecológica del país, en la zona siniestrada se trabaja contrarreloj para terminar un dique de contención que frene una segunda riada de "barro rojo".

Ya se han construido unos 1.000 metros de longitud de éste dique que tendrá una anchura de 25 metros y cinco de altura. En total estará compuesto por unas 40.000 toneladas de rocas que tienen como fin contener y desviar ese segundo vertido a una zona de control, explicó la portavoz de protección civil, Györgyi Tüttös.

Las autoridades dan por segura una segunda riada, aunque el "barro rojo" que queda en la represa es menos líquido y su movilidad sería sólo de unos 1.000 metros, mucho menor que el derrame de hace una semana, que ha contaminado con metales pesados unos 40 kilómetros cuadrados.

De momento no se sabe a ciencia cierta cuánto aguantará el muro norte de la balsa de acumulación, que presenta importantes grietas, por lo que las autoridades consideran que una nueva fuga puede producirse en "semanas o meses".

El clima, a favor de los operarios

Gracias al buen tiempo, las grietas detectadas el jueves en el muro norte no han aumentado, pero el sol y las relativamente altas temperaturas están haciendo que se seque el lodo y se convierta en polvo en la región afectada.

Por ello, las autoridades hicieron hoy obligatorio el uso de mascarillas y gafas protectoras a todos los que trabajan en los retenes de reconstrucción, ya que debido al buen tiempo de los últimos días se ha incrementado el polvo tóxico en el aire, que podría causar problemas de salud.

Mientras, la dirección de aguas de la región informó de que el estado de las aguas de ríos infectados en el vertido del lunes, como el Rába y el Mosoni-Duna, es hoy similar a los índices registrados antes de la catástrofe.

Este mediodía llegaron a Hungría tres de los cinco expertos europeos que analizarán la situación en las poblaciones afectadas y presentarán un informe sobre sus recomendaciones el viernes.

Fuente: elmundo.es, 11-10-10

 

 

 

-Google diseña un coche sin conductor

Google ya no solo quiere clasificar toda la información que hay en internet; ahora también quiere organizar el tráfico en las carreteras.

La compañía anunció el sábado, mediante un comunicado colgado en su página web, que ha creado una nueva generación de vehículos que funcionan sin conductor.

Detalle del proyecto de Mike Montemerlo, de la Universidad de Stanford (2005), ganador del desafío DARPA que inspiró los coches autónomos de Google.

 

 

Según la nota, firmada por el ingeniero de software Sebastian Thrun, "el objetivo es prevenir accidentes de tráfico, conseguir que la gente tenga más tiempo y reducir las emisiones de carbono, cambiando radicalmente el uso del coche".

Los expertos de Google han trabajado durante meses con los ingenieros Mike Montemerlo y Chris Urmson, ganadores en 2005 y 2007, respectivamente, del desafío DARPA, una carrera de vehículos robotizados organizada por el Gobierno de EEUU. Los coches automatizados de Google han recorrido mil millas (1.609 kilómetros) sin ninguna intervención humana, y alrededor de 140.000 (unos 225.300 kilómetros) con la ayuda de los ingenieros. Uno de los coches condujo solo, incluso, por la famosa calle Lombard de San Francisco, repleta de complicadas curvas.

En su nota, Google ofrece escasos detalles sobre los vehículos, y tampoco proporciona fotografías. Únicamente explica que los coches utilizan videocámaras y sensores por radar y láser para observar al resto de vehículos y controlar los obstáculos del camino. Además, los autómatas utilizan una base de datos con mapas detallados de la zona.

The New York Times ofrecía este domingo más información. Según explica el diario, un equipo de 15 ingenieros de Google y otra docena de personas, todas con un historial intachable al volante, han circulado por las carreteras de California a bordo de seis Prius y un Audi TT, tuneados con radares y cámaras.

Perfil precavido o agresivo

Según explica en su crónica el periodista John Markoff, que montó en uno de los coches, el vehículo se adapta a la velocidad permitida legalmente en cada tramo por el que se conduce, y alerta al conductor, con una agradable voz femenina, cuando se aproxima a un paso de cebra o a algún obstáculo. Se trata de simple precaución porque los ingenieros no tienen que intervenir. El coche puede ser programado según la personalidad del conductor, entre precavido y agresivo y, según la decisión, el coche cederá el paso al resto de vehículos con mayor o menor frecuencia.

Los ingenieros de Google aseguran que los coches sólo tuvieron un accidente, y ocurrió porque uno de ellos fue golpeado por detrás. En su nota, Thrun explica que el proyecto "está en un estado experimental", pero asegura: "Permite vislumbrar cómo podría ser el transporte en el futuro".

Los detalles del vehículo robot

- Un sensor en el techo del coche de Google genera mapas en tres dimensiones de todos los objetos que lo rodean.

- Cerca del espejo retrovisor, los ingenieros colocaron una videocámara que detecta los semáforos y reconoce obstáculos en movimiento, como ciclistas y peatones.

- Cuatro radares (tres en la parte frontal del vehículo y uno en la trasera) determinan la posición de los objetos más distantes.

Fuente: publico.es, 10-10-11

 

 

 

-Naves interestelares: un grupo de científicos diseña una máquina para ir más allá del Sol

La máquina que pudiera llegar a planetas ajenos al Sistema Solar debería estar propulsada por energía procedente de la fusión nuclear, resistir las condiciones más extremas de radiación, temperatura e impactos. Una minúscula partícula de polvo podría dañarla si viaja a una quinta parte de la velocidad de la luz. Con todo, en el mejor de los casos, sólo el trayecto de ida duraría más de 25 años.

Cuando el ser humano consiguió poner un pie en la Luna, un cóctel de optimismo colectivo y desbordante imaginación hizo pensar a una parte importante de la población que no era sino el primero de una serie de pasos para conquistar el espacio. No parecía tan descabellado ni siquiera en los años 80 concebir vuelos regulares al satélite de la Tierra o al fascinante planeta rojo, donde habría futuristas bases habitables con todas las comodidades. Sin embargo, ya inmersos en la segunda década del siglo XXI, los conocimientos han avanzado, sí, pero por Marte sólo circulan vehículos robotizados para recoger muestras que en ocasiones se hacen papilla al aterrizar sobre la superficie marciana o acaban en algún agujero.

Visionarios
Los sueños se quedaron muy cortos, pero sin personas con mente ambiciosa que piensan «un día será posible» el ser humano nunca hubiera logrado hitos en el conocimiento y la exploración. Puede que nadie haya pisado Marte todavía, pero un grupo de científicos lleva mucho tiempo estudiando no sólo cómo alcanzar cuerpos celestiales del Sistema Solar, diseñan una nave para viajar más allá del Sol hacia mundos donde la Humanidad pueda establecerse cuando la Tierra sucumba a los excesos o hacia planetas en los pueda haber alguna forma de vida. En los años setenta, un grupo de científicos de la Sociedad Interplanetaria Británica pusieron en marcha el proyecto Dédalo para diseñar un modelo de nave que pudiera alcanzar la estrella de Barnard, que se encuentra a nada menos que 5,9 años luz de la Tierra. Ahora, jóvenes científicos trabajan en el proyecto Icarus (Ícaro), el hijo de Dédalo, con el objetivo de poner las bases para que una nave pueda viajar fuera del Sistema Solar.
La semana pasada, estos visionarios recibieron una noticia que incita a trabajar con más ahínco en su estudio: la existencia un planeta muy parecido al nuestro, pero a 20 años luz de aquí. Un grupo de astrónomos de Estado Unidos ha descubierto una «nueva Tierra» que gravita en torno a la estrella Gliese 581. Tiene cuatro veces su tamaño, pero unas condiciones de gravedad y temperatura que lo hacen compatible con la vida humana.
Está claro que la tecnología actual impide conquistar ni siquiera los dominios de nuestra estrella, el Sol, pero ¿qué tendría que cambiar para que fueran factibles los viajes interestelares? El proyecto Icarus plantea que una nave no tripulada lograse viajar a un 20 por ciento de la velocidad de la luz, ése es su objetivo, pero el camino está plagado de dificultades como resume a este semanario Richard Obusy, físico teórico y uno de los miembros del proyecto, «incluso si logramos la velocidad que proponemos, alcanzar las estrellas más cercanas podría llevarnos un cuarto de siglo. Los combustibles actuales para los cohetes no sirven. Pero hay más problemas además de la propulsión. Viajando a esas velocidades incluso una diminuta partícula de polvo podría causar un gran daño a la estructura de la nave, tendría que tener mucha autonomía energética para funcionar sin ayuda durante tantos años y también están las comunicaciones para transmitir a la Tierra desde tan lejos…».

Combustible
Por su parte, Jesús López, catedrático de Ingeniería Aeroespacial de la ETSI Aeronáuticos de la Universidad Politécnica de Madrid, cree que «el mayor problema por resolver sería la propulsión, para lo que la opción más prometedora es la fusión nuclear». El hombre persigue el objetivo de reproducir de forma artificial ese proceso que sólo tiene lugar en el interior de estrellas y planetas y que consiste en la unión de varios núcleos atómicos para formar otros más pesados, lo que implica la liberación de una gran cantidad de energía. «La fusión es la opción más lógica, pero hay que garantizar que funciona y que es embarcable en una nave para usar esa energía para propulsarse. También se puede pensar en el empleo de energía solar, pero no deberíamos depender de otras estrellas sobre las que desconocemos muchas cosas». Respecto a las posibilidades de colisionar, López los considera un problema menor, «no es más difícil que lo que ya se ha resuelto para viajar por el Sistema Solar, un buen sistema de navegación podría evitar chocar contra otros objetos», añade.


Desde la NASA, el portavoz de la Oficina de Tecnología, David E. Steitz, asegura que «también la nave debe enfrentarse a condiciones extremas de radiación, temperatura. Pero también debería ser capaz de almacenar enormes cantidades de energía. De hecho, el éxito de esta misión significaría que hemos logrado solventar grandes problemas de comunicaciones, materiales, fiabilidad de la mecánica, electrónica y todo eso se reflejaría en todas las tecnologías y objetos de consumo en la Tierra, como los coches, los teléfonos, ordenadores, aviones… así que es un objetivo muy deseable para la raza humana».
Sin embargo, Steitz recalca cuán lejos estamos de lograr velocidades de crucero prodigiosas. «El objeto más rápido fabricado por el hombre es la sonda Voyager I, que viaja a 17 kilómetros por segundo. Alcanzar Alfa Centauro, nuestra estrella más próxima, le llevaría 75.000 años; y si pudiera viajar mil veces más rápido ya serían 75 años. Pero mantener esa velocidad hasta alcanzar el objetivo no resultaría muy útil para estudiar esos mundos, habría por tanto que reducir la velocidad en el tramo final del trayecto y compensarlo con una velocidad punta mucho mayor hasta la mitad del recorrido».


Queda mucho por hacer. El trabajo de los miembros del Proyecto Icarus no es tanto ver construida esa nave, sino sentar las bases para una nueva generación de científicos que sí tenga en sus manos las herramientas técnicas que lo permitan. Obusy cree que «el descubrimiento de planetas parecidos a la Tierra desatará más interés en los viajes interestelares». Sobre si lo lograremos, el catedrático Jesús López afirma que «el ser humano ha sido capaz de poner en marcha todos lo que se ha imaginado. Si nos empreñamos, lo conseguiremos». 

¿Merece la pena?
Siempre hay quien se pregunta para qué invertir tanto dinero  en conocer otros mundos con tantos problemas que tenemos a la vuelta de la esquina. Una misión como Icarus costaría varios billones de euros, pero a esas magnitudes, según Richard Obusy, «no es comparativamente más caro que la Estación Espacial Internacional». Respecto a los grandes problemas de la Humanidad (cambio climático, hambruna, pobreza...), el físico lo considera un debate «con trampa» ya que si quisiéramos  luchar contra esas lacras podríamos haber empleado los 150 millones de dólares gastados en la inauguración de los Juegos Olímpicos de Pekín o los 20.000 millones de  dólares que se gastaron en alcohol los adolescentes estadounidenses o los sueldos de los jugadores de la Premier League.  Hay que pensar también en el retorno de la inversión, en los miles de empleos que se crearían para científicos, ingenieros y especialistas, nuevas industrias...», dice.

Fuente: larazon.es, 9-10-10

 

 

 

-Mil millones de toneladas de hielo del polo Sur para observar neutrinos

Si los experimentos de física de partículas suelen ser sorprendentes, el IceCube bien puede ser el más peculiar. Se trata de un observatorio de neutrinos de alta energía que utiliza mil millones de toneladas de hielo profundo antártico, de extremada transparencia, para detectar neutrinos con gran precisión, tal vez las partículas elementales más fantasmagóricas dado que apenas interaccionan con la materia y billones de ellas atraviesan cualquier cosa cada día, incluso el cuerpo humano, sin que se note. Por eso es dificilísimo verlas y por eso los físicos diseñan extraños dispositivos para estudiarlas. El IceCube, que se empezó a construir en 2004 justo en el polo Sur, junto a al base científica estadounidense Amundsen-Scott, tras años de planes y ensayos; se terminará en enero de 2011.

Los registros de los sensores del observatorio IceCube se transmiten por cables desde las perforaciones en el hielo hasta los ordenadores del laboratorio- J. HAUGEN

 

 

El observatorio, que en la superficie se extiende un kilómetro cuadrado y se adentra en el hielo antártico hasta 2.500 metros de profundidad, esta formado por un conjunto de 86 líneas verticales con detectores y equipos electrónicos. En total son 5.160 sensores ópticos, además de todos los dispositivos de registro y transmisión de datos. Para colocar las líneas se van haciendo perforaciones de 61 centímetros de diámetro en el hielo con agua caliente, se bajan las líneas de instrumentos y, cuando el agua se vuelve a congelar, quedan fijas. La dificultad de la construcción del Icecube y las complicaciones de la logística en el continente blanco han sido tremendas, explican el director científico del proyecto, el estadounidense Francis Halzen y su colega Spencer Klein en un largo artículo publicado en una revista del Instituto Americano de Física (API) ahora que se acerca ya la hora de comenzar (el año que viene) la investigación. Con él, afirman, se abren las puertas de la auténtica astronomía de neutrinos. En los fenómenos más violentos del universo, como explosiones estelares, agujeros negros o estallidos de rayos gamma, se generan estas partículas y su estudio ayudará a resolver misterios de estos fenómenos cósmicos.

IceCube se basa en el hecho de que cuando un neutrino choca contra el núcleo de una molécula del agua helada se genera una emisión de luz llamada Cherenkov que ven los sensores del detector. La información combinada de los sensores perfectamente calibrados y sincronizados permitirá reconocer las fuentes de esos neutrinos en el universo. También la materia oscura puede desvelarse en esta gran instalación, aseguran los especialistas.

El nuevo gran detector, cuyo coste asciende a 212 millones de euros, es heredero directo de varios predecesores, trampas de de neutrinos también peculiares (con las líneas sumergidas en el mar por, ejemplo) y varios han tenido éxito y funcionan. Otros fracasaron porque el reto era excesivo para la tecnología del momento, como el Dumand, que se empezó a montar cerca de Hawai para aprovechar las aguas oceánicas allí como Icecube aprovecha el hielo transparente de la Antártida, recuerdan Halzen y Klein.

Un detector en el lago Baikal y tres en el Mediterráneo (Antares, Nestor y Nemo) han aportado los conocimientos y la experiencia suficiente para confiar en el éxito del IceCube. Antares, cerca de la costa francesa, instalado a 2.400 metros de profundidad, está ya completo con 12 líneas de sensores y funciona. Otros observatorios, más pequeños pero muy eficaces para determinados estudios están en funcionamiento, como el Superkamiokande japonés o el SNO canadiense, situado en las profundidades de una mina de carbón.

Pero el antecesor directo del IceCube ha sido el Amanda, también instalado en el continente blanco y en funcionamiento desde 2000 a 2009. El nuevo dispositivo es mucho más ambicioso y, gracias a su gran tamaño, permitirá llegar más lejos científicamente. "Hacen falta inmensos detectores de partículas para capturar neutrinos cósmicos en cantidades estadísticamente significativas", escriben los dos físicos en la revista Review of Scientific Instruments de la API. El IceCube observará varios cientos de neutrinos de alta energía cada día, según las previsiones.

La construcción de una instalación como IceCube en la Antártida, un proyecto internacional liderado por la National Science Foundation estadounidense, es extremadamente compleja. La temporada anual para trabajar es muy corta, solo de mediados de octubre a mediados de febrero (el verano austral), y para hacer todas las perforaciones en el hielo colocando las líneas de sensores han hecho falta siete campañas. Solo el transporte hasta el polo Sur de todo el material, desde perforadoras hasta plantas energéticas y de agua caliente hasta bombas de alta presión, es ya una complicación. La mayor parte de los equipos han sido especialmente diseñados para este trabajo. Halzen y Klein agradecen especialmente el apoyo que presta en el proyecto el personal de la base antártica Amundse-Scott.

Fuente: elapais.com, 9-10-10

 

 

-Aragón registra un caso de malaria autóctono

Es el primer contagio de paludismo que se produce en España desde 1961 y no supone ningún riesgo para la población. El paciente, diagnosticado en el mes de septiembre en la provincia de Huesca, contrajo la enfermedad por la picadura de un mosquito 'Anopheles atroparvus' que portaba el parásito. Las autoridades sanitarias subrayan que se trata de una "curiosidad epidemiológica".

El caso fue detectado a finales de septiembre en un paciente que presentaba fiebre y malestar que no remitían con los tratamientos habituales. Tras una analítica anormal, se enviaron muestras al Instituto de Salud Carlos III de Madrid que confirmó el día 1 de octubre el diagnóstico de malaria. El paciente recibió terapia y se recuperó sin mayor complicación.

Aunque el contagio se produjo en España, puesto que el paciente no había viajado al extranjero, "se trata de un caso concreto y aislado y, además, de poco riesgo", subrayan desde la Consejería de Sanidad de Aragón. "Es una curiosidad epidemiológica que no pone en riesgo a la población. Una anécdota más que una amenaza", ha explicado a ELMUNDO.es Francisco Javier Falo, director de Salud Pública del citado organismo.

Los análisis indicaron que el parásito responsable de la infección era el 'Plasmodium vivax', que produce una forma leve de la enfermedad. El transmisor, según las autoridades, sería el mosquito 'Anopheles atroparvus', una de las especies más importantes en los países mediterráneos.

Para el experto aragonés, la detección de este caso es "un signo de robustez del sistema sanitario" que tiene "trascendencia desde el punto de vista epidemiológico" pero cuyo "impacto en la salud es muy reducido".

'Anophelismo sin paludismo'

La malaria no es una enfermedad extraña en nuestro país ya que cada año se registran alrededor de 500 casos. Todos ellos corresponden a personas que han contraido la infección durante un viaje al extranjero y la han 'importado'. Los contagios producidos por un mosquito patrio no se registran desde 1961 y el paludismo se declaró oficialmente erradicado en 1964.

"El vector ['An. atroparvus'] está presente con carácter general en toda España", señala Francisco Javier Falo. "Se dice que es una región de anophelismo sin paludismo", añade.

Hace unos meses, un informe del proyecto europeo EDEN (Emerging Diseases in a changing European eNvironment) confirmó la elevada presencia del vector en la zona del Delta del Ebro aunque afirmaba que el riesgo de reaparición del paludismo en España es prácticamente nulo dada la eficacia del sistema de salud.

"Para que haya una transmisión efectiva del parásito, tiene que haber mucha gente con paludismo porque los mosquitos tienen que adquirir el parásito picando a una persona infectada y después transmitírselo a otra picándola igualmente. Con un solo caso, la probabilidad es casi inexistente", ha subrayado el experto en salud pública.

Fuente: elmundo.es, 11-10-10

 

 

-El vertido tóxico ya alcanza el Danubio

La contaminación de lodo tóxico que afecta al suroeste de Hungría ha llegado ya hasta el río Danubio, aunque la concentración de metales pesados en las aguas es muy reducida y el riesgo de contaminación más bajo.

Un hombre camina entre el lodo. | Ap

 

Así lo anunció la portavoz de la Oficina de Catástrofes, Gyorgyi Tuttos, que explicó que el ph del agua contaminada ha bajado desde el valor 13 de ayer, incompatible con la vida, hasta 9, más cercano al punto de inocuidad.

De acuerdo con un funcionario del Departamento del Agua, las muestras de agua recogidas en la confluencia del río Danubio con el afluente Raab revelan "una tasa ligeramente más alta de alcalino de lo normal, entre 8,96% a 9,07%", mientras que lo habitual es del 8%.

La portavoz de Oficina de Catástrofes, Gyorgyi Tuttos, explicó que este jueves sobre las 07.27 GMT la ola de "barro rojo" alcanzó este afluente, a unos 20 kilómetros del Danubio, aunque aseguró que el PH del agua ha bajado hasta 9,2, después de que este miércoles hubiera alcanzado un valor de 13, incompatible con la vida.

El lodo rojo, producido por un accidente industrial y que ha anegado los condados de Veszprem, Gyor-Moson-Sopron y Vas, amenaza ahora el ecosistema del río más grande del país y el segundo de Europa, con una tasa de residuos alcalinos superior a la normal. Las autoridades húngaras han iniciado una investigación criminal para conocer las causas del derrame.

Después del río Marcal -ya contaminado, la contaminación ha llegado al Danubio en la mitad del camino entre Viena y Budapest. El río llega a Croacia a unos 155 kilómetros al sur de la capital húngara, luego va a través de Serbia, Bulgaria, Moldavia, Ucrania y Rumania antes de llegar al Mar Negro.

La rotura de una balsa de acumulación, propiedad de la empresa fabricante de aluminio MAL Zrt, provocó el lunes el derrame de un millón de metros cúbicos de lodos altamente tóxicos. Cuatro personas, entre ellas un niño, fallecieron en el accidente y otras seis se encuentran desaparecidas.

El presidente de la organización ecologista Greenpeace en Hungría, Zsolt Szegfalvi, destacó que se trata de la catástrofe más grande de Europa relacionada con el llamado barro rojo.

Por su parte, el primer ministro húngaro, Viktor Orban, ha asegurado que "no se puede vivir" en la zona del desastre. Orban, que está visitando los pueblos afectados, anunció que habrá que cercar y aislar las zonas más contaminadas de Kolontár, uno de los pueblos arrasados por la ola tóxica.

Fuente: elmundo.es, 9-10-10

 

-Terremotos: ¿esta la naturaleza fuera de control?

Primero Haití, con cientos de miles de muertos. Después Chile, con más de 200, y Japón, donde, por fortuna, no se registraron víctimas. En tan sólo dos meses, la Tierra ha temblado con muchísima fuerza como si se levantara en armas. La potencia de estos terremotos -el chileno del pasado sábado ha alcanzado los 8,8 grados en la escala de Richter (uno de los mayores en los últimos cien años en todo el mundo) , 7,2 el nipón y 7 el de Haití- nos ha sorprendido y conmocionado, como si esto no pudiera repetirse en un plazo de tiempo tan corto y algo anormal estuviera sucediendo.

Sin embargo, los científicos aseguran que las entrañas del planeta no están más activas ahora que en otros tiempos desde que se tiene memoria y registros sísmicos. Simplemente, obedecen a las órdenes de una naturaleza que, en este caso y al contrario de lo que ocurre con el clima, sólo responde a sus propias normas, las que marca la geología. Y al ser humano no le queda más remedio que prevenir y, en la medida de lo posible, protegerse.

«Un terremoto siempre es una sorpresa y más con estas dimensiones, pero en un lugar como Chile la actividad sísmica es alta y se sabe que estos terremotos pueden ocurrir», señala Luis Cabañas, sismólogo de la Red Sísmica del Instituto Geográfico Nacional. El seísmo de Chile ha sido especialmente duro, el segundo más potente del país después del registrado en 1960, con magnitud 9.5 y el mayor ocurrido en el mundo. El motivo de este castigo para los chilenos es que su país está situado en el llamado «círculo de fuego» que bordea los países del Pacífico, una de las zonas más sísmicas del planeta, donde se producen el 80% de los terremotos. «Estos terremotos ocurren como consecuencia de la convergencia de las placas tectónicas de Nazca y de Suramérica, lo que produce rupturas bastante intensas y violentas. La placa de Nazca de naturaleza oceánica se curva e introduce bajo la placa de Suramérica de carácter continental, formando lo que se denomina un margen de subducción», explica Cabañas.

 

Imagen de humo y polvo sobre Santiago de Chile tras el terremoto tomada por un satélite de la NASA / NASA

 

Un seísmo gigante al año

Pero, ¿por qué un terremoto tras otro en distintas partes del mundo? ¿Le sucede algo a la Tierra? «En principio, creemos que no, que es un comportamiento normal producido por el movimiento de placas», explica el experto. Las estadísticas indican que aproximadamente «hay un terremoto de magnitud superior a ocho al año -puede ocurrir uno o ninguno-, mientras que pueden registrarse entre 15 ó 18 seísmos de magnitud entre siete y ocho». Lo que ocurre es que no siempre se producen en zonas pobladas ni causan catástrofes tan graves, por lo que muchos se quedan en noticias poco destacadas que olvidamos con facilidad, hasta que uno golpea en una zona densamente habitada y provoca una catástrofe humana que se queda grabada en nuestra retina.

La época que nos ha tocado vivir no ha sufrido más o menos terremotos que otras. Según Cabañas, lo que conocemos del registro sísmico «viene a ser estadísticamente constante». Tampoco influye la mano del hombre . «Es un proceso completamente natural. La intervención humana no tiene por qué afectar, no tiene nada que ver con lo que sucede, por ejemplo, con el clima».

Después del terremoto de Haití, algunos científicos advirtieron de que catástrofes similares pueden repetirse en Turquía y en Sumatra en los próximos años, y pedían a los gobiernos de estos países que tomasen medidas urgentes de protección antes de que fuera demasiado tarde. Sin embargo, Luis Cabañas indica que es «imposible predecir el lugar y el momento. Al final, los terremotos vuelven a ocurrir donde siempre han ocurrido, son los límites de las placas tectónicas sometidas a esfuerzos y deformaciones que cuando se acumulan y no resisten más liberan energía bruscamente. Hay una posibilidad de conocer cómo están cargándose esas fallas, pero es imposible predecir a ciencia cierta cuándo va a ocurrir. Es probable que en Turquía tengamos un nuevo terremoto, pero igual pasan veinte años y no se ha producido». Eso sí, en Chile se producirán nuevas réplicas.

Ante los terremotos, lo único que le queda al ser humano es protegerse lo mejor posible. «Los países deben tener una normativa sismoresistente para que se construya con más seguridad, una normativa que debe estar basada en estudios sismológicos».

Fuente: abc.es, 8-10-10

 

 

-California tiembla por la amenaza del "Big One"

Un día más en Los Ángeles. A las 7.50 de la mañana, el sol ya hace prever una nueva jornada calurosa. Las autopistas comienzan a llenarse de automovilistas camino del trabajo y los helicópteros de las televisiones locales sobrevuelan el área más superpoblada de Estados Unidos informando de las incidencias del tráfico. Mientras, bajo la superficie, a 20 kilómetros de profundidad, la tierra comienza a moverse, silenciosa. Un segmento de 400 kilómetros de la falla de San Andrés, que se ha mantenido estable durante décadas, se desprende e inicia el camino hacia un nuevo equilibrio entre placas tectónicas. Tras seis minutos, los californianos comienzan a notar los primeros efectos. Lo que se inicia como un suave contoneo se convierte en un virulento temblor y sacude la ciudad durante 25 segundos. Tras el primer golpe, se suceden unos segundos de calma. Después una nueva sacudida, más violenta, de entre 30 y 40 segundos. En poco más de tres minutos, el área metropolitana de Los Ángeles ha vivido su pequeño apocalipsis: el temblor ha dejado un reguero de coches volcados, autopistas destrozadas y casas derrumbadas.

Este es el supuesto con el que los servicios de emergencias de la megaurbe californiana trabajan para preparar el Big One, un devastador seísmo que sacudirá el estado en los próximos 30 años con una probabilidad del 99,7% y que podría dejar entre 2.000 y 15.000 muertos, además de al menos 50.000 heridos y una huella de destrucción que costaría reparar unos 200.000 millones de dólares.

"Un terremoto de gran magnitud puede ser más mortífero y destructivo que un ataque terrorista con una bomba nuclear. Afecta a un área mayor y a mucha más a gente", explica con gesto de preocupación Michael Contreras, director del Departamento de Emergencias de Los Ángeles, mientras comenta el último informe sobre seísmos elaborado por Lisa Grant Ludwig, sismóloga de la Universidad de California en Irvine (UCI). Según Grant Ludwig, el Big One está mucho más cerca de lo que algunos pensaban. Su investigación demuestra que el territorio del sur de California sufre un gran terremoto entre cada 45 y 144 años y que, en esta ocasión, ya hemos salido de cuentas. El último seísmo devastador, de magnitud 7,8, sucedió hace 153 años.

"Las probabilidades de sufrir un gran terremoto ya eran altas pero, con los nuevos datos que hemos recopilado, se hace inminente", aseguró a Público Grant Ludwig en una conversación telefónica. Hasta que vio la luz su descubrimiento, basado en el análisis de los registros sísmicos recogidos en la zona durante los últimos 700 años, los geólogos consideraban que los temblores por encima de magnitud 7,5 ocurrían cada 250 años aproximadamente.

Sin embargo, Grant Ludwig y su equipo han acelerado la cuenta demostrando que el Estado sufrió grandes terremotos en los años 1417, 1462, 1565, 1614, 1713 y 1857.

A pesar de que California está más preparada que otras zonas del planeta, según los cálculos de los servicios de emergencias, un terremoto de estas características podría acabar con la vida de una de cada 1.000 personas. De ahí que la doctora Grant Ludwig reconozca que es fundamental estar preparados. "Mucha gente piensa que, como los terremotos no se pueden evitar ni prever, no hace falta estar listos, pero se equivocan", asegura la sismóloga, quien insinúa que el Big One no va a ser como el terremoto de Northridge, de 6,7, que acabó con la vida de 72 personas y dejó heridas a 8.700. "En esta ocasión la sacudida será mucho mayor, lo suficientemente grande como para romper el suelo", advierte.

 

Precisamente para minimizar los posibles daños en la población, el estado organiza cada año el Shake out, un enorme simulacro que bajo el lema agáchese, cúbrase y aguante pretende concienciar a los ciudadanos de la importancia de estar preparados ante un desastre inevitable. El ejercicio de este año está programado a las 10.21 de la mañana del próximo 21, y en él está previsto que participen más de siete millones de personas, casi el 20% de la población de California.

Durante el simulacro se instruirá a los participantes sobre cómo hacer frente a un gran terremoto antes de que suceda, porque con una simple planificación es posible minimizar los daños, sobre todo personales. David Oglesby, profesor en la Universidad de California en Riverside y experto en desastres naturales, asegura que para evitar lesiones graves dentro de casa es fundamental asegurar los muebles a la pared. "El mayor peligro de un terremoto en California no es que se colapsen las casas, sino que los objetos que hay en ellas nos golpeen en la cabeza", asegura Oglesby con cierta ironía. De hecho, los cortes con cristales rotos o los golpes con muebles son los responsables del mayor número de heridos en los seísmos de estas características

Además, durante el Shake out expertos como Oglesby mostrarán a los ciudadanos cómo lidiar con todas las eventualidades que pueden surgir tras un terremoto, como escapes de gas, incendios o la ausencia de electricidad y agua potable, que pueden llegar a prolongarse hasta durante seis meses. "Es totalmente imprescindible contar con víveres que nos permitan ser autosuficientes durante al menos tres días", reconoce el experto. "Contar con un kit de supervivencia o diseñar un plan de escape debería ser parte de nuestra cultura, como lavarse los dientes", añade.

Llamadas de atención

Sin embargo, los esfuerzos de la administración local son, de momento, baldíos, y los californianos sólo se preocupan cuando un temblor, como el vivido en Baja California el pasado abril, les recuerda lo que podría sucederles. "Son como pequeñas llamadas de atención", asegura Chad Allen, propietario de una tienda especializada en artículos de supervivencia. "Cada vez que hay un terremoto aumentan las ventas; es como si de repente la gente se acordase de que debe prepararse", explica.

Algo similar le sucede a La Tienda de los Terremotos, el establecimiento dedicado a los desastres naturales más grande de Los Ángeles. Desde su sede en Burbank, Blair Brady no ha parado de vender kits de supervivencia en todo el verano. "La gente se está empezando a preparar", asegura. Los servicios de emergencias de California aseguran que "lo sucedido este año en Chile y Haití no son más que avisos de lo que puede suceder en California".

Fuente: publico.es, 7-10-10

 

 

-Así robó el Sol a Marte su atmósfera

El Planeta Rojo está herido de muerte. Pero no es sangre lo que mana de sus heridas, sino su atmósfera, que se pierde irremediablemente, gota a gota, en la inmensidad del espacio. El culpable de este crimen es nuestro Sol, que utiliza su propia respiración, el viento solar, y sus radiaciones para robarle a Marte el aire. Por su culpa, ese mundo hermano de la Tierra, que una vez fue prometedor para la vida, podría estar condenado para siempre a una existencia fría y estéril.

La fisonomía de Marte no deja lugar a dudas. Antiguos lechos secos de lo que una vez fueron ríos caudalosos y la presencia de minerales que sólo se forman con el agua indican que el planeta tuvo, en algún momento, una atmósfera, y que su temperatura fue lo suficientemente cálida como para permitir la existencia de agua líquida sobre su hoy polvorienta y árida superficie. Sin embargo, algo hizo que lo que alguna vez fuera una densa y rica atmósfera se perdiera irremediablemente en el espacio.

Aparentemente, Marte lleva miles de millones de años siendo un planeta seco y frío, y con un envoltorio gaseoso tan tenue y delgado que cualquier resto de agua que pudiera haber el la superficie se evapora al instante al ritmo con que el Sol peina cada rincón de ese desdichado mundo con sus mortíferos rayos ultravioleta.

Unas condiciones que marcan, inevitablemente, el final del camino para cualquier forma de vida conocida. A pesar de todo, la esperanza es lo último que se pierde y entra dentro de lo posible que los últimos restos de la antigua vida marciana se oculten bajo la superficie, donde el agua aún puede existir en forma líquida y donde la letal radiación no puede llegar.

 

Azotes de viento solar

El principal sospechoso de este robo es el Sol, y el arma utilizada es el viento solar. Todos los planetas (sin excepción) de nuestro sistema son azotados regularmente por el viento solar, una auténtica e inagotable corriente de gases cargados eléctricamente que fluyen de forma contínua desde la superficie del Sol al espacio circundante.

Aquí, en la Tierra, un potente campo magnético sirve de escudo, protegiendo nuestra preciada atmósfera y haciendo que la mayor parte de los vientos solares se desvíen alrededor del planeta. Y es que las partículas cargadas con electricidade que componen los vientos solares, en su mayoría iones y electrones, tienen serias dificultades para cruzar los campos magnéticos.

"Marte no puede protegerse a sí mismo del viento solar porque ya no tiene escudo -afirma Bruce Jakosky, de la Universidad de Colorado -. El campo magnético del planeta está muerto". Jakosky es, además, el investigador principal de la misión MAVEN (Mars Atmosphere and Volatile Evolution Mission), que investigará hasta el mínimo detalle las causas de la desaparición de la atmósfera marciana.

Sin protección

Lo que sabemos por el momento es que el Planeta Rojo perdió su campo magnético durante su juventud, hace ya varios miles de millones de años. Y que una vez desaparecida esa protección, la atmósfera marciana quedó expuesta al viento solar que la ha ido barriendo, literalmente, hasta del último rincón del planeta.

Algunos "fósiles" del antiguo campo magnético aún sobreviven en las rocas más viejas y en zonas aisladas de la superficie marciana, aunque no proporcionan, ni mucho menos, la protección que lo que queda de atmósfera necesita.

Ahora bien, aunque el viento solar parece ser el arma principal usada para este robo, las emisiones solares pueden desvalijar la valiosa atmósfera de Marte de muchas otras formas. Por ejemplo, en combinación con la radiación ultravioleta, que tiene la propiedad de transformar los átomos de las capas superiores de la atmósfera en iones (partículas eléctricamente cargadas), que después son fácilmente barridas por los campos eléctricos del viento solar.

Y hay, además, otros sospechosos. Marte tiene sobre su polvorienta superficie más de veinte cráteres de impacto de cerca de 1.000 km de diámetro, cicatrices dejadas por asteroides del tamaño de pequeñas lunas. Este auténtico bombardeo podría haber expulsado grandes cantidades de atmósfera marciana al espacio exterior.

Una acción, sin embargo, que debería haber sido anulada en parte por la erupción de enormes volcanes (como el monte Olimpo) que habrían inyectado a la atmósfera herida una gran cantidad de gases procedentes del interior del planeta.

Otros culpables

Es incluso posible, opinan los científicos, que el secuestro del aire marciano tenga más de un culpable, y que a él haya contribuido tanto el viento solar como los impactos de grandes meteoritos. En esas condiciones y sin su campo magnético, cualquier cantidad de gases extra que pudieran haber aportado los volcanes habría sido igualmente barrida por el implacable viento solar.

Así, a medida que la atmósfera adelgazaba, el planeta se fue secando sin remedio, ya que todo el vapor de agua atmosférico también se fue perdiendo en el espacio en lugar de volver a regar, como sucede en la Tierra, la superficie del planeta. El agua que quedaba, se evaporó al desaparecer la atmósfera y bajar las temperaturas. Muy pronto, la misión MAVEN, que se lanzará entre el 18 de noviembre y el 7 de diciembre de 2013, podrá decirnos, midiendo la proporción de isótopos de hidrógeno, cuál fue aproximadamente la cantidad de agua que se perdió de esa forma, así como la cantidad de atmósfera que se ha ido perdiendo en el espacio desde el lejano día en que Marte perdió su campo magnético.

Entonces, y sólo entonces, sabremos a ciencia cierta si las sospechas de los investigadores son acertadas y si el principal sospechoso de este crimen planetario es, efectivamente, culpable de las acusaciones que pesan sobre él.

Fuente: abc.es, 6-10-10

 

-La fuga de una sustancia tóxica deja al menos tres muertos en Hungría

Al menos tres personas han muerto, siete han desaparecido y otras 60 están heridas a consecuencia de la rotura de un dique de "barro rojo" en Hungría, una sustancia química muy corrosiva y alcalina, según informó la prensa local.

La rotura de la instalación de una empresa de aluminio se produjo cerca de la localidad de Ajka, próxima al lago Balaton. Las autoridades han informado de que la sustancia supone un peligro para siete localidades cercanas, informaron los servicios de catástrofes (OKF), según recoge la agencia MTI. 

El Gobierno húngaro ha declarado el estado de emergencia en tres condados en el oeste del país (Veszprem, Gyor-Moson-Sopron y Vas).

Todas las víctimas son vecinos de los pueblos afectados por el siniestro.  Los fallecidos, dos hombres y una mujer, fueron arrastrados por parte del agua y el vertido químico de un millón de metros cúbicos de esa sustancia, según las autoridades. Los heridos sufrieron quemaduras de diferente grado al entrar en contacto con la substancia corrosiva, de los cuales diez se encuentran graves, según los servicios médicos.

El "barro rojo" es un residuo que se produce durante la producción de aluminio y tiene grandes cantidades de silicio, hierro y otros metales pesados.

Labores de rescate

Para evitar que la sustancia tóxica se extienda y cause mayores daños, los equipos de rescate han comenzado a arrojar desde helicópteros yeso sobre el "barro rojo", así como diferentes productos neutralizadores al río Marcal. Centenares de bomberos, miembros de los equipos de rescate y soldados han sido movilizados para tratar de contener la fuga química y ayudar a la población afectada. En Devecser las aguas infectadas por el "barro rojo" inundaron más de 400 inmuebles, de donde se evacuaron a sus habitantes. Complica la situación que el barro rojo haya llegado hasta el cercano arroyo de Torna, por lo que la contaminación podría afectar a otras localidades. En las cercanías de los pueblos afectados se prohibió el transporte, hasta que concluyan las operaciones de rescate.

Fuente: publico.es, 6-10-10

 

-Nobel de Física para dos científicos rusos por sus trabajos sobre el grafeno

Andre Geim y Konstantin Novoselov, científicos de la Universidad de Manchester (Reino Unido), han sido distinguidos este año con el Premio Nobel de Física "por sus experimentos fundamentales sobre el material bidimensional grafeno ", según ha anunciado hoy el Comité Nobel de la Academia de las Ciencias de Suecia.

Una lámina de carbono, de un átomo de grosor, está detrás del Nobel de Física de este año. Los dos galardonados, Geim (Rusia, 1958) y Novoselov (Rusia, 1974), han demostrado que el carbono en esa configuración plana tiene propiedades extraordinarias originadas en el mundo de la física cuántica. El grafeno es un nuevo material, extremadamente delgado y resistente que, como conductor de la electricidad, se comporta como el cobre, y como conductor de calor, supera a cualquier otro material conocido. Es casi completamente transparente y tan denso que ni siquiera el helio, el átomo de gas más pequeño, puede atravesarlo, explica la Fundación Nobel.

Andre Geim y Konstantin Novoselov- FUNDACIÓN NOBEL

 

 

Una red de grafeno casi perfecta, de un átomo de grosor formada por átomos de carbono en una configuración hexagonal- SCIENCEA

Geim, de nacionalidad holandesa, y Novoselov, británico-ruso, obtuvieron el grafeno a partir del grafito normal, el material de las minas de los lápices, y lograron una lámina de un grosor de solo un átomo. Muchos pensaban entonces que era imposible que un material así fuera estable. Sin embargo, a partir de los trabajos de estos dos científicos, los físicos pueden estudiar ahora una nueva clase de materiales bidimensionales con propiedades únicas.

El grafeno también tiene una amplia variedad de aplicaciones posibles, incluida la fabricación de nuevos materiales y de dispositivos electrónicos avanzados. Los transistores de grafeno pueden ser sustancialmente más rápidos que los actuales de silicio, con lo que se podrán fabricar ordenadores más eficaces. También, como es transparente y un buen conductor, se vislumbran aplicaciones en pantallas de dispositivos electrónicos e incluso paneles solares.

Geim, en una conferencia vía telefónica, ha declarado que no esperaba el premio y que intentará evitar que esta distinción cambie su rutina. "Mi plan para hoy es ir al trabajo y terminar un artículo que tengo pendiente", ha señalado. El Comité Nobel ha informado de que Novoselov, de 36 años, es el físico más joven premiado con un Nobel desde 1973, informa la agencia Reuters.

El Nobel de Física se entrega desde 1901 (excepto en años concretos: 1916, 1931, 1934, 1940, 1941 y 1942) y está dotado con 10 millones de coronas suecas (1,1 millones de euros). Ayer se dio a conocer el de Fisiología y Medicina, que fue para Robert Edwards por el desarrollo de la fertilización in vitro. Seguirán al de Física, el de Química (mañana), Literatura (jueves), de la Paz (viernes) y cerrará la ronda de estos galardones el de Economía, que se fallará el lunes próximo.

También Geig  logró ganar el IG Nobel

Geim y Novoselov (el segundo fue alumno de doctorado con el primero) deben disfrutar con sus experimentos. Los realizados para obtener el grafeno sorprenden por su sencillez conceptual (ir separando capas de grafito hasta lograr una sola aislada, que es el nuevo material). Pero ya antes habían hecho experimentos peculiares. En 1997, Geim logró hacer levitar una rana en un campo magnético, "una forma ingeniosa de ilustrar los principios de la física", dice la Fundación Nobel. Por aquellos experimentos con la rana, recibieron en 2000 el IgNobel de Física, uno de los galardones que se consideran Nobel alternativos y que se dan desde hace 20 años para aquellos trabajos "que primero hacen reir y después pensar". "Creo que soy el primero que ha obtenido ambos Nobel y estoy muy orgulloso de los dos premios", ha comentado hoy Geim.

Fuente: elpais.com, 5-10-10

-Los océanos pueden esconder 750000 especies marinas

Epimeria georgiana

 

Los océanos podrían albergar 750.000 especies sin identificar, unas 250.000 más de lo estimado en un principio, según el primer censo de Vida Marina hecho público tras diez años de trabajo. Otra década más de investigaciones, asegura la comunidad científica, podría arrojar una cifra total del número de especies marinas existente. De momento, la base de datos contiene alrededor de 120.000: 6.000 podrían ser «nuevas»; 1.200 de ellas ya han sido descritas de manera formal.

A pesar de la gran diversidad constatada, la actividad humana es «devastadora». Ese es el mensaje que quieren transmitir los más de 2.700 profesionales que han participado en el proyecto. Las 540 expediciones realizadas en los océanos de todo el mundo han evidenciado cómo la sobrepesca, la pérdida de hábitats y la contaminación han empobrecido la mayoría de los stocks que antes proporcionaban comida y empleo al hombre. Nueve mil días de travesía han reafirmado la importancia de los océanos: la vida marina suministra la mitad del oxígeno de la Tierra y regula el clima, entre otras funciones.

El lecho marino no es tan solitario

Entre las nuevas especies encontradas destaca el Dinochelus ausubeli, un cangrejo ciego con una larga pinza, localizado a 300 metros de profundidad en el Pacífico y las arañas gigantes -como un plato de grandes- descubiertas en el Antártico.

El fondo marino, considerado hasta ahora un desierto debido a sus condiciones de temperatura -frío-, luminosidad -oscuridad total- y presión -enorme a profundidades de casi 2 kilómetros-, ha deparado muchas sopresas a los científicos. Grandes comunidades de diferentes especies pululan por él filtrando los nutrientes, desplazándose gracias a los vientos termales y refugiándose en las montañas.

Un gusano con tentáculos -Mar de Célebes (sudeste asiático)- u otro cangrejo apodado «El Yeti» -Isla de Pascua- son otros dos de los hallazgos. Con respecto a este último, los investigadores han matizado que se han observado diferentes miembros de la misma familia en Costa Rica.

El ADN confirmará si estamos ante especies originales o ya conocidas, sólo que con forma, color y tamaño diferentes.

Fuente: abc.es, 4-10-10

 

-La mosca de la fruta se expandió por el mundo desde África

Una nueva investigación realizada en la Universidad de Medicina Veterinaria de Viena (Austria) muestra que, aunque la colonización septentrional de la mosca de la fruta responde a un aumento de la actividad agrícola y los cambios medioambientales asociados a la misma, en realidad fueron factores genéticos y no en el entorno los que propiciaron la colonización europea y asiática de la mosca.

Si alguien hubiera intentado buscar una mosca de la fruta en Europa o Asia hace más de 10.000 años habría perdido el tiempo, pues hasta entonces esta especie sólo se encontraba en el África subsahariana. Sin embargo, hoy en día la mosca de la fruta es común en todos los continentes.

El estudio, publicado en Public Library of Science (PLoS) Genetics, explica las condiciones a las que se enfrentaron estos insectos en su viaje desde el África subsahariana, muy distintas a las de su hábitat inicial, sobre todo en lo referente a las bajas temperaturas.  Miles de años de evolución han generado marcadas diferencias entre las poblaciones africanas y europeas de mosca de la fruta debido a la adaptación a sus nuevos entornos. Las diferencias principales se hallan en características relacionadas con la temperatura, como la pigmentación, el tamaño y la resistencia al frío.

En un estudio anterior llevado a cabo por uno de los autores del trabajo, Christian Schlötterer, se sugería que una única proteína denominada cramped (crm) podría haber influido en la adaptación y supervivencia de la mosca de la fruta a los climas más fríos que ahora habita. No obstante, no existían datos que respaldaran esta hipótesis.  Sobre esta base, el equipo investigó qué genes podrían regular la proteína crm, en sí misma un factor de transcripción. Se centraron en genes que se sabían importantes en el desarrollo de las alas como el cubitus interruptus (ci), cuya regulación depende de la temperatura. Los resultados demostraron que la proteína crm es necesaria para activar el gen ci.

 


En este sentido, los científicos coincidieron en que si la proteína crm es importante en la respuesta a la temperatura, también se podrían hallar variantes (o alelos) de la proteína crm en Europa que funcionaran de forma distinta a como lo hacen las variantes de las moscas residentes en el África subsahariana. Para sacar a la luz estas posibles diferencias en la composición genómica, silenciaron los efectos de otras zonas del genoma de la mosca. En presencia de distintas variantes de crm examinaron la forma en la que los cambios de temperatura afectaban a la expresión del gen ci así como otras características como la pigmentación abdominal en hembras y peines sexuales en machos, rasgos influidos por la temperatura.

Los resultados mostraron que la conjetura del equipo era correcta: distintas variantes de crm estaban relacionadas con diferencias significativas en los efectos de la temperatura sobre estas características.

Al descubrir que la proteína crm limita varios procesos individuales a distintas temperaturas, los cambios en crm podrían haber contrarrestado los efectos del cambio de temperatura en la mosca. Christian Schlötterer explicó las implicaciones de estos descubrimientos para el conocimiento que se posee sobre la evolución: «Normalmente imaginamos la evolución como la adquisición de nuevas funciones. Pero la adaptación de la mosca a entornos más fríos parece acompañada de cambios en un regulador principal para garantizar que las funciones existentes con anterioridad se mantengan a pesar del cambio de circunstancias.»

Fuente: CORDIS, 3-10-11


 

-Nuevo telescopio de rayos X para estudiar agujeros negros

En el IXO, que se convertirá en el mayor telescopio de rayos X que se haya construido, colaboran la Agencia Espacial Europea (ESA), la Administración Nacional de la Aeronáutica y del Espacio de los Estados Unidos (NASA) y la Agencia Japonesa de Exploración Aeroespacial (JAXA). La misión programada para el IXO es la investigación de los agujeros negros supermasivos, un tipo de agujero negro que se cree que se desarrolló a principio del Universo, posiblemente con anterioridad a las primeras estrellas. La información nueva que se obtenga sobre estos fenómenos permitirá a la comunidad astronómica obtener conocimientos valiosos sobre el pasado de nuestro planeta. IXO también estudiará al detalle estrellas de neutrones y agujeros negros estelares, que están formados por supernovas de estrellas con una masa considerablemente grande.

  La cartografía de los agujeros negros a estudiar procederá del experimento eROSITA («Extended Roentgen survey with an imaging telescope array»), una cooperación entre Alemania y Rusia encabezada por el Instituto Max Planck de Física Extraterrestre que se lanzará al espacio en el plazo de tres años. eROSITA explorará el cielo con la ayuda de un grupo de siete telescopios de rayos X y se espera que descubra, entre otros objetos, cerca de tres millones de agujeros negros.

IXO partirá de esta base crucial para realizar una investigación sistemática que implicará la captura de radiación X procedente de agujeros negros muy lejanos. Para ello precisa de un espejo gigantesco. En previsión de la naturaleza de la radiación X esperada, este espejo contará con varios componentes individuales dispuestos para reflejar los rayos de forma lateral en un ángulo extremadamente pequeño en lugar de la más tradicional orientación perpendicular.

El Instituto Nacional de Metrología de Alemania, el Physikalisch-Technische Bundesanstalt (PTB), proporciona servicios científicos y técnicos y actualmente comprueba las características clave de estos componentes. El 27 de septiembre de 2010 el PTB anunció su intervención en esta iniciativa y describió las características concretas del espejo diseñado: «IXO tendrá un solo espejo con una superficie de captación de cerca de tres metros cuadrados, una longitud focal de veinte metros y una resolución angular de menos de cinco segundos de arco. Debido a la incidencia rasante de la radiación requerida, la superficie total del espejo debe ser de alrededor de 1.300 metros cuadrados».


Este espejo se construirá con obleas de silicio disponibles en el mercado con un acabado extremadamente fino y diseñadas con unas nervaduras que permitirán apilarlas en bloques rígidos. «Gracias a este diseño», indicaron responsables del PTB, «se forman poros con una sección transversal de cerca de un milímetro cuadrado en los que la radiación se refleja sobre la superficie de la oblea situada inmediatamente por debajo».

El instituto, que está analizando la superficie reflectante de cada uno de los poros, añade que «en relación a la rugosidad y los errores tangentes, la calidad de estas superficies "ocultas" no podrá investigarse desde arriba como hasta ahora, sino que deberá determinarse en función de la geometría que se aplicará durante su funcionamiento, con una reflexión de rayos X rasantes a ángulos de aproximadamente un grado».

Para esta labor se utilizará un haz de lápiz monocromático de cincuenta micrómetros de diámetro y una divergencia de menos de un segundo de arco. La infraestructura necesaria ya está disponible en la recién ampliada XPBF, perteneciente al laboratorio de radiación sincotrónica del Instituto en BESSY II en Berlín-Adlersdorf (Alemania).

«Caracterizará los sistemas de la lente de rayos X de IXO en tres energías de fotón distintas: a 1 kiloelectronvoltio, a 2,8 kiloelectronvoltios y a 7,6 kiloelectronvoltios», anunció el PTB. «Los sistemas de la lente pueden ajustarse o girarse con un hexápodo en el vacío con reproductibilidades de dos micrómetros y menos de un minuto respectivamente. El haz directo y el haz reflejado se registran con un medidor de resolución espacial basado en un dispositivo de cargas acopladas (CCD) a una distancia de 5 ó 20 metros del sistema de la lente. Para la última distancia mencionada, que se corresponde con la longitud focal de IXO que se pretende obtener, se ha dotado al detector CCD de una libertad de movimiento vertical de más de 2 metros.» La ronda inicial de pruebas se realizó en mayo de 2010 y las próximas se llevarán a cabo en noviembre de 2010.
 

Fuente: CORDIS, 3-10-10

 

 

-Pseudociencia en el campus

La Sociedad Española de Astrología organizó ayer un curso en el que se discutió la influencia de los astros en las relaciones de pareja, las implicaciones filosóficas y médicas de los 12 números-arquetipos zodiacales y se anunció el nacimiento de una nueva sociedad y un nuevo sistema para 2020. La jornada tuvo lugar en la Universidad de Alicante, a pesar de las protestas de la Sociedad Española de Astronomía y de los astrónomos y astrofísicos de la misma universidad, que lamentaron que se diese cobijo a esta "superchería destinada a explotar la ingenuidad de los incautos". El 15 de mayo de este año, en la Universidad de Lleida, la misma sociedad organizó unas charlas sobre autoconocimiento a través de la astrología, en las que se llegó a reivindicar una titulación propia para esta profesión. Y no se trata de hechos aislados ni anómalos.

El papel de la conciencia en la curación. Homeopatía. Acupuntura. Astrología. Grafología. Numerología. Feng-Shui. Reiki. Aunque podrían ser materias anunciadas en tablones de anuncios de establecimientos esotéricos, o entre las páginas de revistas dedicadas al mundo de lo paranormal, en realidad son temas que se han promovido y se promueven en las universidades españolas, ya sea en cursos de verano, posgrado o máster, o bien cediendo sus instalaciones para la realización de conferencias y otras actividades.

Poco a poco, este tipo de supercherías ha ido haciéndose un hueco dentro del mundo académico, consiguiendo, de esta manera, cubrirse con un manto de credibilidad otorgado por unas universidades, tanto públicas como privadas, que dan pábulo a un amplio abanico de pseudociencias.

La lista de la vergüenza'

El blog La lista de la vergüenza lleva denunciando estas prácticas desde mayo de 2010, después de que la Universidad de Valencia presentara un máster en medicina naturista, acupuntura y homeopatía . La iniciativa partió de Fernando Frías, abogado y socio de Círculo Escéptico y de ARP-Sociedad para el Avance del Pensamiento Crítico, quien tuvo la idea de lanzar esta página, donde se recopilan los cursos que promocionan la pseudociencia, para "exponer públicamente esa actitud de muchas universidades, y hacerlo, además, de una manera centralizada para conseguir la máxima repercusión". El motivo es "el auge de cursos y titulaciones de este tipo", añade Frías.

A día de hoy, esta lista aglutina una treintena de cursos diferentes en universidades de toda España. Aunque en un principio era Frías el que iba añadiendo entradas en solitario, ahora cuenta con la colaboración de los propios alumnos de las universidades, que le envían información sobre nuevos cursos.

Un breve vistazo sirve para comprobar que las estrellas de este espectáculo son los cursos de máster sobre homeopatía, acupuntura o, en general, las mal llamadas "medicinas alternativas". Ahí están, por ejemplo, los cursos en Medicina Homeopática y Acupuntura (ya por su octava promoción) de la Universidad de Barcelona, o el de Medicina Biológico-Naturista otorgado por la Universidad de León, que va más allá e incluye en el temario las llamadas "flores de Bach" y otros tratamientos cuya eficacia no ha sido probada.

Sin comprobar

Todo ello ocurre a pesar de que estas disciplinas han fallado en demostrar sus supuestos efectos beneficiosos estudio tras estudio, en los que se prueba, si están correctamente realizados, que la mejora atribuida a estas terapias por parte de los pacientes viene producida por el efecto placebo. Como dice Frías, la profusión de este tipo de cursos es lógica porque "se trata de campos en los que la subjetividad juega un gran papel. Una ingeniería alternativa", prosigue, "sería bastante difícil: o haces los cálculos para un puente conforme a los conocimientos científicos reales o el puente acabará cayéndose".

Más difíciles de detectar son aquellas carreras que incluyen horas lectivas sobre alguno de estos asuntos dentro de sus temarios, pero no dedican cursos o asignaturas completas. No obstante, algunas han conseguido entrar en la lista, como la asignatura "Tecnología farmacéutica especial", troncal en la licenciatura en Farmacia de la Universidad de Granada, que cuenta con tres horas teóricas de formación en homeopatía.

"Resulta bastante perturbador pensar que ese tipo de asignaturas forman parte de carreras con base científica", comenta Frías. "El hecho de que el profesorado y el alumnado no aprecien esa incompatibilidad hace temer por la calidad de la formación científica que se imparte en esas carreras", añade.

Las universidades utilizan diferentes argumentos para defender la inclusión de estos cursos dentro de sus programas. Fernando Fernández Lanza, gestor cultural del Vicerrectorado de Extensión Universitario de la Universidad de Alcalá de Henares, justifica la presencia en su oferta docente de dos cursos de verano, Acupuntura y Homeopatía (que no llegó a impartirse por falta de alumnos) y Grafología para selección de personal, en que este tipo de actividades son "cursos de acercamiento entre profesores y alumnos". "Pueden montarse cursos sobre el infierno, ¿por qué no?", añade. La convocatoria de estos cursos es pública y son los directores de los mismos los que presentan un temario, organizan los horarios y se encargan de las tareas administrativas. "Los contenidos los aprueba una comisión en el vicerrectorado. En este caso no pareció conveniente echarlos atrás", añade.

El argumento de que se trata de cursos de extensión universitaria es compartido por la directora del curso Grafología para selección de personal, Laura Rayón, quien también incide en que apoyó el curso porque le pareció que "el conocimiento de que en un test de selección de personal pueden encontrarse con esta prueba es útil para alumnos universitarios a cualquier nivel". Carlos Santamaría, profesor de Psicología Cognitiva de la Universidad de La Laguna, aclara que, si nos atenemos al conocimiento científico existente sobre la materia, la grafología tiene "la misma fiabilidad que a la astrología, es decir, cero".

El discurso de la posible utilidad de la materia impartida como herramienta profesional de los alumnos, independientemente de su validez, también sirve para excusar el máster en Acupuntura que la Universidad de Lleida comenzará a impartir en octubre. La directora del Instituto de Ciencias de la Educación de la Universidad de Lleida, Conxita Vendrell, afirma que "en este momento ya nadie duda de la eficacia de la acupuntura", aunque posteriormente matiza que "es un debate que no está cerrado".

Vendrell defiende la oferta de este curso porque "la acupuntura existe como profesión; no es una profesión científica pero podría llegar a serlo". También añade que hay que ser respetuoso "con quien está aliviando el dolor de los pacientes". Isabel Giralt, directora del curso, sentencia que "a la larga, estaría bien que la acupuntura fuese una especialidad".

Fernando Frías asegura que cada vez hay más cursos pseudocientíficos en la universidad. Según explica, ha influido la aparición de un número cada vez mayor de títulos propios de las universidades, lo que "ha permitido que aparezcan titulaciones específicas que antes no existían. También la popularización de los cursos de verano, que permite que muchas universidades impartan cursillos o talleres de introducción a materias tan palmariamente anticientíficas como la astrología", añade el experto. Y, en última instancia, la supuesta utilidad profesional: "Muchas de esas materias están de moda, así que algunas universidades, que en lugar de atender a los principios de una correcta formación científica prefieren hacer caso del juego de la oferta y la demanda, las incluyen en sus titulaciones o como asignaturas de sus carreras oficiales".

Fuente: publico.es, 2-10-10

 

-La muerte de un planeta

WASP-12b, un exoplaneta que orbita la estrella WASP-12, situada a unos 867 años luz de la Tierra, está siendo destruido por ella. Este gigante gaseoso, que posee una masa mayor a la de Júpiter, gira tan rápido alrededor de su sol que su año dura solo 26 horas. Esto se debe a que está muy cerca de la estrella, y esto lo está aniquilando. En efecto, la gravedad y el calor lo deforman tanto que parece un balón de rugby, y pierde unos 189 millones de millones de toneladas de su recalentada atmósfera cada año. ¿Cuánto tiempo resistirá el planeta antes de ser destruido?

 

Hemos sido afortunados. A pesar de lo breve -a escala cósmica- de nuestra existencia como raza, hemos encontrado un sistema estelar en el que un gigantesco planeta similar a Júpiter está siendo destruido por su estrella. El planeta en cuestión es WASP-12b, uno de los mas enigmáticos de los casi 400 que los astrónomos han descubierto fuera de nuestro sistema solar. El descubrimiento, tal como explican los autores del mismo en la revista Nature, explicaría la extraña forma que posee este globo de gas en su parte superior. El hallazgo posee un gran valor científico, ya que permitirá a los especialistas supervisar el proceso de la muerte del planeta.

El estudio fue dirigido por Shu-Li, del National Astronomical Observatories de China, y contó con la colaboración de investigadores de los Estados Unidos. Descubierto en 2008, WASP-12b es el planeta más caliente que se conoce. Su superficie tiene una temperatura cercana a los 2500 ° C. Una de las razones de que el planeta sea un infierno es que describe su órbita a una distancia muy pequeña -menos del 2% de la que separa la Tierra del Sol- alrededor de la estrella WASP-12. El planeta tiene un 50% más masa y un tamaño un 80% mayor que nuestro Júpiter, y según Shu-Li, “las fuerzas de marea causadas por la atracción de la estrella son la causa del enorme tamaño del planeta.” En efecto, así como en la Tierra la interacción entre nuestro planeta y la luna causa las mareas que alteran el nivel del mar, en WASP-12b la proximidad entre el planeta y la estrella originan enormes fuerzas que distorsionan su forma y le proporcionan una forma similar a un balón de rugby. Esta deformación genera fricciones en su interior, las fricciones generan calor y este, finalmente, produce la expansión del planeta. Tanto se ha dilatado, dice Shu-Li, que “ya no es capaz de contener su propia masa en contra de la atracción estrella.”

Cada segundo que pasa, WASP-12b pierde seis millones de toneladas de su masa. Si el proceso continua a este ritmo, toda la masa del planeta habrá desaparecido en unos diez millones de años. Casi todo el material que se desprende del planeta acaba en la estrella rápidamente, pero una pequeña parte de la masa va creando un disco que se precipita hacia WASP-12 describiendo una lenta trayectoria en espiral. Si bien 10 millones de años puede parecer mucho tiempo, cuando pensamos que la Tierra se formó hace unos 4550 millones, nos damos cuenta que este exoplaneta está en los últimos instantes de su existencia. Y nosotros -la raza humana- estamos aquí para verlo.

Fuente: abc.es, 2-10-10

 

 

-Los dinosaurios que surgían de la tierra

Cuando la criatura ya estaba a punto, rompía el huevo y, a ciegas, se abría paso bajo la tierra, con sus patas recién formadas, hasta salir a la superficie. Junto a ella, si había suerte, se empeñaban por llegar a la luz una veintena de hermanos y, posiblemente muy cerca, otras camadas hacían lo mismo. Escenas como ésta se repetían con asiduidad hace 70 millones de años en Coll de Nargó, en pleno corazón del Pirineo leridano, donde se encuentra el mayor nido con huevos de dinosaurio de toda Europa. Científicos del Instituto Catalán de Paleontología (ICP) han descubierto datos inéditos del comportamiento reproductivo de estos animales saurópados, sorprendentemente similar al de las tortugas actuales. Los «pollitos» de dinosauro, ya de unos veinte centímetros, rompían sus huevos y excavaban con toda la fuerza y el empuje de la vida, igual que lo hacen ahora las fragilísimas crías de tortuga. Rápidamente, se convertían en jóvenes adultos que podían llegar a alcanzar los quince metros de cabeza a cola y seis desde los pies hasta la cadera. La investigación aparece publicada en la revista científica PLOs ONE.

Puesta de huevos

Hasta ahora, se creía que las hembras de dinosaurio saurópodo, un gigantesco animal herbívoro del Cretácico, ocultaban sus huevos entre la hierba de la marisma, pero no era así como sucedía. En realidad, los enterraban en una zona cercana a los ríos para que se incubaran con el calor, y la eclosión se producía dentro del sustrato. Por los huevos encontrados, esta práctica era muy común y se repetía en el tiempo, incluso se han encontrado restos de un comportamiento similar en lugares remotos del mundo, como Argentina. La zona catalana estaba entones cerca de la costa, y «el clima húmedo y cálido y la abundante vegetación la convertían en un lugar idóneo para anidar», explica a ABC Ángel Galobart, jefe del grupo de investigación del Mesozoico del ICP.

En el yacimiento de Coll de Nargó se han encontrado nueve puntos de anidación, con una media de entre diez y quince huevos cada uno, aunque uno de los nidos tiene 20 huevos y otro, el más grande, nada menos que 28. En total, 140 huevos de saurópodo de hasta 20 centímetros de diámetro que han sido analizados con sumo cuidado por los investigadores durante cinco años.

En busca de embriones

Extraer los huevos para su análisis no fue fácil y los científicos tuvieron que utilizar un cemento expansivo. Después, una tomografía computerizada (TAC) permitió ver su interior. «Es muy difícil saber cuánto tiempo pasaba el dinosaurio dentro del huevo, pero sí sabemos que cuando nacían se desarrollaban muy rápido», apunta Galobart. También es un misterio cuál era el éxito de los nacimientos, aunque sí se sabe por algunos huevos hallados intactos que no todos eran fértiles.

Hasta ahora, todos los huevos se han encontrado vacíos, pero los investigadores tienen la esperanza de descubrir algún día un embrión en los que aún no han sido analizados. «Sería algo extraordinario, porque hay muy pocos en el mundo», explica Galobart. Como no existe un escáner en el mundo en el que se pueda analizar un nido de 28 huevos en una sola pieza -mide dos metros por uno-, los cietíficos trabajan en el desarrollo de un macroescáner de estas medidas para analizar los fósiles.

Fuente: abc.es, 1-10-11