Inicio

 

Ya puedes DESCARGAR todos nuestros PROGRAMAS DE RADIO "EL ALEPH" en la Sección NOSOTROS-PROGRAMACIÓN--

 

NOTICIAS CIENTÍFICAS


MAYO 2010

TITULARES DE LAS NOTICIAS DEL MES

 

Por qué la acupuntura reduce el dolor

Un objeto desconocido, descubierto alrededor del sol

El homínido más antiguo recibe críticas

El primer humano infectado por un virus informático

Resuelto el enigma del "Gran Cañón" marciano que inquietaba a los astrónomos

El transbordador "Atlantis"  finaliza su última misión

Un estudio aclara el origen de una extraña "franja" espacial

La NASA da por finalizada la misión "Phoenix" en Marte

Vertido en el Golfo de México: ¿la historia interminable?

Los genes reescribirán la historia de Estados Unidos

Hallado el primero coral de aguas frías

La "medusa" que descontamina los ríos

Japón se acerca a Venus con una sonda que estudiará su clima

La ciencia consigue "vida" artificial

La extraña supernova que se metió en nuestros huesos

El mayor experimento científico de la historia probará la teoria de Einstein

Los rayos globulares, un misterio científico sin resolver

"No nos iremos a Venus de vacaciones, de momento"

Una extinción masiva de peces primitivos propició el origen de los vertebrados modernos

El cambio climático podría provocar la extinción del 20% de las especies de lagartos y lagartijas en el 2080

La llave de la enzima de la inmortalidad

Más de 2000 especies de flora insulares están al borde de la extinción

La NASA sigue adelante con programas cancelados

El Atlantis parte en su última misión a la Estación Espacial Internacional

¿Y si el Big Bang no fue el comienzo de todo?

El impacto de un cometa o asteroide sobre Júpiter levantó una nube del tamaño de Marte

Crean un "lego biológico" para construir órganos artificiales

Cuatro estudiantes lanzan una base de datos para salvaguardar la naturaleza

Una luz invisible revela el conjunto de galaxias más lejano del universo

Neandertales y sapiens, aún más separados

Hacer horas extras en el trabajo es perjudicial para el corazón

La capa de ozono en la Antártida se recuperará hacia el 2080

Los astrónomos pronto encontrarán lunas fuera del sistema solar y "habitables"

Frenazo a los biocarburantes

El ritmo de extinción de las especies se multiplica por mil

Científicos avanzan hacia la conquista de la cima cuántica

Físicos desconfían de la aparición de una partícula de materia oscura

Más cerca del corazón artificial

¿Humanos contra robots en 2015?

Herschel capta una "estrella" imposible que desafía a la ciencia

Francisco J. Ayala, dice que "religión y ciencia son dos ventanas para mirar al mundo"

El final de los transbordadores se aplaza por un experimento

La auténtica máquina del tiempo

Europa quiere acortar distancias con Estados Unidos en política espacial

Cuando la voluntad supera al ADN

El presidente de Estados Unidos alertó hoy de un potencial desastre sin precedentes en el Golfo

 

Archivo


-Por qué la acupuntura reduce el dolor

A pesar de su larga historia en Oriente y de su creciente aceptación en Occidente, aún quedan cuestiones por resolver acerca del funcionamiento de la acupuntura, como los mecanismos por los que causa analgesia. Un trabajo publicado en 'Nature Neuroscience' revela las bases fisiológicas de sus efectos a nivel local.

Varias investigaciones han demostrado que la aplicación de agujas activa de forma duradera los tractos sensitivos ascendentes y, en consecuencia, se liberan endorfinas (péptidos opioides) en el sistema nervioso central. Muchas personas encuentran un alivio para su dolor con esta técnica, que se practica en sesiones de 30 minutos en las que las agujas se giran o estimulan con calor o electricidad cada cinco minutos.

"No obstante, este elemento central no puede explicar por sí solo por qué la acupuntura se aplica convencionalmente muy cerca del foco del dolor y por qué sus efectos analgésicos están restringidos al lado ipsilateral", señalan los autores, procedentes del Centro de Medicina Traslacional de la Universidad de Rochester (Nueva York, Estados Unidos).

 

Sesión acupuntura

Si fuera así, si la liberación de endorfinas en el cerebro fuera lo único que mediara el efecto analgésico de la acupuntura, entonces bastaría con clavar las agujas en cualquier punto y no en los que están próximos a la zona a tratar. Por eso, este grupo de investigadores centró su atención en los fenómenos que tenían lugar en las proximidades del lugar de inserción de las agujas.

La importancia de la adenosina

Centraron su atención en la adenosina, un derivado del ATP –la molécula que confiere energía a las células- que interviene en procesos como la regulación del sueño o de la función cardiaca y que tiene propiedades antiinflamatorias y analgésicas. Este nucleósido se libera en la piel después de sufrir una herida e inhibe los impulsos nerviosos aliviando el dolor.

Varios ratones con molestias en una de sus patas sirvieron como sujetos de estudio. Los autores les sometieron a acupuntura en un punto concreto de la rodilla en sesiones estándar y monitorizaron los niveles de adenosina en la zona. Pudieron comprobar, en primer lugar, que el dolor disminuía en dos tercios gracias a las agujas.

Durante el tratamiento, los niveles de adenosina cerca del punto de inserción crecían hasta ser 24 superiores al basal. Curiosamente, en un grupo de roedores alterados genéticamente para ser insensibles a esta molécula, la acupuntura no tuvo efecto alguno, reforzando la idea de que su papel es crucial para aliviar el dolor.

"Este cuidadoso estudio identifica la adenosina como parte de ese proceso. Es una interesante contribución a nuestro creciente entendimiento de una compleja intervención como la acupuntura", ha señalado Josephine Briggs, directora del Centro Nacional de Medicina Complementaria y Alternativa de Estados Unidos, que financió el proyecto.

Fuente: elmundo.es, 31-5-10

 

 

 

-Un objeto desconocido, descubierto alrededor del sol

 

Un objeto desconocido, seguramente de fabricación humana, ha sido descubierto en una órbita alrededor del Sol. Bautizado como 2010 KQ, el artilugio ha sorprendido a los astrónomos. Primero fue confundido con un asteroide, pero su inclinación, su color y su escaso brillo indican sin duda que, en vez de una roca, se trata de un artefacto artificial, obviamente -a no ser que nos llevemos la mayor sorpresa de nuestras vidas, quién sabe-, elaborado en este planeta. Los científicos no son capaces de relacionarlo con ningún lanzamiento concreto, aunque algunos sospechan que puede tratarse de una parte de un cohete Protón ruso lanzado en octubre de 1974 para analizar la Luna.

 

El objeto 2010 KQ, en órbita alrededor del Sol / Faulkes Telescope North

El objeto fue descubierto el pasado día 16 de mayo por el telescopio Catalina Sky Survey. Orbita el Sol una vez cada 1,04 años y pasó a menos de 1,28 distancias lunares de la Tierra el pasado día 21.Al principio, los expertos creían que era un asteroide más, pero el astrónomo Richard Miles, del telescopio Faulkes North, se dio cuenta de que ese extraño «ovni» tenía la huella de la mano del hombre. Los motivos son su particular color y su escaso brillo, y su órbita circular y de muy baja inclinación. Los espectros en ultravioleta demostraron también la existencia de dióxido de titanio, utilizado en la fabricación de pintura blanca.
Faulkner cree que el artilugio es la «cuarta etapa» de un cohete Protón ruso lanzada el 28 de octubre de 1974 por la sonda Luna 23. Esta nave tenía como misión recoger muestras lunares para su posterior estudio, pero el alunizaje fue muy violento y parte del equipo quedó dañado. La pieza que ahora se ha convertido en un asteroide artificial puede ser un bloque equipado con un motor 11D-58S que medía casi seis metros de longitud.

Desintegración
El objeto se aleja de la vecindad de la Tierra, pero volverá en 2036. «En la actualidad, existe una probabilidad del 6 por ciento de que 2010 KQ entre en nuestra atmósfera en un período de 30 años a partir de 2036», han explicado desde el Jet Propulsion Laboratory (JPL) de la NASA. «Es muy probable que las observaciones adicionales del objeto permitan perfeccionar su órbita y las posibilidades de impacto. Aun en el improbable caso de que este objeto esté dirigido para el impacto con la Tierra, es tan pequeño que se desintegraría en la atmósfera y no causaría daños en el suelo».
La NASA detecta, rastrea y caracteriza a los asteroides y cometas que pasan cerca de la Tierra utilizando telescopios terrestres y espaciales. La llamada «Spaceguard» descubre estos objetos, que caracteriza según sus órbitas para determinar si alguno podría ser potencialmente peligroso para nuestro planeta.

 

Fuente: abc.es, 29-5-10

 

 

 

-El homínido más antiguo recibe críticas

 

¿Era Ardi, el homínido más antiguo encontrado hasta ahora, verdaderamente un antepasado del ser humano, y vivía en un bosque o más bien en una sabana? Algunos aspectos de lo que fue considerada la noticia científica más importante del año 2009 son objeto de cierto debate en la comunidad científica, que se refleja en un intercambio de argumentos entre los descubridores y estudiosos del Ardipithecus ramidus, hallado en Etiopía, y sus críticos.

 

 

Por un lado, el especialista en homínidos extinguidos Esteban E. Sarmiento, de la Fundación Human Evolution de EE UU, cree que no existen pruebas suficientes de que Ar. ramidus fuera un homínido, es decir, que perteneciera al linaje humano tras la separación del linaje del chimpancé, y se inclina por que era anterior a esta divergencia.

La presentación en sociedad, largamente esperada, del Ar. ramidus, un fósil de hace 4,4 millones de años, se hizo a través de una decena de artículos publicados, bajo la dirección del paleontólogo estadounidense Tim White , el 2 de octubre de 2009 en la revista Science, la misma que acoge ahora el debate. Según Sarmiento, la identificación de un homínido sobre la base de las características de los dientes caninos y premolares induce a equivocación y otras supuestas pruebas, como la de que podía andar erguido basándose en la morfología del pie, no son convincentes.

White y algunos de sus colegas argumentan que son múltiples los parecidos dentales, craneales y esqueléticos entre el Ar. ramidus y otros homínidos, especialmente con el australopiteco posterior y que no sería lógico que estas características se hubieran desarrollado antes de la separación con el chimpancé y luego hubieran vuelto a surgir. El paleontólogo español Juan Luis Arsuaga, que tiene una buena relación con White, señala que cree que sí es un homínido, pero que quedan aspectos por aclarar en lo que se publicó, como lo relativo a la monogamia y la postura bípeda.

Esta última característica, tan importante, tiene que ver también con la segunda crítica, que se refiere al ambiente en que vivió la criatura en lo que hoy es el desierto de Etiopía. Un gran experto, Thure Cerling , de la Universidad de Utah, y científicos de otras universidades argumentan que se trataba de una sabana y no del bosque mucho más cerrado que White y sus colegas presentan. Para ello esgrimen complejas interpretaciones de paleoisótopos, la técnica preferida actualmente para recrear el ambiente pretérito. White y sus colegas las refutan, con argumentos igualmente complejos.

Hipótesis de la sabana

Nuria García, la única científica española que participó en este trabajo, señala: "Los dos se refieren en realidad a la hipótesis de la sabana, la idea de que los homínidos se hicieron bípedos al tiempo que los espacios abiertos fueron siendo predominantes". García cree que Cerling y sus colegas están interpretando a una escala errónea. "Creo que están centrándose en una escala regional de paleoambientes, mientras que White y los suyos, como saben de donde proceden los fósiles, la geología, y la fauna de cada localidad, pueden hacer una interpretación específica del hábitat solo de Ar. ramidus". La paleontóloga española, que trabajó precisamente en la interpretación del ambiente, sobre datos de miles de fósiles, cree que White da una mejor interpretación global, al menos por el momento, y que además establece que la hipótesis de la sabana es ahora testable científicamente, cuando antes no lo era.

"Ardi prefería todavía ambientes más cerrados", concluye García. "La visión de los primates atravesando sobre dos patas las distancias entre zonas boscosas cada vez más apartadas ha mantenido su atractivo durante décadas de investigación", explica White, para quien los datos obtenidos del ambiente en el que vivía Ardi socavan esta hipótesis y dan una visión nueva del nicho ecológico de los primeros homínidos.

 

Fuente: elpais.com, 27-5-10

 

 

 

-El primer humano infectado por un virus informático

 

Parece una historia de ciencia ficción. El científico Mark Gasson, de la Escuela de Ingeniería de Sistemas de la Universidad de Reading (Berkshire, Reino Unido), asegura haberse convertido en el primer humano infectado por un virus informático. El investigador se introdujo en una mano un chip electrónico como parte de una investigación sobre los riesgos potenciales de los dispositivos implantables. Sin embago, el pequeño aparato resultó estar «contaminado» por un virus. Este virus podría haber sido transferido a otros sistemas electrónicos con los que el científico ha estado en contacto. A su juicio, lo ocurrido destapa la inquietante posibilidad de que, en un futuro, avanzados dispositivos médicos como los marcapasos o los implantes cocleares sean vulnerables a ataques cibernéticos. Gasson se implantó el chip en su mano hace un año para realizar un experimento científico. El artilugio es una versión mejorada de los chips de identificación utilizados para localizar a las mascotas perdidas, algo más sofisticado que los que llevan los perros y los que se utilizan en las etiquetas de seguridad para evitar robos en las tiendas. El dispositivo estaba programado para que su propietario pueda abrir las puertas de seguridad de la universidad y desbloquear su teléfono móvil automáticamente. Sin embargo, de alguna forma el chip se vio infectado por un virus informático, un error que ha dañado su sistema principal de comunicación y que ahora Gasson lleva en su propio cuerpo. Es muy posible que, si ha entrado en contacto con otros sistemas informáticos, el virus se haya transmitido.

 

Mark Gasson


«Fuera de control»
«Al igual que las personas con implantes médicos, después de un año de tenerlo, lo siento como parte de mi cuerpo. Si bien es emocionante ser la primera persona infectada por un virus informático de esta manera, encuentro que es una experiencia que viola mi intimidad, porque el implante está íntimamente conectado a mí, pero la situación está fuera de control», explica Gasson en un comunicado dado a conocer por el centro universitario británico.
Según Gasson, a medida que la tecnología implantable se ha desarrollado, también se ha vuelto más sensible a los virus informáticos. «Nuestra investigación demuestra que es posible comunicar, almacenar y manipular datos en los implantes. Los beneficios de este tipo de tecnología tienen sus riesgos», ha confesado el científico. El peligro es que alguien pueda acceder a uno de estos aparatos tecnológicos implantados y cambiar la programación a su antojo o utilizarlos con fines no médicos, algo que, a juicio de Mark Gasson, debe ser tenido en cuenta de cara al futuro.
 

Fuente: abc.es, 27-5-10

 

 

 

-Resuelto el enigma del "Gran Cañón" marciano que inquietaba a los astrónomos

¿Qué son esos hoyos sobre la superficie helada de Marte, unas simas tan gigantescas que hasta permiten ver las capas inferiores del planeta? Desde que fueron descubiertas, hace ahora cuarenta años, estas formaciones geológicas, una enorme sima más grande que el Gran Cañón de Colorado en Estados Unidos y unas series de depresiones espirales, han resultado para los científicos un auténtico enigma. Hasta ahora. Investigadores de la Universidad de Tejas y del Instituto de Geofísica de Austin han reconstruido la formación de estos fenómenos en el noreste del planeta con la ayuda de los datos obtenidos por la sonda Mars Reconnaissance Orbiter de la NASA, y han concluido que son fruto de una poderosa acción conjunta del viento y el Sol. Los hallazgos aparecen publicados en el último número de la revista Nature.

En el caso de la Tierra, las enormes capas de hielo se disponen y toman forma a partir del movimiento; mientras que en el caso de Marte, de acuerdo con este último descubrimiento, otros fenómenos contribuyen a la hora de darle forma. En concreto, esta capa de hielo marciana tiene tres kilómetros de profundidad y cubre un área un poco mayor que el estado norteamericano de Tejas.
Con los datos obtenidos por radar, los científicos son capaces de diseccionar el hielo en varias capas, de igual forma que si fuera una cebolla. En el caso del primer misterio astronómico resueltos se corresponde con 'Chasma Boreale', un cañón tan largo como el del Colorado, pero más profundo y ancho.
Algunos científicos sostienen que estas formaciones podrían haber surgido por el calor volcánico del planeta, que derritió las capas más profundas del bloque de hielo. Sin embargo, el nuevo trabajo apunta a que estos fenómenos, incluidas las depresiones espirales, surgieron a partir de fuertes vientos polares, llamados 'katabatics', que tallaron el cañón o esas formas en el hielo durante 2,5 millones de años.

 

La región norte de Marte muestra capas polares de hielo prácticamente circulares y blancas de unos mil kilómetros de longitud. Esta zona estaría biseccionada por el 'Gran Cañón' o 'Chasma Boreale' en el lado derecho, y la zona oscura, las depresiones espirales / NASA/Caltech/JPL/E. DeJong/J. Craig/M. Stetson

 

Fuente: abc.es, 27-05-10

 

 

-El transbordador "Atlantis"  finaliza su última misión

El transbordador Atlantis de la NASA tiene previsto aterrizar hoy en Cabo Cañaveral por última vez después de un cuarto de siglo llevando astronautas al espacio.

La nave tocará la pista de aterrizaje a las 8.48 de la mañana de Florida (14.48 hora peninsular española). Tras esta última misión, la agencia espacial prevé retirarlo del servicio para siempre. Es el comienzo del final de la era shuttle, que se consumará cuando los otros dos transbordadores que aún están en servicio, el Discovery y el Endeavour, lleven a cabo sus respectivas misiones este año. Como a muchos otros proyectos de la NASA, les espera un futuro incierto.

"Una vez se retiren los shuttle, el destino final del Atlantis y el Endeavour aún están por determinar", explica a Público el portavoz de la agencia Michael Curie. Lo más probable es que los vehículos acaben sus días como piezas de museo si la NASA consigue subastarlos. Por ahora, el único que ya tiene hogar definitivo es el Discovery, que terminará sus días en el National Air & Space Museum de Washington tras haber puesto en órbita el Telescopio Espacial Hubble o haber sido el primer transbordador en volver al espacio tras los desastres del Challenger y el Columbia.

El ocaso de los shuttle coincide con una etapa de transición en la NASA impuesta por el presidente de EEUU, Barack Obama, ante la crisis. El mandatario anunció en febrero la desaparición del programa Constellation, que incluía nuevos vehículos que sucederían a los shuttle. Pero su voluntad aún está lejos de cumplirse, pues el plan debe ser aprobado por el Congreso, donde algunos representantes demócratas y republicanos ya planean enmiendas para resucitar Constellation o alargar la vida de los viejos shuttle dos años más. Como siguiente paso del tortuoso trámite parlamentario del plan Obama, el Comité de Ciencia y Tecnología de la Cámara de Representantes celebra hoy una sesión sobre el futuro de la NASA similar a la que ya tuvo lugar en el Senado este mes.

 

El transbordador Atlantis' sobrevuela los Andes durante su última misión hacia la ISS, donde fue tomada la imagen.NASA

 

Mientras el futuro de su nave se decidía a unos 600 kilómetros bajo sus pies, los seis tripulantes del Atlantis hicieron ayer las últimas comprobaciones para asegurarse de que el fuselaje no ha sufrido daños que puedan ponerle en peligro durante su reentrada en la atmósfera. Un defecto de este tipo fue el que provocó que el Columbia se desintegrase en 2003. Los seis tripulantes han pasado doce días en el espacio durante los que han llevado respuestos y nuevos elementos a la Estación Espacial Internacional (ISS). "Hemos colocado una nueva antena, seis baterías de repuesto, un nuevo módulo y, en general, hemos derrotado a las fuerzas del mal", bromeó ayer el astronauta Garrett Reisman durante una entrevista en directo con el programa televisivo The Colbert Report.

Tras su probable llegada hoy, la NASA mantendrá al Atlantis listo para despegar. El transbordador servirá de vehículo de rescate durante la última misión prevista, que llevará al Endeavour a la ISS en noviembre. La agencia decidirá el futuro final del transbordador en uno o dos meses, explica Curie. Según AP, una de las opciones es usar el Atlantis para una misión adicional en 2011.

Muerto el shuttle y con el Constellation en la cuerda floja, la agencia espacial de EEUU prevé llegar a la ISS a bordo de naves Soyuz rusas y, en unos años, a bordo de cohetes y naves privadas. El plan ha recibido el apoyo de las empresas que fabricarán los nuevos vehículos, pero no el de algunos congresistas, que están proponiendo en el Congreso modificaciones sustanciales. La senadora republicana por Texas Kay Bailey Hutchison lidera un plan para que la NASA haga una puesta a punto de los viejos shuttle y los use en 2011 y 2012. En las filas demócratas, el senador Bill Nelson suma apoyos para su plan de conservar los cohetes Ares que Obama quiere cancelar. Nelson, un ex astronauta, no confía en que las compañías privadas puedan desarrollar vehículos para llegar al espacio.

Dos tragedias en más de 40 años de servicio

1. ‘Enterprise'

Años antes de que comenzase el programa ‘Apolo' que permitió a EEUU pisar la Luna por primera vez, la agencia ya sopesaba crear las primeras naves espaciales que pudieran usarse más de una vez. Así surgió el programa ‘shuttle' cuyo desarrollo comenzó en 1969. El primero en llegar fue el ‘Enterprise', un vehículo de pruebas sin motores que despegaba con la ayuda de otro avión y que nunca llegó al espacio.
 

2. ‘Columbia'

En 1981 se convirtió en el primer transbordador en llegar al espacio. Llevó a cabo 27 misiones hasta 2003, cuando la nave se desintegró por fallos en el fuselaje matando a sus siete tripulantes. La tragedia fue clave para que la NASA decidiese retirar los ‘shuttle' en 2010.
 

3. ‘Challenger'

Fue el transbordador de vida más corta. Realizó su primer viaje al espacio en 1983 y otras ocho misiones más. En 1986, un fallo en los cohetes que debían ponerlo en órbita causó una enorme explosión que desintegró la nave y acabó con sus siete tripulantes.
 

4. ‘Discovery'

Se estrenó en 1984 y es el transbordador más antiguo en servicio. Tras su último viaje previsto para el 16 de septiembre será expuesto en un museo de Washington.
 

5. ‘Atlantis'

Podría realizar una misión más en 2011 o ser vendido a un museo por 28,8 millones de dólares.
 

6. ‘Endeavour'

Es el más moderno (1992) y será el último en retirarse, en noviembre

Fuente: publico.es, 26-5-10

 

 

 

 

-Un estudio aclara el origen de una extraña "franja" espacial

 

Científicos de Polonia y Estados Unidos han propuesto una explicación para la misteriosa estructura con forma de franja que rodea nuestro Sistema Solar. En un artículo publicado en la revista Astrophysical Journal Letters, explican que dicha franja podría suponer la frontera entre la Nube Local de gas interestelar frío y otra nube de gas extremadamente caliente conocida como Burbuja Local. De estar en lo cierto, el Sol penetrará en la Burbuja Local dentro de unos cien años.

El descubrimiento ha causado sorpresa pues hasta ahora se pensaba que la frontera entre la Nube Local y la Burbuja Local estaba más lejos.

«Observamos la franja porque el Sol se está acercando a una frontera entre nuestra nube de gas interestelar local y otra nube de gas muy caliente y turbulento», explicó el director de la investigación, el profesor Stan Grzedzielski del Centro de Investigación Espacial de la Academia de las Ciencias de Polonia. El profesor Grzedzielski aclaró que este fenómeno no es extraordinario, pues el Sol penetra con frecuencia en distintas nubes de gas interestelar.

Al entrar en la nube más caliente es probable que la heliosfera mengüe ligeramente y provoque un ligero aumento de la radiación cósmica. La heliosfera es una especie de «burbuja» dentro de la cual el viento solar ofrece protección contra los rayos cósmicos dañinos. «Tal vez las futuras generaciones tendrán que aprender cómo reforzar mejor su equipo espacial contra una radiación más fuerte», comentó el profesor Grzedzielski.
 


La franja espacial objeto de estudio fue descubierta el año pasado por la sonda IBEX (Explorador de la Frontera Interestelar) de la NASA, que se lanzó en 2008 para explorar la frontera entre la heliosfera y el espacio interestelar.

Su objetivo principal era obtener un mapa de todo el cielo de emisiones de átomos neutros energéticos (ENA), desvelando de este modo la cinta de ENA que rodea el Sistema Solar. Desde entonces se han propuesto varias teorías que explican el origen de estas emisiones. La mayoría se centran en las interacciones entre la heliosfera y el espacio interestelar, pero este último estudio propone que los ENA se crean en la frontera entre la Nube Local fría y la más caliente Burbuja Local. Ésta última es una región espacial extremadamente caliente y turbulenta y probablemente el residuo de una serie de explosiones de supernovas que se habrían producido hace millones de años.

Según los investigadores, los ENA se crean cuando los protones de la Burbuja Local caliente roban electrones de los átomos neutros al borde de la Nube Local más fría. Esto provoca que salgan despedidos en todas direcciones, alcanzando algunos los detectores del IBEX.

«Si nuestra hipótesis es correcta, entonces estamos detectando átomos que se originan en una nube interestelar que es diferente de la nuestra», señaló el Dr. Maciej Bzowski, jefe del equipo polaco IBEX y coautor del artículo.

Por otro lado, el profesor Grzedzielski explicó que la franja es una especie de ilusión óptica, pues en realidad los ENA se crean en toda la frontera que existe entre la Nube Local y la Burbuja Local.

«Es un efecto puramente geométrico, que se observa porque el Sol está en la actualidad en el lugar correcto, a un millar de unidades astronómicas de la frontera entre nubes», apuntó. «Si el límite nube-nube es plano, o mejor ligeramente extruido hacia el Sol, entonces parece más delgado hacia el centro de la franja y más grueso en los laterales, justo donde se ve el borde de la franja. Si fuéramos más lejos de la frontera no se vería la franja, ya que todos los ENA quedarían re-ionizados y dispersados en el gas de la Nube Local.»

 

Fuente: Cordis, 26-5-2010

 

 

 

 

 

-La NASA da por finalizada la misión "Phoenix" en Marte

La Agencia Espacial de EEUU, NASA, ha dado finalmente por muerto al laboratorio Phoenix Mars Lander, la sonda que encontró evidencias de agua en Marte, ya que no ha podido superar el invierno marciano, informó el Laboratorio de Propulsión a Chorro (JPL).

Según indica hoy la NASA en su página Web, una nueva imagen transmitida por el Mars Reconnaissance Orbiter indica que el hielo de Marte dañó irreparablemente los paneles solares del laboratorio durante el invierno en el planeta rojo, que es dos veces más largo que el de la Tierra.

Aún así, según Fuk Li, responsable del Programa de Exploración de Marte, el trabajo del laboratorio Phoenix 'ha tenido éxito en sus investigaciones y ha superado el tiempo de actividad que se le suponía'.

Igualmente destacó que, aunque su trabajo ha terminado, 'el análisis de la información científica que ha facilitado continuará aún durante algún tiempo'.

La pasada semana, la NASA indicó que los primeros esfuerzos por recuperar el contacto y revivir al laboratorio tras el invierno marciano no habían tenido éxito.

Phoenix 'no fue designado para sobrevivir en la oscuridad, el frío y el hielo del invierno', reconoció hoy la NASA.

El último intento por recuperar las comunicaciones con el vehículo se inició el lunes 17 de mayo y se llevó a cabo a través de un enlace con la nave Mars Odyssey, cuyas órbitas pasaron por encima de donde se encuentra Phoenix, en el extremo norte del planeta. Tras estos movimientos, la NASA informó de que el orbitador no había detectado ninguna señal del Phoenix Mars Lander.

Se realizaron igualmente nuevos intentos de comunicación con Phoenix en los días siguientes, pero al no obtener respuesta, se decidió dar la nave por perdida. El Laboratorio de Propulsión a Chorro emprendió estos últimos esfuerzos a pesar de saber que eran virtualmente nulas las posibilidades de establecer contacto con la Sonda.

'Como se esperaba, la reducción de la luz solar (en el hemisferio norte del planeta) ha dejado al 'Phoenix', que operaba con baterías solares, sin energía para mantenerlas cargadas', señaló el JPL en esa ocasión. Phoenix descendió sobre la superficie marciana el 25 de mayo de 2008 con el objetivo de confirmar la existencia de agua en el planeta mediante análisis hechos en el laboratorio que llevaba a bordo.

Phoenix

Y lo consiguió, ya que Phoenix confirmó la existencia de extensos depósitos de hielo subterráneo que habían sido detectados por el Oddyssey e identificó un mineral llamado carbonato de calcio que sugiere la presencia ocasional de agua descongelada. La NASA indica también en su web que 'la mayor sorpresa' de esta misión fue el descubrimiento de un perclorato, una sustancia química que constituye un alimento para algunos microbios pero es potencialmente tóxica para otros. Aunque con dificultades, la NASA todavía mantiene en operaciones a los vehículos exploradores 'Spirit' y 'Opportunity', los cuales descendieron sobre la superficie del planeta hace casi cuatro años.

Fuente: EFE, 25-5-10

 

-Vertido en el Golfo de México: ¿la historia interminable?

Dicen los blogeros expertos que no es bueno insistir mucho sobre el mismo tema. Parece ser que esto resta lectores. Pero lo que está sucediendo en el desastre del Golfo de México es impactante. En primer lugar British Petroleum y el Gobierno americano no dieron las cifras reales del vertido. De las 800 toneladas diarias de vertido hemos pasado a oir que se podrían haber vertido 4000 toneladas diarias. Y BP sigue sin encontrar una solución y va trampeando como puede. Ya nos hemos acotumbrado al vertido del Golfo de México y poco a poco desaparece de las portadas de los medios de comunicación.

Hace unos días, por fin, British Petroleum comenzó a recoger una pequeña parte del petróleo que se derrama en el Golfo de México tras haber insertado un tubo en la fuga principal del pozo. Sin embargo, el Gobierno estadounidense duda de que la petrolera BP, responsable de la platarforma que causó el vertido de crudo en el golfo de México, pueda controlar el derrame en los próximos días. El profesor de ingeniería mecánica Steve Wereley, de la Universidad de Purdue, testificó  ante un subcomité de la Cámara de Representantes, para estimar cuánto petróleo emana al golfo en realidad. Hay dos fugas. Su opinión: De una emanan 70.000 barriles y de la otra, 20.000. El vertido, considerando el margen de error, es de entre 76.000 y 104.000 barriles por jornada.

Según diversos modelos científicos de predicción del comportamiento de las corrientes y de los remolinos en el Golfo, la mancha, difícil de avistar con imágenes tomadas a través de satélites, podría unirse a la corriente de Lazo, que avanza desde la península de Yucatán, en México, a los cayos de Florida, para, eventualmente, cruzar el Atlántico, de forma diluida. La corriente de Lazo avanza siempre en la dirección de las manillas del reloj, dentro del Golfo, y se conecta a la corriente del Golfo en el sur de Florida, cerca de Cuba. Sin embargo, su trayectoria y forma cambian. En ocasiones discurre muy al norte, rozando las costas de Luisiana, Misisipi y Alabama, y en ocasiones fluye más al sur. Durante el fin de semana, diversos científicos revelaron la existencia de unas columnas gigantescas de petróleo en el lecho marino, de hasta 16 kilómetros de largo. Esos bancos de petróleo podrían unirse fácilmente a la Corriente de Lazo y, de allí, a la del Golfo.  En teoría podría llegar a Europa (Galicia) de forma diluida. El crudo ya llegó a las costas de Luisiana. Y mancha unos 100 kilometros de humedales. Diversos agentes del Departamento de Interior han informado este viernes de que han encontrado más animales cubiertos de petróleo: 186 tortugas y 60 aves pero cada día estas cifras continuan creciendo. La mayoría de las tortugas y 43 aves han muerto por los efectos del crudo. Además, han encontrado 18 delfines varados en distintas playas.

El crudo que ha emanado durante el último mes se mantiene, de momento, hundido en el lecho marino por el efecto de unos disolventes que BP esparce sobre la superficie. La Agencia de Protección Ambiental de EEUU (EPA, por sus siglas en inglés) advirtió ayer a BP de que tiene 24 horas para elegir un dispersante químico menos tóxico que los que la compañía usa actualmente para tratar de evitar que el vertido llegue a las costas. Hasta el momento, BP ha utilizado más de dos millones de litros de dos tipos de dispersantes. Por ejemplo BP ha utilizado 2,5 millones de litros de Corexit que ya se empleó en el vertido del Exxon Valdez.

 

Corexit, fabricado por la compañía Nalco, cuyo consejo de administración incluye a ejecutivos de Exxon y de British Petroleum. El secreto a voces en Houston es que Corexit es un dispersante que fabrica la industria petrolera para vendérsela a sí misma. BP ha anunciado que ya compró otros 850 mil galones (3.2 millones de litros) de Corexit. Según la Agencia Federal de Protección del Medio Ambiente (EPA), el Corexit es uno de los dispersantes más tóxicos y menos eficientes para enfrentar derrames de crudo como el de las costas de Luisiana. La realidad es que mientras los dispersantes ayudan a mantener las capas de crudo lejos de las playas y humedales, tienen efectos a largo plazo sobre los ecosistemas y la fauna marina. Cuando se usó el Corexit en el derrame del Exxon Valdez, varios voluntarios sufrieron infecciones y problemas de salud. Pero todo eso es irrelevante: BP necesita evitar a toda costa que la capa de petróleo suba a la superficie y manche su imagen. ”Beyond Petroleum” (Más allá del petróleo), se anunciaba hace poco la compañía.”

“Después del fracaso de intentar cubrir la fuente del vertido con dos campanas de acero y cemento de distintos tamaños, BP va a tratar de cubrir la perforación por la que el petróleo emana al océano, a 1′5 kilómetros de profundidad, con una mezcla de líquidos pesados, lodo y cemento. En principio iba a utilizar esa nueva técnica este mismo fin de semana, pero sus ingenieros han decidido dejarlo para la semana que viene.”

“La petrolera British Petroleum (BP) ha informado hoy de que el coste para intentar contener el vertido de petróleo en el golfo de México asciende ya a unos 596 millones de euros. La empresa británica ha indicado que sólo en la última semana el montante ascendió a unos 153 millones, pero precisó que es aún prematuro para establecer el gasto final. BP ha aceptado hacerse cargo de los costes de la limpieza del golfo de México, además de pagar una indemnización de 75 millones de dólares (unos 60 millones de euros) por el vertido que provocó la explosión y posterior hundimiento hace un mes de una plataforma operada por la petrolera. La petrolera británica ha reconocido asimismo que la marea negra que se extiende hasta las costas estadounidenses es “una catástrofe”.

“Más de 24.000 efectivos gubernamentales y voluntarios, junto a un millar de embarcaciones, trabajan casi sin descanso para impedir que la marea negra penetre aún más en las marismas de Luisiana o que se extienda a los Cayos de Florida y las playas de Miami en su destructivo viaje por las aguas del Golfo. De alcanzar estos puntos, podría generar un desastre ambiental aún mayor que el actual, además de provocar ingentes daños al turismo en Florida, una industria que mueve más de 60.000 millones de dólares cada año.”

Menos mal que el actor Kevin Costner prestará a la petrolera BP máquinas centrifugadoras con tecnología desarrollada por él y un grupo de científicos, que separan el crudo del agua para tratar de limpiar el vertido del golfo de México…

Fuente: Blog "ciencia marina y otras historias", 25-5-10

 

 

 

-Los genes reescribirán la historia de Estados Unidos

Andrew Powell no pretende pasar a la historia como el hombre que cambió la fecha del Día de Acción de Gracias. "Eso es para los americanos", dice a Público. "Es un gancho periodístico", añade. Pero si triunfa en su empeño, ese podría ser su legado, si no fuera por la inercia de una tradición de casi siglo y medio.

Argumentos no le faltarían: la cena del pavo rememora a la primera colonia británica estable en Norteamérica, la de los peregrinos del Mayflower en Plymouth. Así, quien demostrase que esta no fue la primera colonia estable tendría derecho de enmienda a la totalidad.

Esa puede ser la conclusión si el proyecto que persigue este alcalde inglés, en colaboración con un equipo de investigadores de EEUU, logra su propósito: demostrar que el asentamiento de la isla de Roanoke, fundado tres decenios antes de la aventura del Mayflower, dejó descendencia tras su misteriosa desaparición.

El episodio de la colonia perdida es popular para los estadounidenses, añadiendo al interés histórico el ingrediente del misterio. En 1587, el británico Sir Walter Raleigh fletó una expedición de 117 colonos al nuevo mundo con el aval de la reina Isabel I. La flotilla se hizo a la mar en Bideford (Devon) el 8 de mayo y tocó tierra el 22 de julio en la isla de Roanoke, frente a la costa de Carolina del Norte. El gobernador de la colonia, John White, regresó poco después a la metrópoli para reunir refuerzos y provisiones. Su vuelta a Roanoke se frustró cuando Inglaterra desvió todos sus recursos, incluyendo los barcos de White, a la guerra contra la Armada Invencible española.

Representación de un poblado indio, basada en la descripción que hizo John White de lo que observó en Roanoke.JAVIER YANES

 

Croatoan

El gobernador no pudo regresar a sus dominios hasta 1590, y lo hizo para descubrir que su flamante nuevo mundo estaba desierto. Los colonos habían desaparecido sin signos de lucha ni otra pista más que una palabra grabada en uno de los postes del fuerte: Croatoan. Este era el nombre de los indios de la región, y así llamaban también los europeos a la isla donde vivían los nativos (hoy isla Hatteras). Dado que los colonos se habían amistado con los croatoan, White dedujo que algún motivo les había empujado a mudarse con sus vecinos. Pero nunca pudo verificarlo. Tras poner rumbo a Croatoan, un huracán desvió a la flota de la costa y la condenó a regresar a Inglaterra. Así, la colonia de Roanoke quedó perdida para siempre.

Varias hipótesis han tratado de reconstruir los hechos, aún sin una versión definitiva. Pruebas claras son un anillo inglés de oro del siglo XVI desenterrado en Croatoan y otros artefactos, que se unen a testimonios históricos sobre nativos de ojos claros batiendo cobre en los poblados indígenas.

En 2005, un grupo dirigido por la experta en tecnología y genealogía Roberta Estes fundó en EEUU el Proyecto de ADN de la Colonia Perdida, con el fin de rastrear genéticamente a los descendientes del grupo de White. Estes detalla a este diario que ha reunido ya 380 muestras de ADN de cromosoma Y para la línea paterna "la más importante porque había mayoría de hombres", dice y 196 de ADN mitocondrial para la línea materna. Todas ellas proceden de voluntarios que, por sus apellidos, origen o linaje familar, son candidatos a descendientes de los colonos perdidos. El socio técnico para el procesamiento del ADN es la empresa de genealogía genética Family Tree DNA, con sede en Houston (Texas).

Al proyecto se une ahora Powell, alcalde de Bideford. La rama británica del estudio de ADN hará posible vincular a primos lejanos descendientes de colonos a ambos lados del Atlántico, lo que para Powell sería "el Santo Grial". "El proyecto está en sus primeros pasos", apunta, y "el problema crítico es la falta de fondos". Pero el regidor, que pronto publicará un libro sobre los hechos de Roanoke, es entusiasta: "Si tenemos razón, la historia de EEUU se reescribirá con un nuevo comienzo, 33 años antes de los Padres Peregrinos".

Fuente: publico.es, 24-5-10

 

 

 

-Hallado el primero coral de aguas frías

 

Dos especies de coral dominan el arrecife.IEO

Los arrecifes de coral son famosos por sus exigentes requisitos ecológicos, ya que suelen necesitar aguas cálidas, limpias y con gran aporte de luz solar, típicas de zonas tropicales. No obstante, en un cañón submarino del mar Cantábrico, un equipo de biólogos del Instituto Español de Oceanografía (IEO) ha encontrado un arrecife de coral a 800 metros de profundidad. "Es un gran descubrimiento, ya que es el primero de este tipo que se detecta en aguas españolas", según afirmó a Público el responsable de la investigación, Francisco Sánchez.

El equipo estaba inmerso en la investigación del Cañón submarino de Avilés cuando descubrió la existencia de otros dos cañones. "Al explorar uno de ellos, nos encontramos con el arrecife", explica Sánchez. Según el biólogo del IEO, "cada vez se están descubriendo más formaciones de este tipo por todo el mundo, pero su exploración es complicada debido a la profundidad a la que se encuentran". El arrecife tiene una extensión aproximada de 80.000 metros cuadrados y está compuesto principalmente por las especies Madrepora oculata y Lophelia pertusa.

Ya se conocía la existencia de corales aislados en aguas frías, "por lo que lo importante de este descubrimiento es que la agrupación de corales en forma de arrecife da lugar a un nuevo ecosistema al que se asocian otras especies, lo que crea un hábitat de gran complejidad", concluye Sánchez.

 

 

Fuente: publico.es, 22-5-10

 

 

 

-La "medusa" que descontamina los ríos

 

Physalia es el nuevo proyecto de Vincent Callebaut, un buque que pretende cruzar los cauces fluviales de Europa con exposiciones sobre los entornos naturales, mientras purifica el agua a su paso y sirve de laboratorio para la investigación sobre nuevos métodos de saneamiento.

 

Plásticos, aguas jabonosas, restos químicos industriales, purines de las ganaderías, fertilizantes de uso agrícola, disolventes o hidrocarburos. Todo llega en mayor o menor medida a los cauces de los ríos. No hace falta más que tirar del álbum de fotos para ver las consecuencias que el progreso humano ha tenido en el sistema hidrológico;  aquellas pozas cercanas donde acudían las familias a bañarse han desaparecido o ahora son, simplemente, impracticables. Además, si se miran el botiquín de casa y la colección de jabones y ungüentos, se descubre que cualquier actividad humana contamina.


Aunque los datos de la ONU son alentadores cuando afirman que el 90 por ciento de la población mundial bebe y utiliza agua apta para el consumo y aunque vivimos con la certeza de que en Europa estamos muy lejos de pertenecer a esos 900 millones de personas que siguen sin acceso al agua potable, la gestión del agua, su saneamiento y su análisis siguen siendo de interés prioritario para la UE, como se destaca en varios de sus informes. «El aumento de la población y la industrialización, la intensificación de la agricultura, la canalización (…), el uso recreativo, las sequías y las inundaciones han aumentado las presiones ejercidas sobre las aguas continentales europeas», dice el informe sobre aguas continentales de la Agencia Europea del Medio Ambiente.

 

La "medusa" en acción


Entre Directivas Marco del Agua y proyectos de análisis institucionales sobre el estado de las aguas y la concentración de nuevos agentes contaminantes, como las drogas, aparecen ideas extraoficiales de lo más audaces. Es el caso del Physalia, un concepto arquitectónico francés, un futurista anfibio diseñado por Vincent Callebaut y que toma su espectacular forma de la medusa Physalia physalis, más conocida como la carabela portuguesa. Este experimental buque-ágora pretende cruzar los cauces fluviales de toda Europa con exposiciones temporales sobre los entornos naturales, mientras purifica el agua a su paso y sirve de laboratorio internacional para la investigación sobre nuevos métodos de saneamiento. «El hombre está en el centro de este proyecto biónico que recomienda el equilibrio entre las acciones humanas y el respeto del medio ambiente», explican fuentes del estudio arquitectónico.

Cubierto o al aire libre
Su particular estructura desmontable albergará en su casco una doble membrana neumática con paneles fotovoltaicos que generarán la energía necesaria para el funcionamiento de las instalaciones e hidroturbinas en la parte inferior para utilizar la fuerza de la corriente y moverse por los ríos. Una capa de aluminio recubre la estructura de acero y además está envuelto por una capa de óxido de titanio que, al reaccionar con los rayos ultravioletas, limpiaría el agua, al menos en teoría. «Es como en las depuradoras, donde se irradia el agua para eliminar las bacterias. Pero si el agua tiene turbidez y no pasa la luz…», matiza Iñaki Vadillo, investigador del grupo de Hidrogeología y profesor de la Universidad de Málaga.
Toda la cubierta se mueve para poner fin al trabajo de los paneles solares y los jardines superiores, desvelando al mismo tiempo parte de su distribución interior, programada en torno a cuatro grandes espacios. El jardín del agua representa la puerta de entrada a la nave y estaría reservada a las exposiciones temporales.


Mientras el techo está cerrado, su superficie metálica absorbe y refleja la luminosidad de las aguas, aunque puede desaparecer dando paso a un ambiente abierto a la brisa fluvial. El área de la Tierra es el corazón de este gran buque, porque es el centro de la arquitectura y porque en él se desarrollarán los trabajos de laboratorio de los investigadores. La zona más profunda contaría con sillones para la relajación, una enorme vitrina central en la que ardería un fuego en claro contraste con los ojos de buey de la sala para admirar la panorámica de la fauna y la flora local. Y por último el jardín del aire, un anfiteatro abierto al ambiente y creado con el fin de ser el foro de discusión y punto de encuentro de visitantes, investigadores y ciudadanos.

Antidepresivos y cocaína
Un proyecto utópico y optimista que quizá no salga a la luz, pero que es importante como idea. Aunque no se puede separar el tratamiento del agua superficial, cuya contaminación es más fácil de detectar y más inmediata, de las aguas subterráneas, más protegidas por el filtro natural del suelo que impide el acceso a algunos contaminantes, pero más difíciles de regenerar y que en última instancia alimentan también a las aguas superficiales. «No sirve para nada estudiar sólo el río, hay que estudiar todo el ciclo hidrológico», apunta Vadillo.

Aunque la regulación es clara respecto a la depuración de aguas de zonas urbanas e industriales antes de su incorporación a los cauces y a que los agentes contaminantes son conocidos, medidos y regulados, en los últimos años, los ríos siguen sufriendo las consecuencias de la vida del hombre y el mejor remedio sigue siendo la prevención.
Además de que nuevos componentes añaden su toxicidad a las aguas, produciendo modificaciones en el comportamiento metabólico y que aún deben recorrer un largo camino en cuanto a detección y regulación se refieren. Son los llamados PPCP e incluyen analgésicos, antibióticos, antiepilépticos, antidepresivos e incluso drogas de consumo de fin de semana. Muchos estudios se han ocupado del análisis de este tipo de sustancias en la aguas urbanas.
El reciente proyecto Aquaterra, liderado en España por el investigador del CSIC, Damiá Barceló, denunció la presencia en el río Ebro de cocaína en primer lugar, y de anfetaminas o éxtasis, revelando algo más que la radiografía del consumo social. «Los fármacos son uno de los agentes contaminantes de las zonas urbanas. Cada vez se consumen en mayor cantidad con el consiguiente riesgo ambiental», explica Barceló.

Fuente: larazon.es, 22-5-10

 

 

-Japón se acerca a Venus con una sonda que estudiará su clima

Japón lanzó hoy su primera misión espacial a Venus, una sonda que durante dos años estudiará el clima y los misteriosos fenómenos atmosféricos del planeta 'gemelo' de la Tierra.

'Akatsuki' ('Aurora'), como se ha bautizado informalmente a la sonda Planet-C, es una de las grandes apuestas de la Agencia de Exploración Aeroespacial de Japón (JAXA), que ha invertido en este proyecto 25.200 millones de yenes (unos 220 millones de euros).

El 'Akatsuki' despegó hoy con éxito del Centro Espacial de Tanegashima, en el sur de Japón, a las 06.58 hora local (21.58 GMT) a bordo del cohete lanzadera H2-A, que transportaba otros cinco satélites secundarios.

Menos de media hora después estaba en órbita y, tras separarse de la lanzadera, emprendía en solitario un largo viaje de unos siete meses hacia el más cercano vecino de la Tierra.

Si todo transcurre como se espera, el próximo diciembre 'Akatsuki', de 500 kilos, comenzará a orbitar a una distancia que variará entre los 300 y los 80.000 kilómetros de la superficie de Venus.

Esta es la primera misión de exploración planetaria de Japón, la segunda economía mundial, desde 1998, cuando el Instituto de Ciencia Espacial y Astronáutica del Ministerio de Educación lanzó el cohete 'Nozomi' para explorar Marte.

Aquella misión fracasó y el 'Nozomi' ('Esperanza') se dio por perdido en el espacio en diciembre de 2003. Según el científico Takeshi Imamura, uno de los responsables del proyecto, 'Akatsuki' es la primera sonda espacial 'que merece ser definida como un satélite meteorológico'. Sobre Venus, a una altitud de unos 60 kilómetros de la superficie, soplan vientos huracanados a más de 100 metros por segundo, una velocidad 60 veces mayor que la de la lenta rotación del planeta (un día de Venus corresponde a 243 días terrestres).

''Akatsuki' investigará la causa de este misterioso fenómeno. Otro objetivo es estudiar la formación de las gruesas nubes de ácido sulfúrico que envuelven Venus y detectar los relámpagos sobre el planeta', explica Imamura a través de la web de JAXA.

La sonda está equipada con cinco cámaras, entre ellas una de infrarrojos capaz de ver más allá de las espesas nubes sulfúricas y observar la superficie venusiana, normalmente sumida en la oscuridad por la densa nubosidad. Así, además de elaborar el peculiar parte meteorológico de Venus, 'Akatsuki' examinará la posible actividad volcánica en este planeta rocoso, similar a la Tierra en tamaño y masa pero con una presión 90 veces mayor y una temperatura de más de 400 grados centígrados. La sonda enviará asimismo imágenes dinámicas en tres dimensiones de los movimientos atmosféricos de Venus, lo que permitirá realizar el primer mapa en 3D de la capa gaseosa que lo envuelve. La nave japonesa compartirá la órbita venusiana con la sonda Venus Express, de la Agencia Espacial Europea (ESA), que lleva cuatro años explorando en detalle la atmósfera de este planeta mediante su Espectrómetro de Imagen Infrarroja y Visible (VIRTIS, siglas en inglés).

 

La información de las dos sondas se complementará, ya que mientras Venus Express estudia principalmente la composición química, 'Akatsuki' se centrará en 'el movimiento de la atmósfera', según JAXA. Junto con su sonda venusiana, la agencia espacial nipona lanzó hoy cuatro satélites secundarios desarrollados por estudiantes y empresas privadas, además de un quinto, bautizado como 'Ikaros', que será propulsado en el espacio por energía solar. El 'Ikaros' ha sido definido como un 'yate espacial', ya que tiene una finísima vela solar -una membrana de la mitad del grosor de un cabello- de 20 metros preparada para desplegarse una vez el satélite esté fuera de la atmósfera terrestre.

Japón se adentró de lleno en la investigación espacial en 2003, cuando decidió unir la Agencia Nacional de Desarrollo espacial y otros dos centros de investigación para dar lugar al JAXA, que hoy en día mantiene una estrecha colaboración con agencias como la NASA o la ESA.

Fuente: EFE, 21-5-10

 

 

-La ciencia consigue "vida" artificial

«Esto cambia mi definición de la vida y  mi visión de cómo se desarrolla la vida», asegura el científico.

Dos de las células creadas artificialmente por Craig Venter

 

En 1995, cuando el biólogo norteamericano John Craig Venter secuenció por primera vez el genoma de una bacteria, anunció que no pararía ahí. Cuatro años más tarde impulsó el «Proyecto Genoma», en 2000 se convirtió en «padre» del genoma humano y en 2002 anunció su intención de crear «una nueva forma de vida» artificial. Ahora Venter acaba de anunciar que ha conseguido su sueño: ha logrado controlar una célula bacteriana con un genoma sintético. Algo que, de acuerdo con el investigador, es tanto como haber «fabricado la primera célula sintética». Así lo publica en el último número de la revista «Science», donde asegura también que el hallazgo contribuirá a solventar problemas «ambientales y de energía», entre otras aplicaciones.

En concreto, el equipo de investigadores del Instituto Craig Venter en Rockville, Maryland y San Diego, California (EE UU), ha conseguido sintetizar químicamente el genoma de la bacteria mycoplasma mycoides. Ya había conseguido el primer genoma sintético de una bacteria en enero de 2008, pero en esta ocasión agregaron secuencias de ADN para distinguir ese genoma de uno natural. Después, implantaron el genoma artificial (compuesto de un único cromosoma) en una célula bacteriana, de manera que controlaron totalmente la célula con el nuevo genoma.

Una vez hecho público el experimento, surgen nuevas incógnitas. Además de las posibles aplicaciones, ahora la discusión está en saber si la célula de Venter se puede considerar una «vida artificial». Para el biólogo está muy claro. «Ésta es la primera célula sintética que se ha creado, y la llamamos sintética porque se deriva totalmente de un cromosoma sintético, hecho con cuatro tipos de sustancias químicas, un sintetizador y empezando con información en un ordenador». Asimismo, señala que esto será «una herramienta muy poderosa para definir qué queremos que haga la biología».

Los investigadores también son conscientes de las implicaciones éticas del proyecto. «Se trata de un paso importante, tanto científica como filosóficamente. Esto, ciertamente, cambia mi  definición de la vida y mi visión de cómo se desarrolla la vida».


Célula primaria natural
Sin embargo, no está tan claro que la célula de Venter sea una nueva «vida». De hecho, el propio artículo de «Science» se titula «Primera célula controlada por un genoma sintético», pues sólo el material genético está creado en el laboratorio, pero la célula primaria es natural.
César Nombela, catedrático de Microbiología de la Universidad Complutense de Madrid, considera que «no se trata de una célula artificial». Explica que no sólo se ha utilizado una célula natural como soporte, sino que, para sintetizar el ADN de la bacteria y ensamblar las partes del cromosoma se han empleado materiales naturales, como la levadura.

En cualquier caso, el equipo de Venter ha prometido que el experimento tendrá utilidades prácticas en el futuro. Algas que capturan el dióxido de carbono, biocombustibles y mejoras en la producción de vacunas están entre los posibles usos de esta «vida» de laboratorio.

Sin embargo, otros científicos, como el profesor de Oxford Julian Savulescu, alertan de que los riesgos irán «en paralelo». Savulescu indicó a la cadena BBC que habrá que impedir «el mal uso», incluso por parte de terroristas, de esta tecnología, con la que se podría fabricar «el arma biológica más poderosa».


Recrear la vida en laboratorio
Para su investigación, el equipo de científicos sintetizó el genoma de una bacteria llamada M. mycoides, a la cual agregaron secuencias de ADN para distinguir ese genoma de otro
natural. Las colonias azules (en la imagen, arriba) indican que se ha producido un trasplante del genoma sintético con éxito en una célula bacteriana.

Fuente: larazon.es, 20-5-10

 

 

 

-La extraña supernova que se metió en nuestros huesos

 

No todas las explosiones son iguales. Algo que puede ser tan cierto para los efectos especiales de las películas como para las estrellas. Hasta ahora, los científicos sólo habían observado dos tipos básicos de estrellas en explosión, conocidas como supernovas, pero resulta que hay una más. Investigadores del Instituto Weizmann de ciencia, en colaboración con colegas de todo el mundo -entre ellos astrofísicos del instituto Max-Planck de Alemania o del Centro Harvard-Smithsoniano-, han identificado un tercer tipo de supernova. SN 2005E, como ha sido bautizada, no sólo es una curiosidad astronómica.

Su existencia puede explicar algunos fenómenos enigmáticos en el Universo, como la presencia del calcio en el cosmos y hasta en nuestros huesos. El estudio aparece publicado en la revista Nature.

Los dos primeros tipos de supernovas son gigantes jóvenes y calientes que salen disparadas con violencia a medida que se colapsan bajo su propio peso, o son viejas y densas enanas blancas que estallan en una explosión termonuclear. La nueva supernova apareció en el objetivo de los telescopios a principios de enero de 2005. Los científicos comenzaron a recoger y combinar datos con diferentes instrumentos ópticos de todo el mundo, midiendo la cantidad de material arrojado en la explosión y su composición química. Pronto descubrieron que el fenómeno no se ajustaba a los parámetros conocidos.

Una imagen de SN 2005E (sobre la flecha) y su galaxia NGC 4589 tomada por el telescopio Subaru en 2005 / Subaru Telescope, NAOJ


Una reacción nuclear
Por un lado, la cantidad de material arrojado desde la supernova era demasiado pequeña para haber venido de una gigantesca explosión. Además, su ubicación, distante de los centros donde se forman las estrellas, implicaba que era una estrella más antigua que había tenido tiempo de escapar de su lugar de nacimiento. Por otro lado, su composición química tampoco coincidía con el segundo tipo ya conocido, ya que tenía niveles inusualmente altos de calcio y titanio, productos que suelen encontrarse en una reacción nuclear de helio, en lugar de carbono y oxígeno. «Nunca antes habíamos visto algo así», admite Paolo Mazzali, del Instituto Max-Planck. Los investigadores creen que la supernova puede haberse producido con la relación de dos enanas blancas. Una de ellas le roba helio a la otra y se produce la explosión. «La estrella donante es probablemente destruida en su totalidad durante el proceso, pero no estamos muy seguros sobre el destino de la estrella ladrón», explica otro de los investigadores, Avishay Gal-Yam, del Instituto Weizmann.
Los científicos creen que otras supernovas observadas anteriormente pueden encajar en este patrón y explicar algunos fenómenos enigmáticos en el Universo. Por ejemplo, podría ayudar a explicar la prevalencia del calcio tanto en el cosmos como en nuestros huesos, y también podría explicar las concentraciones observadas de los positrones en el centro de nuestra galaxia, unas partículas idénticas a los electrones pero con carga opuesta que algunos creen responsables de la misteriosa materia oscura.

 

Fuente: abc.es, 19-5-10

 

 

 

-El mayor experimento científico de la historia probará la teoria de Einstein

 

La NASA y la ESA van a construir el instrumento científico más grande de la historia, que tratará de verificar la última pata del conjunto de postulados que Einstein formuló en su teoría de la Relatividad General. Según el físico, los grandes eventos cósmicos, como los agujeros negros y la muerte de estrellas, producen unas ondas gravitatorias que se extienden por el Universo. Se trata de la última pieza de su teoría que aún no está confirmada y que este instrumento pretende resolver.
Para conseguirlo, la NASA y la ESA, agencias espaciales de EE.UU. y Europa, respectivamente, se han propuesto lanzar al espacio tres naves que contendrán un cubo flotante de oro-platino. Estas naves se posicionarán a 5 millones de kilómetros una de otra, formando un triángulo equilátero. Para que nos hagamos una idea, eso son 13 veces la distancia de la Tierra a la Luna. Una vez alcanzada la ubicación exacta, dispararán un láser que deberá coincidir en los pequeños cubos de 4.6 centímetros de arista. La exactitud de este sistema de medida alcanza cotas asombrosas, pues llegarán hasta 40 millonésimas de millonésimas de un metro de precisión. Con ello, podrán verificar la existencia de las predichas ondas gravitatorias. Absolutamente impresionante.

 

 

En fabricación
La Antena Espacial de Interferómetro Láser, o LISA, como es llamada la nueva misión espacial, será capaz de detectar las ondas gravitatorias de frecuencias muy bajas por medio de la gran distancia entre las tres naves. Los científicos ya han empezado a fabricar los instrumentos que serán instalados en la misma LISA, pero no se espera que se comience antes del 2020.
Está prevista una misión más pequeña de experimentación, llamada LISA Pathfinder, que está siendo construida por ingenieros británicos en la compañía espacial Astrium EADS. Se espera su lanzamiento el próximo año, con la finalidad de preparar el camino de esta tecnología que será usada para detectar las ondas. Una vez detectadas, las ondas gravitatorias podrían proporcionar información del Universo que no puede ser vista ni obtenida en la actualidad usando radiación electromagnética como la luz, las ondas de radio y los rayos-X. Todo un hito que puede reportarnos un mejor conocimiento de nuesta existencia.

 

Fuente: publico.es, 19-5-10

 

 

 

-Los rayos globulares, un misterio científico sin resolver

 

Durante cientos de años, se han relatado breves encuentros con rayos globulares, una especie de esfera luminosa del tamaño de una pelota de tenis que irrumpe generalmente durante las tormentas. El fenómeno es de lo más extraño. Aunque los detalles de los testigos pueden variar, la aparición se ha descrito como un objeto flotante en forma de esfera, de bastón o de lágrima que se mueve por el aire a diferente velocidad e incluso va acompañado de un ruido parecido a un silbido o a un crepitar de agua hirviendo.

Existen miles de informes de testigos e incluso algunas fotografías. Durante la Segunda Guerra Mundial, los pilotos aliados informaron haber sido escoltados en muchas ocasiones por este tipo de centellas en la punta de las alas de sus aviones, un fenómeno al que llamaron «Foo Fighters», un «objeto volante no identificado» que algunos han querido confundir con señales llegadas de otros mundos. Dejando de lado las especulaciones más extravagantes, los científicos nunca se han puesto de acuerdo sobre la causa de la aparición de estas bolas eléctricas e incluso muchos han creído que se trata de un mito. Ahora, investigadores de la Universidad de Innsbruck, en Austria, creen que han encontrado una solución al misterio. Como sucede durante las tormentas eléctricas, sugieren que la centella es realmente una alucinación inducida por la estimulación magnética del córtex visual del cerebro o de la retina del ojo.

Ilustración francesa de un rayo globular / Mary Evans Picture Library, Alamy
 


Colores y olores
En experimentos anteriores, otros científicos expusieron a voluntarios a unos cambios bruscos y rápidos del campo magnético utilizando una máquina llamada estimulador transcraneal magnético (TMS). Los campos magnéticos de la máquina son lo suficientemente poderosos para inducir corrientes eléctricas en las células del cerebro humano sin hacerle daño. Cuando el campo magnético se dirigió al cortex visual del cerebro, los sujetos vieron discos luminosos y líneas. En su investigación, publicada online en arXiv.org, Joseph Peer y Alexander Kendl argumentan que los globos oculares podrían tener el mismo efecto en las personas.
De hecho, los investigadores creen que la mitad de los casos de rayos globulares son trucos de la mente inducidos por el magnetismo. Sin embargo, no todos los científicos están de acuerdo. Según explica a la revista National Geographic John Abrahamson, químico de la Universidad de Canterbury (Nueva Zelanda) y experto en este fenómeno, «es difícil de creer que la mayoría de imágenes de estas centellas se deba a una influencia del cerebro». Por un lado, los colores de la luz vistos por los sujetos del experimento fueron «blanco, gris o tonos saturados», cuando las centellas se han visto en variedad de colores, desde el naranja al azul y verde. Además, ¿de dónde salen los sonidos? ¿Se los inventa también el cerebro? Incluso algunos han asegurado sentir un olor determinado. Cuando el mismo fenómeno ha sido visto por un grupo, los testigos lo han observado desde diferentes ángulos, lo que sería muy poco probable si su cerebro estuviera siendo estimulado por un campo magnético y se produjera una alucinación.
Algunos investigadores han conseguido recrear episodios similares en laboratorio, lo que podría ayudar a explicar el enigma en la naturaleza.

 

 

-"No nos iremos a Venus de vacaciones, de momento"

Michio Kaku (San José, California, 1947) es experto en teoría de cuerdas y catedrático de Física Teórica en la Universidad de Nueva York. También es uno de los divulgadores científicos más conocidos de su país. Pero, además, es un gran fan de las películas de ciencia-ficción y asegura que casi todo lo que se plantea en ellas acabará cumpliéndose. Kaku inauguró ayer el BDigital Global Congress en Barcelona con una conferencia sobre la Internet del futuro.

¿Qué nos depara la Red?

Dentro de diez años, los ordenadores estarán en todas partes y en ninguna al mismo tiempo, como la electricidad, que no la vemos pero está en cualquier lugar. Internet también estará en todas partes.

Hasta en lentillas, como ha dicho en su charla...

Sí, por ejemplo. Parpadearás y estarás on-line; podrás ver una película, hablar con gente, abrir documentos, identificar la cara de las personas, su biografía... Las lentillas nos traducirán idiomas extraños y podrán recrear el Imperio Romano en su esplendor mientras paseamos por sus ruinas.

Suena a película. ¿Es creíble?

Hace 20 años nadie creía que habría ordenadores baratos, y los hicimos y los vendimos.

¿Lo mejor está por llegar?

Sí, por ejemplo, en medicina. Vamos a poder crear órganos del cuerpo humano a partir de nuestras propias células; dentro de cinco años tendremos el primer hígado, y eso lo cambiará todo. Será una revolución en el futuro en la cura de enfermedades como la diabetes.

¿Caminamos hacia el fin de las enfermedades?

Siempre las habrá, porque hay miles de gérmenes más antiguos que nosotros. La mayoría de enfermedades humanas proviene de los animales, y siempre va a haber animales.

Michio Kaku, ayer, en el Caixafòrum de Barcelona.josé colón

 

Pero, ¿iremos al médico, o ya ni siquiera eso?

El médico, en realidad, será un software.

Ha declarado que el 80% de lo que vemos en las películas de ciencia-ficción se terminará convirtiendo en realidad.

Sí, por ejemplo, la invisibilidad. Los objetos muy pequeños, de hecho, ya hemos conseguido hacerlos invisibles en laboratorio. Es decir, ya tenemos los medios para lograr la invisibilidad. Otro ejemplo es viajar a la velocidad de la luz. Sin embargo, para eso me temo que tardaremos más tiempo.

Otro tema recurrente de la ficción es el viaje en el tiempo...

No hay ninguna ley de la física que diga que viajar en el tiempo sea imposible. Por regla general, la ciencia-ficción va mucho más allá, se adelanta a la ciencia por lo menos en 50 o 60 años.

Parece usted disfrutar de lo que hace.

Sí, me lo paso muy bien con mi trabajo. Pero una de las claves es transmitirlo y, al hacerlo, detecto que la gente tiene una forma de ver el futuro un poco distorsionado: cree que vamos a tener vacaciones en Venus. Y eso no va a ocurrir... Al menos, de momento.

Fuente: publico.es, 18-5-10

 

-Una extinción masiva de peces primitivos propició el origen de los vertebrados modernos

Una extinción masiva de peces primitivos hace 360 millones de años está detrás del origen de todos los vertebrados modernos, incluidos los seres humanos. Así lo aseguran dos investigadores de la Universidad de Chicago -Lauren Sallan y Michel I. Coates-, que han buceado en las bases de datos de todos las especies fosilizadas de aquel momento.

El investigador Michael I. Coates, junto a un fósil de un tiburón.| Janson Smith

 

Esta catástrofe, cuya causa podría haber sido una glaciación, se conoce como evento Hangenberg y podría haber sido mucho más importante de lo que se pensaba hasta ahora porque provocó un cuello de botella de las especies que existían en ese momento, justo después de la masiva extinción del Devónico, que tuvo lugar 15 millones de años antes.

Los científicos apuntan que en ese momento desaparecieron los peces placodermos acorazados, como el 'Dunkleosteus' gigante, uno de los depredadores marinos más fieros que han existido, y los peces con aletas pedunculadas, que eran mayoría. Por contra, los tiburones y las rayas, del grupo de peces cartilagaginosos, eran escasos, así como los tetrápodos o peces con patas.

"Sin embargo, al final del Devónico, todo esas especies dominantes fueron reemplazadas. Los jugadores cambiaron y los pocos que sobrevivieron fueron los que luego se extendieron de forma espectacular", explica Michael Coates.

De hecho, antes de ese evento Hangenberg, los tetrápodos, de donde proceden todos los vertebrados terrestres, incluido el ser humanao, habían hecho ya alguna tentativa de salir del agua a la tierra, como es el caso de Ichthyostega, uno de los primeros en tener patas y dedos.

Tras la extinción, hubo un periodo en el que casi no se resgistran fósiles, un agujero paleontológico conocido como Romer's Gap que traía de cabeza a los expertos.

Ahora, Sallan y Coates defienden que ese boquete de 15 millones de años fue la resaca después del traumático cataclismo de Hangenberg, debido a la disminución de la biodiversidad general. Poco a poco, los tetrápodos se recuperaron y se convirtieron en los abuelos ancestrales de los los animales terrestres vertebrados, desde los mamíferos a los pájaros, según explican esta semana en la revista 'Proceedings of National Academy of Science' (PNAS).

Para el paleontólogo José Luis Sanz, catedrático en la Universidad Autónoma de Madrid, se trata de una investigación interesante: "Perfila mejor los cuellos de botella por los que pasaron los vertebrados, lo que es importante porque podría considerarse una sexta extinción del pasado y ahora estaríamos en la séptima", argumenta.

Las estimaciones anteriores se habían realizado siempre con fósiles de invertebrados, como moluscos y almejas) que son mucho más comunes, pero gracias a nuevas técnicas de procesamiento de datos, los biólogos de Chicago han podido observar los cambios antes y después dde Hangenberg.

Esta gran extinción, que había pasado bastante inadvertida y que tuvo lugar en un momento crítico para los vertebrados, según otros estudios coincide con la formación de un glaciar que hizo bajar el nivel del mar drásticamente.

Sanz recuerda que en esos momentos se produjeron aumento de nutrientes en el agua y falta de oxígeno en algunos niveles, lo que provocó muchos cambios en la fauna. Algunos inesperados, como el hecho de que las especies más abundantes no se recuperaran y si lo hicieran otros grupos que estaban separados y dispersos.

Fuente: elmundo.es, 18-5-10

 

 

-El cambio climático podría provocar la extinción del 20% de las especies de lagartos y lagartijas en el 2080

Una investigación internacional con participación del Consejo Superior de Investigaciones Científicas (CSIC) ha calculado que, en 70 años, se extinguirán un 20% de las especies de lagartos y lagartijas del planeta como consecuencia del cambio climático. En total, según sus cálculos, podrían desaparecer unas 1.300 de las 5.100 especies de saurios conocidas a través de la paulatina extinción del 39% de sus poblaciones locales. Este fenómeno, según los autores, podría atajarse mediante la reducción de las emisiones de COpero, aunque se tomen medidas, las conclusiones del estudio consideran inevitable que, para 2050, un 6% de las especies de saurios se haya extinguido.

Imagen 1: Aún quedan muchas especies de lagartos y lagartijas por descubrir y un gran número de ellas puede desaparecer antes incluso de ser conocidas por el ser humano. En la imagen, un ejemplar de una especie por clasificar de Lilolaemus en Bolivia; Imagen 2: Furcifer lateralis, especie que puede encontrar en Madagascar, uno de los puntos más amenazados por la extinción a gran escala que predice la investigación; Imagen 3: Otra de las especies encontradas en Madagascar y en peligro de extinción es Phelsuma quadriocellata; Imagen 4: Ejemplares de Lacerta schreiberi; Imagen 5: El investigador del CSIC Ignacio De La Riva; Imagen 6: Uno de los hábitats donde se pueden encontrar lagartos, un bosque húmedo en Perú, que puede verse afectado por el cambio climático. Crédito de las imágenes: Ignacio De La Riva/CSIC

 

La previsión establecida en el estudio es fruto de un modelo matemático de riesgo de extinción que ha sido validado con trabajos de campo en cuatro continentes. El estudio, en el que colaboran 26 científicos de 12 países, ha sido publicado en el último número de la revista Science.

Dirigido por el investigador de la Universidad de California, en Santa Cruz (EEUU), Barry Sinervo, la investigación cuenta con la participación del investigador del Museo Nacional de Ciencias Naturales (CSIC), en Madrid, Ignacio De la Riva. El biólogo del CSIC ha participado hoy, junto a Sinervo y al investigador del Centre National de la Reserche Scientifique Jean Clobert, en una rueda de prensa convocada por la revista científica en el marco del congreso Media for Science Forum organizado por la Fundación Española para la Ciencia y la Tecnología en Madrid.

La investigación comenzó con la constatación de que ciertas poblaciones de lagartija de turbera (Zootoca vivipara) de Francia se habían extinguido. Igualmente, miembros del equipo comprobaron, sobre un total de 48 especies de lagartijas mexicanas del género Sceloporus, que los animales habían desparecido en el 12% de las 200 localidades muestreadas, pese a que su hábitat permanecía aparentemente intacto.

Sendos hallazgos llevaron al grupo a desarrollar un modelo artificial de lagarto con microchips que medía la temperatura operativa en diferentes condiciones durante cuatro meses, tanto en localidades donde las poblaciones de estos reptiles habían sobrevivido como en aquellas donde habían desaparecido. Los resultados de la prueba fueron concluyentes: en los lugares donde se habían producido extinciones, los lagartos no habrían tenido tiempo de alimentarse ni de reproducirse adecuadamente, ya que las altas temperaturas les obligarían a permanecer la mayor parte del tiempo guarecidos en sus refugios.

A partir de esta primera aproximación, los investigadores elaboraron el mencionado modelo matemático de riesgo de extinción que contemplaba las variables climáticas y las variables fisiológicas relacionadas con la regulación térmica de los reptiles. Sus resultados fueron validados en un trabajo de campo posterior realizado en Francia y en México. De hecho, estas prospecciones desvelaron que, en ciertos casos, las extinciones son más rápidas de lo esperado porque una especie capaz de adaptarse eliminaba por competencia a la que no lo era.

¿Por qué analizar la temperatura y la fisiología de los reptiles? Ignacio De la Riva explica que numerosos lagartos y lagartijas de los cinco continentes presentan limitaciones fisiológicas que les impiden responder con celeridad al ritmo actual del incremento de las temperaturas. Muchos de ellos no son capaces de introducir variaciones en su fenología, es decir, en los ritmos y épocas de sus ciclos vitales, como la reproducción o su comportamiento.

Según apunta, la estrategia inevitable para eludir los efectos del calentamiento del clima es que los animales cambien su distribución geográfica, tanto altitudinal como latitudinal. “Esto ya se está observando en la actualidad en numerosas especies animales y vegetales. Pero esto no bastará para evitar la extinción de muchas especies de saurios de montaña, que, sometidas además a la competencia creciente con las especies de zonas más bajas, a menudo se quedarán sin hábitat a medida que asciendan en altitud”, señala el investigador del CSIC.

El último paso fue recopilar datos de las variables empleadas abarcando el mayor número posible de lugares y especies, para así poder realizar predicciones globales. De nuevo, los pronósticos se comprobaron sobre el terreno en poblaciones de lagartos de cuatro continentes. En total, se cruzaron datos de 1.216 poblaciones de 587 especies repartidas entre 34 familias de saurios. Los datos globales concluyeron que Madagascar podría ser ya una de las zonas más afectadas por el impacto del cambio global, con un 21% de poblaciones extintas. Además, el estudio prevé que las especies que ya están experimentando pérdidas de población a nivel local serán las más proclives a la desaparición.

Evitar extinciones

Muchas de estas extinciones, sobre todo las de aquellas especies que habitan en regiones montañosas tropicales, podrían evitarse si se tuviera éxito en la reducción de emisiones globales de COpara 2080. “En cualquier caso, la actual evolución del cambio climático sugiere que resultará inevitable que, en 2050, el 6% de las especies de saurios se haya extinguido. El modelo pronostica que para esa fecha habrá desaparecido el 16% de sus poblaciones locales, una cifra que llegará al 23% en zonas ecuatoriales”, concreta el investigador del CSIC.

Como explica De la Riva, “la pérdida de diversidad de lagartos y lagartijas tendrá consecuencias en cascada para toda la cadena alimentaria, dado que estos reptiles son presa frecuente de un gran número de depredadores, tanto mamíferos como aves, además de otros reptiles. Asimismo, los propios lagartos depredan activamente sobre invertebrados y pequeños vertebrados”.

El biólogo destaca que quedan muchas especies de saurios por descubrir. Lo ejemplifica con la situación de las lagartijas del género Liolaemus de los Andes Centrales, a las que ha dedicado parte de su trabajo, en colaboración con los investigadores del CSIC José Manuel Padial y Noemí Goicoechea. Este grupo, representado en la investigación que publica Science, incluye más de 200 especies descritas hasta la fecha. Un amplio número de ellas se caracteriza por gestar a sus hijos en el interior de sus cuerpos en vez de poner huevos, como adaptación a las frías temperaturas. “Aún queda multitud de especies por conocer, pero estos lagartos podrían estar encarando ya una pérdida importante de su diversidad. El modelo predice además el doble de riesgo de extinción para las especies de saurios vivíparas frente a las ovíparas”, afirma.

Impacto en España

“El cambio climático modificará la distribución de varias especies de saurios típicos de la Península Ibérica, poniéndolas en peligro en muchos casos”, estima De la Riva. De hecho, el estudio ya reporta extinciones locales en Europa para una de las lagartijas presentes en el país, la lagartija de turbera. “Un ejemplo del impacto podrá verse en una joya endémica peninsular, el lagarto verdinegro (Lacerta schreiberi), que presenta ciertas poblaciones ya escasas y restringidas en el centro de España. Esta especie requiere temperaturas frescas y humedad y, por ello, las poblaciones en esas zonas son firmes candidatas a desparecer”, destaca De la Riva.

La investigación documenta un nuevo caso de declive y extinciones a gran escala, que se suma al de los anfibios. De la Riva, que lleva más de 20 años estudiando anfibios y reptiles tropicales, puntualiza que en este segundo caso las desapariciones se deben principalmente a la expansión de un hongo patógeno que causa una enfermedad mortal en muchas especies y cuya relación con el cambio climático es todavía tema de debate en el seno de la comunidad científica. “También murciélagos, aves y muchos otros tipos de organismos terrestres y acuáticos están siendo afectados directa o indirectamente por el rápido calentamiento global”, concluye el investigador del CSIC.
 

Fuente: CSIC, 17-5-10

 

-La llave de la enzima de la inmortalidad

Sin la proteína TPP1 la enzima telomerasa no se puede unir al telómero y por tanto no es capaz de actuar. Aunque parezca mentira en un área tan estudiada que ha merecido el premio Nobel, esta llave de un mecanismo celular básico no se conocía hasta ahora, cuando la han descubierto científicos del Centro Nacional de Investigaciones Oncológicas (CNIO) liderados por María A. Blasco. Algunas de las estrategias actuales contra el cáncer se centran en impedir la acción de la telomerasa, una enzima que facilita que las células (incluidas las cancerosas) se multipliquen indefinidamente y sean inmortales. La telomerasa solo es efectiva cuando se une al telómero, la estructura que hay al final de los cromosomas y cuya función es proteger el material genético.

Los telómeros a su vez están protegidos por un grupo de seis proteínas y el nuevo estudio muestra que una de ellas, TPP1, es el elemento de unión entre la telomerasa y el telómero. En ausencia de TPP1 la telomerasa no es capaz de actuar porque no se asocia al telómero.

Para demostrarlo, las investigadoras Agueda M. Tejera y Martina Stagno, dirigidas por Blasco, crearon un ratón sin esta proteína en la células epiteliales. Este ratón presentó telómeros dañados y más cortos de lo habitual debido a que la telomerasa no hacía su función. Debido a esta alteración, las células madre de los ratones no eran capaces de regenerar tejidos y estos mostraban patologías degenerativas.

El descubrimiento de que TPP1 es imprescindible para la función rejuvenecedora de la telomerasa fue confirmado usando técnicas de reprogramación nuclear. La reprogramación nuclear consiste en crear células madre embrionarias a partir de células adultas (las denominadas induced pluripotent stem cells o iPS).

 

Este proceso requiere el alargarmiento de los telómeros por la telomerasa. "Las células iPS deficientes en TPP1 no son capaces de alargar sus telómeros durante la reprogramación celular, al igual que ocurre en ausencia de telomerasa", apunta Rosa María Marión, investigadora del equipo. Según Blasco, que recibió recientemente, junto a José María Gatell, los Premios Fundación Lilly de Investigación Biomédica 2010, este descubrimiento, que se publica en Developmental Cell, "abre nuevas vías en el tratamiento del cáncer. Hasta ahora las terapias contra el cáncer buscan eliminar la telomerasa del tumor y este estudio demuestra que otra opción sería eliminar TPP1".

Fuente: elpais.com, 17-5-10

 

-Más de 2000 especies de flora insulares están al borde de la extinción

Entre 2.000 y 2.800 especies de plantas insulares estarían al borde de la extinción en todo el mundo, y entre 3.500 y 6.800 sufren serias amenazas para su supervivencia, informó el investigador del Jardín Botánico Canario 'Viera y Clavijo' de Gran Canaria Juli Caujapé.
 

Tajinaste del Teide

 

Así lo demuestra un estudio, coordinado por Caujapé, que recopila y contrasta datos sobre la biodiversidad terrestre de 53 archipiélagos del mundo e incluye unas 10.000 especies de plantas endémicas.

La investigación ha detectado trece factores de amenaza en diez archipiélagos, entre ellos Canarias, algunos de ellos biológicos y otros de tipo socioeconómico, explicó Caujapé en una entrevista con Efe.

Entre las amenazas biológicas están la fragmentación y la escasa población de una especie, la falta de cooperación entre individuos de especies diferentes, la destrucción o alteración de su hábitat, la presencia de plantas invasoras introducidas, así como vertebrados e invertebrados invasores foráneos, la contaminación y los cambios en el clima. En cuanto a los socioeconómicos, destaca el crecimiento económico y demográfico, la falta de leyes, la escasa educación y conciencia medioambiental, la sobreexplotación y la inadecuada gestión de los recursos naturales. En Canarias, unas cien especies de flora endémicas de las islas, de las 610 existentes en el archipiélago, están gravemente amenazadas, al igual que sucede en otras zonas insulares del mundo. Algunas de las plantas amenazadas son especies tan conocidas como el Verode, el Drago de Gran Canaria y varios tipos de Taginaste, Salvia y Siempreviva.


 La isla con mayor número de especies endémicas es Tenerife, seguida de Gran Canaria, La Gomera, La Palma, El Hierro, Fuerteventura y Lanzarote.

Sin embargo, en cuanto a densidad -entendida como ejemplares de plantas endémicas por metro cuadrado-, destaca La Gomera, indicó Caujapé, biólogo molecular. Aproximadamente el 35 por ciento de los endemismos canarios tiene su origen en el Mediterráneo, el 25 por ciento en el oeste de África y otra parte importante es originaria de la Macaronesia, además de una proporción menor que proviene de América y del este de África. Con el fin de garantizar la pervivencia de las especies amenazadas, el Jardín Canario cuenta con un banco de semillas con más de 3.300 muestras recolectadas en su hábitat natural, pertenecientes a 450 especies endémicas, procedentes tanto de Canarias como de otros archipiélagos de la Macaronesia.

El Jardín Canario dispone también de un banco de ADN, creado en 2004, con más de 1.500 muestras de material genético vegetal, que representan a 379 poblaciones de 203 especies de plantas vasculares canarias o macaronésicas.

Desde su fundación en 1952, el Jardín Botánico Canario 'Viera y Clavijo' es una institución de referencia en Gran Canaria para la caracterización, investigación y conservación de la biodiversidad vegetal terrestre del archipiélago y de la conservación.

Fuente: EFE, 16-5-10

 

 

-La NASA sigue adelante con programas cancelados

La NASA se acerca cada día, un poco más, al caos. Mientras los nuevos planes trazados por Barack Obama esperan su complicada aprobación en el Congreso, la agencia sigue adelante con proyectos antiguos que el presidente de EEUU quiere eliminar.

La estructura de lanzamiento de los cohetes Ares', que Obama quiere desechar.NASA

La semana pasada, la NASA probó con éxito un sistema de seguridad de las cápsulas Orión, que deberían llevar astronautas a la Luna en 2020 dentro del programa Constellation. Lo aprobó el anterior inquilino de la Casa Blanca y Obama quiere ahora acabar con él como parte del "audaz nuevo rumbo" que ha planeado para la agencia en los próximos 20 años. Mientras su propuesta no se apruebe en ambas cámaras, los planes antiguos deben seguir adelante por ley, con lo que la agencia se expone a gastar millones de dólares en sistemas que podrían no usarse jamás.

Entre tanto, siguen las críticas a los planes del presidente. "La propuesta no presenta retos, no está centrada; es un plan para no llegar a lugar alguno", señaló el miércoles el ex astronauta Gene Cernan, el último hombre que pisó la Luna. Cernan habló ante un comité del Senado en el que se discutieron los planes de Obama, que incluyen usar naves rusas y vehículos espaciales privados para alcanzar la Estación Espacial Internacional (ISS).

"Creo que al presidente le han aconsejado mal", espetó Neil Armstrong, el primer hombre que pisó la Luna en 1969. Ante él estaban John Holdren, el principal asesor científico de Obama, y Charles Bolden, director de la NASA. Holdren volvió a señalar que Constellation era insostenible y nunca llegaría a su objetivo de pisar la Luna a tiempo. "Estaba claro que era hora de apretar el botón de reinicio", señaló. Bolden defendió la colaboración con Rusia y dijo que los vehículos privados podrían estar listos en tres años. Cernan contestó que tardarán al menos una década.

 

Quejas demócratas

Otro ex astronauta de las filas de Obama lidera un proyecto para dar marcha atrás al plan del presidente. Se trata del senador demócrata Bill Nelson, que va a proponer conservar los cohetes Ares, cuya construcción fue aprobada como pilar del Constellation. Se convertirían ahora en el primer prototipo de vehículo pesado para llegar más allá de la ISS a partir de 2020. La propuesta, que según Nelson ahorraría cientos de despidos, cuenta ya con el apoyo de otros senadores republicanos. De salir adelante, supondría una nueva renuncia del presidente a trazar un plan nuevo. El mes pasado ya se vio obligado a conservar las cápsulas Orión como vehículo de emergencia.

El proyecto de Nelson requiere unos 726 millones de dólares más de lo previsto (558 millones de euros) en un año en el que la crisis ha obligado a aprestarse el cinturón. Otro informe realizado por el National Research Council alertaba el martes de que la agencia necesita invertir 2.400 millones de dólares (unos 1.800 millones de euros) para rehabilitar sus laboratorios, que están en una situación crítica debido a la falta de dinero. Otra de las grandes apuestas de Obama, un giro hacia la investigación básica, podría no ser posible sin una mayor inversión ya que, según el trabajo, la escasez presupuestaria "pone en peligro que la NASA pueda cumplir sus planes de futuro".

Fuente: publico.es, 15-5-10

 

 

-El Atlantis parte en su última misión a la Estación Espacial Internacional

En condiciones meteorológicas óptimas para el lanzamiento, el Atlantis despegó del Centro Espacial Kennedy, en el sur de Florida, a las 18.20 GMT, en la que supone su trigésima segunda misión al espacio. Menos de tres minutos después del despegue se separaron los dos cohetes propulsores de combustible sólido, y la nave, montada en un enorme tanque cuyos compartimentos estaban cargados con 2 millones de litros de oxígeno e hidrógeno líquidos, se remontó a una órbita a unos 400 kilómetros de la Tierra.

La separación de los cohetes marca un momento crucial en la partida de los transbordadores. En principio, los astronautas adentro de la cabina sienten como si la nave perdiera velocidad pero, en realidad está acelerando más hasta el momento en que se encienden los motores de separación. Los astronautas pueden escuchar la detonación y pueden ver el resplandor a través de las ventanas de la cabina. Casi nueve minutos después la nave y el tanque, de unos 15 pisos de altura, se separaron y el transbordador llegó a su órbita.

El astronauta Ken Ham comanda una tripulación en la cual todos son veteranos del espacio: el piloto Tony Antonelli, y los especialistas de misión Michael Good, Garrett Reisman, Piers Sellers y Steve Bowen. El domingo el Atlantis se acoplará en la EEI, un complejo que orbita a 27.000 kilómetros por hora, y los astronautas empezarán sus trabajos de abastecimiento y construcción que incluyen tres jornadas de labores extravehiculares o caminatas espaciales.

Estados Unidos inauguró las misiones de transbordadores en abril de 1981 y la agencia espacial NASA llegó a tener una flotilla de cinco de estas naves que parten montadas en cohetes y retornan a la Tierra como planeadores.

En 1986 el transbordador Challenger estalló a pocos minutos de su partida en un accidente en el cual murieron siete astronautas. En 2004, el Columbia, con siete astronautas a bordo, estalló y se desintegró cuando retornaba a la Tierra. En el caso del Columbia, la investigación posterior llegó a la conclusión de que los daños causados en la partida por trozos de espuma aislante desprendidos del tanque externo y que golpearon las cubiertas térmicas de la nave, permitieron el ingreso de gases a muy alta temperatura cuando el transbordador ingresó en la atmósfera.

Desde entonces todas las misiones de transbordadores están rodeadas de mucha atención de los técnicos que observan vídeos y otros sensores a la búsqueda de rupturas en los paneles térmicos que protegen la panza, la nariz y los bordes delanteros de la nave.

La NASA tiene planificadas otras dos misiones de transbordadores: el 16 de septiembre está programado el lanzamiento del Discovery, y a mediados de noviembre el Endeavor cerrará este capítulo de la exploración espacial. A partir de entonces, las labores de avituallamiento de la EEI las realizarán las naves rusas Soyuz y Progreso.

Durante la misión los seis tripulantes del Atlantis entregarán a la EEI un compartimiento integrado de carga y un módulo de investigaciones científicas construido por la agencia espacial rusa. Ese módulo proporcionará espacio adicional de almacenamiento así como un nuevo punto de acoplamiento para las naves rusas Soyuz y Progreso. Además de vituallas para los ocupantes de la EEI, el Atlantis también lleva un conjunto de seis baterías que se utilizarán en la viga central del complejo, una antena, repuestos para el brazo robótico de la estación y otros equipos.

Fuente: EFE, 14-5-10

 

-¿Y si el Big Bang no fue el comienzo de todo?

¿Qué vino antes, el huevo o la gallina? La ciencia todavía no está segura de tener la respuesta, pero una nueva corriente de físicos cree que, en todo caso, el 'Big Bang' sólo fue un huevo… que nació de una gallina universal, que a su vez fue un huevo que nació de otra gallina, y así indefinidamente.

Sean Carroll es uno de esos físicos. Sus argumentos a favor de una nueva teoría del tiempo y su excelente capacidad divulgadora le han catapultado a la fama, al menos en Estados Unidos. Esta semana, antes de firmar su último libro ante una horda de fans, este cosmólogo del Caltech (California Institute of Techonology) dedicó una hora a explicar, ante el atónito público del Museo de Historia Natural de Nueva York, la flecha del tiempo, o lo que es lo mismo, la dirección que sigue el tiempo, el transcurso, lo que hace que sea distinto el ayer del mañana.

Recreación artística del "Big Bang"

 

En nuestro mundo, explicó, el tiempo sólo sigue una dirección: de pasado a futuro, y se caracteriza por la irreversibilidad. En su ejemplo más famoso, siguiendo con las aves de granja, podemos hacer que un huevo se convierta en tortilla, pero no que una tortilla se convierta en huevo. ¿Por qué? Por la entropía, el desorden al que tiende el Universo.

Una habitación se desordenará sola si no hacemos nada por evitarlo. En cambio, muy a nuestro pesar, requerirá un esfuerzo devolverle el orden inicial. Este simple ejemplo es atribuible a todo el Universo: cada vez es más desordenado, hoy más que ayer y ayer más que el día anterior, así hasta remontarnos hasta sus "inicios", hace 13.500 millones de años, cuando surgió a través del 'Big Bang' en un estado de muy baja entropía, o mucho orden.

Hacia el vacío total

¿Y por qué el Universo tenía muy baja entropía en su nacimiento? No hay una respuesta clara, pero posiblemente fue porque es la forma más fácil que tiene un Universo de nacer, dice Carroll: un sistema muy caliente y altamente denso, capaz de albergar 100.000 millones de galaxias con 100.000 millones de estrellas cada una (como hay ahora), necesita mucho orden para mantenerse en un "espacio compacto". Desde entonces, el Universo no para de expandirse. ¿Hacia dónde? Hacia el infinito. ¿Hasta cuándo? Hasta el infinito. No hay fin.

Los físicos creen que en un gúgol de años (10 elevado a 100), el Universo se vaciará por completo: todos sus elementos habrán caído en los agujeros negros, e incluso los agujeros negros se habrán disuelto. Y aun así, continuará expandiéndose. Sin embargo, los físicos también saben que incluso el vacío guarda cierta cantidad de energía, la energía oscura, y la física cuántica nos dice que siempre quedarán partículas pululando. Suficiente como para que, después de muchísimo tiempo, un pequeño espacio del Universo vacío se desprenda como una gota: puede ser independiente, o puede estar contenido dentro del Universo materno, pero será el nacimiento de un nuevo Universo. Un Big Bang, que por leyes naturales tendrá muy baja entropía y empezará a enfriarse y a expandirse hasta vaciarse, para dar lugar, mucho tiempo después, a un nuevo Universo, y así sucesivamente, hasta el infinito.

Flechas simétricas del tiempo

Para Carroll el vacío es, en realidad, el estado natural de las cosas, y nosotros somos una excepción nacida de las fluctuaciones aleatorias de la energía. Si de algo dispone el Universo, o los universos o multiversos, es de tiempo. Con suficiente tiempo se pueden obtener todo tipo de combinaciones posibles. Incluso que una tortilla pueda volver a ser huevo. Pero se necesitaría mucho más tiempo del que lleva existiendo nuestro Universo.

¿Y cómo es el tiempo en un Universo vacío? El tiempo existe aunque no haya nadie ni nada para experimentarlo. Es una coordenada, como lo es el espacio. Y a este respecto, las leyes físicas no hacen distinción entre pasado y futuro; no hay flecha del tiempo en las leyes fundamentales de la naturaleza. Las cosas podrían ocurrir simultáneamente en otro Universo distinto al nuestro, o fuera del nuestro. Los físicos hablan de equilibrio térmico cuando no hay flecha del tiempo, cuando la entropía es siempre la misma. Entonces es todo estático, nada cambia.

Según explica Sean Carroll, del 'Big Bang' para acá el tiempo ha seguido una dirección: de pasado a futuro. Pero no hay nada que impida pensar que, del Big Bang para atrás, la flecha del tiempo siguió la dirección opuesta, o más bien simétrica. Y del mismo modo en que, para nosotros, todo lo que pudo haber antes del Big Bang es un pasado muy remoto, nosotros somos un pasado muy remoto para los Universos que nacieron en dirección opuesta.

'Einstein se equivocó'

"¡No es posible!", le dice mucha gente a Carroll. "¡Einstein dijo que antes del 'Big Bang' no podía haber nada!". La respuesta de este popular cosmólogo es muy sencilla: Einstein se equivocó. "La teoría de la relatividad ha resultado no ser del todo correcta. Por ejemplo, no es compatible con la física cuántica. Lo que Einstein quiso decir es que más allá del Big Bang, se acaba nuestra capacidad de comprensión", explicó durante su brillante charla, aun asumiendo que no hay certidumbres, sino "aproximaciones honestas" a la realidad del mundo físico. (Como diría el divulgador británico Simon Singh, sólo las matemáticas son capaces de asentar teoremas absolutos).

Después de su conferencia, resulta inevitable una sensación de vértigo ante el abismo que nos espera: un Universo vacío, sin fin, que se repite constantemente. (Nada indica, sin embargo, que las leyes físicas tengan que manifestarse de la misma forma en cada uno de los Universos; para nuestra tranquilidad, no parece que estemos condenados a vivir la misma vida una y otra vez, eternamente).

Cuando se exponen sus teorías en los medios de comunicación, Carroll dice recibir muchas cartas de lectores indignados. "Yo no sé si tú existes, pero yo sí, y no voy a dejar que destruyas el mundo. Creo que tienes demasiado tiempo libre", le increpó un niño de 10 años en una misiva que el científico muestra con orgullo.

Fuente: elmundo.es, 14-5-10

 

 

-El impacto de un cometa o asteroide sobre Júpiter levantó una nube del tamaño de Marte

El último cuerpo que se ha observado que chocara con Júpiter era un asteroide o cometa de menos de un kilómetro de diámetro, creen los investigadores que han estudiado los efectos, perfectamente visibles, del impacto, el primero detectado desde el del cometa Shoemaker-Levy 9, justo 15 años antes.

En los dos estudios publicados ahora participa el grupo de Ciencias Planetarias de la Universidad del País Vasco, liderado por Agustín Sánchez Lavega, junto a otros investigadores españoles.

Fue un astrónomo aficionado australiano quien, el pasado 19 de julio, descubrió la presencia de una mancha negra de grandes dimensiones cerca de la región polar del planeta Júpiter, el mayor del Sistema Solar. El impacto ocurrió apenas unas tres o cuatro horas antes de la detección de la mancha, en el lado oscuro (es decir, de noche) de Júpiter, por lo que no pudo ser observado directamente, y en una latitud muy alta, cerca del polo Sur del planeta. La trayectoria fue opuesta a la que siguieron los fragmentos del cometa Shoemaker-Levy 9.

Alertados los grandes observatorios del mundo, entre ellos el telescopio Hubble, confirmaron en pocas horas que la mancha era el residuo de cenizas dejado tras el impacto de un cometa o asteroide.

Según los análisis, publicados en Astrophysical Journal Letters, la mancha principal, una nube muy negra formada por los residuos del impacto, alcanzó un tamaño de unos 5.000 kilómetros en la atmósfera de Júpiter, si bien estaba rodeada por un halo producido por la caída del material expulsado de la atmósfera de hasta 8.000 kilómetros, un tamaño entre el de Marte y el de la Tierra. "No sabemos si la densa nube de partículas muy finas (apenas una milésima de milímetro) pero muy negras es un producto de los residuos del objeto o bien fueron producidas por las enormes temperaturas generadas en la atmósfera de Júpiter por el impacto", explica Sánchez Lavega.

 

Secuencia del impacto en Júpiter de un cometa o

asteroide el 19 de julio de 2009.- STSCI

En los días siguientes, las cenizas fueron arrastradas por los vientos de Júpiter -que son suaves en estas latitudes- de manera análoga a las del volcán islandés actualmente en actividad. Existen dudas sobre si el astro que impactó en la superficie de Júpiter fue un cometa o un asteroide. Suponiendo que su naturaleza fuese cometaria -es decir, estuviera formado fundamentalmente por sustancias heladas-, el tamaño del bólido habría rondado los 500 metros.

Este segundo impacto detectado con claridad en Júpiter, después de el del cometa Shoemaker-Levy, indica que, probablemente, la caída de objetos de tamaños de 0,5 a 1 kilómetros sobre el planeta es más frecuente de lo que se pensaba: hasta ahora se estimaba en un impacto cada 50 a 250 años como promedio, pero con los nuevos datos puede resultar que acontecimientos como éste podrían ocurrir cada 10 o 15 años.

"El estudio de los impactos en los planetas nos ayuda a entender mejor los que pudieran producirse con la Tierra", concluye Sánchez Lavega. "Si este objeto hubiese impactado con nuestro planeta hubiera producido un enorme cataclismo. Afortunadamente cerca de nosotros hay pocos objetos de este tamaño, y en cierto sentido Júpiter es un paraguas protector, ya que con su enorme gravedad atrae fuertemente hacia sí los objetos errantes del Sistema Solar que pasan por sus proximidades".

Fuente: elpais.comm, 14-5-10

 

 

-Crean un "lego biológico" para construir órganos artificiales

De la misma forma que los niños montan edificios con bloques de Lego, científicos del Instituto Técnico de Massachusets (MIT) han sido capaces de replicar tejido humano en laboratorio ensamblando unas células con otras. Por el momento, los investigadores han conseguido crear vasos sanguíneos, pero la novedosa técnica, bautizada como «micromasonry», puede ir mucho más allá en el futuro y conseguir reproducir órganos completos. Si logra su último objetivo, supondría una auténtica revolución en el campo de la medicina. Miles de personas gravemente enfermas en todo el mundo no tendrían que esperar, en ocasiones de forma angustiante, al trasplante de un corazón o de un hígado.

Media esfera de cubo de polímero construida por los investigadores del MIT / Javier Gómez Fernández

Hasta ahora, uno de los principales obstáculos que los investigadores se han encontrado para «fabricar» órganos artificiales ha sido la posibilidad de «montarlos» en tres dimensiones en lugar de formar estructuras planas. Se han conseguido algunos tejidos simples, sí, como piel o cartílago, pero sin la complejidad de los naturales. Resultaban demasiado pobres. Y esto es lo que ha resuelto el equipo de la División de Ciencias de la Salud y Tecnología (HST) de la Harvard-MIT, como si fuera un juego de niños, pero con células vivas, en un trabajo de microingeniería orgánica digo de admiración.

Como el cemento
Para construir este «Lego biológico», los investigadores emplearon un material similar al gel que cuando se ilumina se endurece y une las células, de la misma forma que el cemento mantiene pegados los ladrillos. Las células toman forma de cubo cuyos lados van desde 100 hasta 500 millonésimas de metro de longitud. Después, los cubos se disponen adecuadamente y se unen de nuevo para crear tejidos artificiales.
Los investigadores han utilizado este método para construir tubos que podrían funcionar como vasos capilares, lo que podría ayudar a superar uno de los problemas más persistentes en la fabricación de órganos, la ausencia de suministro de sangre. «Si construye un órgano, pero no puede proporcionarle los nutrientes, se va morir», explica Javier Gómez Fernández, del HST. Un paso más allá, el trabajo podría conducir a una nueva forma de hacer un hígado artificial o un tejido cardíaco.
Además, el sistema de «legos» tiene la gran ventaja de que no requerir ningún equipo especial. «Se puede reproducir en cualquier laboratorio, es muy simple», asegura Gómez. El trabajo ha sido publicado en la revista online Advanced Materials.

Fuente: abc.es, 14-5-10

 

-Cuatro estudiantes lanzan una base de datos para salvaguardar la naturaleza

En la era de la Web 2.0 el paradigma es la participación. Cada vez más conectados a través de nuevas interfaces tecnológicas móviles, vivimos rodeados de identidades virtuales que twittean compulsiva e indiscriminadamente sus pensamientos, fotos o mensajes. Para encontrar una salida constructiva a toda esta necesidad de compartir información, Yasser Ansari, Martin Ceperley, Bruno Kruse y Peter Horvath, cuatro estudiantes de la Universidad de Nueva York han creado NOAH (Networked Organisms and Habitats), una aplicación para que todos contribuyan de forma activa a la salvaguarda de la naturaleza y la diversidad medioambiental.

El proyecto NOAH (acrónimo en inglés de Red de Organismos y Hábitat) pretende crear una base de datos mundial compartida, que reúna la información sobre todos los organismos vivientes, ya sea flora, fauna u otras formas de vida. La participación empieza descargando la aplicación gratuita para el iPhone desde la tienda App Store.

"La aplicación ya ha sido descargada desde 40 países. Ahora estamos desarrollando una aplicación para Android y, más adelante, la trasladaremos a otras plataformas, incluida toda clase de teléfonos móviles", indica Ansari en nombre de los cuatro jóvenes desarrolladores. Mientras tanto, aquellos que no posean un iPhone y quieran contribuir, pueden hacerlo a través de una simple cuenta de correo Gmail y la web del proyecto.

El objetivo es que los internautas de todo el mundo dejen constancia a través sus fotografías de la variedad biológica del entorno en el que viven, para que esta información sirva de estímulo para conocer mejor y proteger el medio ambiente.

Toda forma de vida, sean plantas comunes o desconocidas, bichos raros o animales domésticos, insectos o especímenes varios, se sube a la web del proyecto, integrándose automáticamente en un mapa interactivo de la Tierra, de modo que todos los datos resulten rápida y fácilmente visualizables.

El proyecto se probó a finales de febrero y se lanzó públicamente durante la semana de la tierra (Earth Week), que se celebró del 22 al 29 de abril. "NOAH es nuestro proyecto de graduación del Interactive Telecommunication Program, un curso de posgrado cuya misión es explorar el uso imaginativo de las tecnologías de la comunicación y cómo pueden incrementar, mejorar y enriquecer la calidad de la vida. Sin embargo, después de la graduación, pensamos dedicarnos a su implementación al 100%", asegura Ansari.

En la primera semana la iniciativa ha recogido alrededor de 2.000 contribuciones. Además de la ubicación y breve descripción del animal o vegetal recopilado, el internauta está invitado a añadir toda la información posible.

"En general, queremos contribuir a que la gente preste más atención a las formas de vida natural que le rodean y aprenda compartiendo sus hallazgos e involucrándose en los debates del foro. Por lo que se refiere a la comunidad científica, esperamos que nuestros datos sean útiles y contribuyan a proteger organismos y ecosistemas amenazados en cualquier parte del mundo", afirman.

Monitorear las mariquitas

Los autores del proyecto, ya están trabajando con varias instituciones naturalistas norteamericanas para la protección y el estudio de mamíferos, insectos, setas y plantas.

Entre otras han colaborado con el Project Squirrel, para ayudarles a recopilar los avistamientos de ardillas y cartografiar sus comunidades; y el Lost Ladybug Project, para que la gente fotografíe e informe sobre la población de mariquitas en Estados Unidos. Ya llevan más de 5.000.

Fuente: elpais.com, 13-5-10

 

 

-Una luz invisible revela el conjunto de galaxias más lejano del universo

Cada vez somos capaces de ver más allá. Un equipo de astrónomos de Japón y Alemania ha descubierto el cúmulo de galaxias más distante del Universo, situado nada menos que a 9,6 mil millones de años luz de la Tierra, y lo han conseguido tras detectar una luz invisible a nuestros ojos. El hallazgo ha sido publicado en la revista Astrophysical Journal Letters.
Masayuki Tanaka, del Instituto de Física y Matemáticas del Universo (IPMU), Alexis Finoguenov, del Instituto Max Planck de Física Extraterrestre, y Yoshihiro Ueda, de la Universidad de Kyoto, han roto un récord. Hasta ahora, el cúmulo más distante conocido se encontraba a 9,2 mil millones de años luz, pero el que han logrado observar los investigadores lo supera en nada menos que 400 millones de años luz.

Según explican los científicos, el Universo es una máquina del tiempo. Es decir, viajas atrás en el tiempo cuanto más te adentras en sus profundidades. Los astrónomos han utilizado este principio para buscar los grupos de galaxias más antiguos, pero la expansión del cosmos empuja a la galaxias lejanas lejos de la Tierra a gran velocidad, de tal forma que desaparecen ante las longitudes de onda visibles y sólo es posible observarlas en longitudes de onda infrarrojas. Este cambio hace que la luz del Universo lejano sea invisible, lo que ha impedido el progreso en el estudio de esta materia durante mucho tiempo.
Tanaka y sus colaboradores descubrieron este cúmulo de galaxias en la constelación de Cetus. La difícil observación fue realizada con un instrumento denominado MOIRCS (Multi-Object Infrared Camera Spectrograph), situado en el telescopio Subaru en Hawai. Gracias a otro instrumento, el X XMM-Newton, fueron capaces de detectar la luz que emiten las altísimas temperaturas de los cúmulos de galaxias y que no es tan azul que no es visible para el ojo humano.
Este cúmulo de galaxias es un laboratorio ideal para estudiar la evolución de otras formaciones semejantes y conocer más sobre el origen del Universo.

 

El cúmulo de galaxias descubierto por los científicos / Masayuki Tanaka

Fuente: abc.es, 13-5-10

 

-Neandertales y sapiens, aún más separados

El último pariente común entre sapiens y neandertales es el doble de viejo de lo que se creía, según un trabajo realizado por investigadores del Centro Nacional de Investigación sobre la Evolución Humana (CENIEH), en Burgos. Los investigadores lo sitúan hace un millón de años. Mientras, el primer genoma neandertal publicado la semana pasada lo databa hace unos 350.000 años.

"Estas conclusiones han sido uno de mis mayores quebraderos de cabeza y yo he sido la primera sorprendida", explica a Público Aida Gómez, quien ha realizado la investigación como parte de su tesis doctoral bajo la supervisión de María Martinón, investigadora de Atapuerca, y José María Bermúdez de Castro, director del CENIEH. Los datos se desprenden del análisis morfológico de unas 1.500 piezas dentales de toda la familia humana (neandertales, sapiens, erectus, habilis o antecessor) y de australopitecos de hace hasta cuatro millones de años, de África, Asia y Europa. Se han analizado con una herramienta informática que compara puntos en los dientes de las especies y calcula su divergencia evolutiva.

"La evidencia real de los fósiles nos dice que el ancestro común de sapiens y neandertales vivió mucho antes de lo que dicen los genes", explica Martinón.

Guerra de cifras

Martinón dice que los neandertales que vivieron hace 600.000 años en Atapuerca ya eran una especie diferenciada de los sapiens. Eso hace imposible que su último ancestro común viviese 300.000 años después, como propone el equipo que ha obtenido el genoma neandertal. Los dientes de otros homininos de la Gran Dolina de Atapuerca, de hace 900.000 años, ya presentaban rasgos que los hacían más neandertales que ancestros del sapiens, añade Gómez.

El ancestro común se ubicaría 100.000 años antes, lo que demuestra que ninguno de los fósiles encontrados hasta hoy es el del ansiado ancestro, ya que no hay fósiles de Homo de esa antigüedad, concluye Martinón.

Aida Gómez, autora del trabajo.A.G

Fuente: publico.es, 13-5-10

 

-Hacer horas extras en el trabajo es perjudicial para el corazón

Investigadores de la University College de Londres, en Reino Unido, aseguran que trabajar más horas de lo debido puede ser perjudicial para el corazón ya que aumenta el riesgo de padecer eventos cardiovasculares, según los resultados de un estudio publicados en la revista 'European Heart Journal'.

Dicha investigación se basado en los datos del estudio 'Whitehall II', realizado con más de 10.000 empleados públicos de la capital británica, y, según los resultados, los que trabajaron al menos tres horas más en una jornada de siete horas diarias tenían un 60 por ciento más de riesgo de padecer un ataque cardiaco, anginas de pecho e incluso de acabar falleciendo por una de estas causas.

Además, como explica la epidemióloga del Instituto Finlandés de Salud Ocupacional y autora de este hallazgo, Marianna Virtanen, esta relación entre horas extras y enfermedades coronarias es "independiente de una serie de factores de riesgo también analizados, tales como fumar, padecer sobrepeso o tener alto el colesterol".

El estudio 'Whitehall II' comenzó en 1985 y reclutó a un total de 10.308 trabajadores de entre 35 y 55 años, si bien los datos utilizados en esta ocasión proceden de la tercera fase del mismo, entre 1991 y 1994, en la que se preguntaba por la horas que dedicaban diariamente a su trabajo.

De este modo, la cohorte analizada contó finalmente con 6.014 personas, 4.262 hombres y 1.752 mujeres, de entre 39 y 61 años, que fueron seguidos hasta el periodo de 2002-2004, la fase más reciente de la que se disponen datos clínicos.

Durante los 11,2 años de media seguimiento, Virtanen y su equipo detectó hasta 369 casos mortales de enfermedad coronaria, infartos de miocardio o angina de pecho y, tras comparar estos casos en función de diferentes patrones, comprobaron que los que pasaban más horas de los debido en su trabajo, siempre por encima de las tres horas extras, tenían una mayor tasa de riesgo.


Los investigadores dicen que podría haber diferentes variables para explicar esta relación, ya que, por ejemplo, hacer horas extras en el trabajo se asocia con patrones de conducta de personas que tienden a ser agresivas, competitivas, estar tensas, con una angustia psicológica que se manifiesta en situaciones de depresión y ansiedad, y posiblemente que no duermen lo suficiente ni descansan lo que debieran en antes de acostarse.

Estrés laboral
Otras posibles explicaciones son que la presión arterial elevada está relacionada con el estrés en el trabajo, si bien se oculta "porque no necesariamente aparecen durante las revisiones médicas", explica esta experta.

Es por ello por lo que los empleados que hacen más horas extras tienen más probabilidades de trabajar incluso estando enfermos, ignorando sus síntomas de y resistiéndose a buscar ayuda médica. Además, también puede asociarse a personas con trabajos con libertad de horario o a la hora de tomar decisiones un menor riesgo de estas patologías coronarias, a pesar incluso de que trabajen más horas de las estipuladas en sus contratos.

En cualquier caso, los autores reclaman más investigaciones que contrasten o rebatan esta relación ya que, además, la cohorte sólo incluye a funcionarios públicos y, por tanto, "no es generalizable a todas las profesiones", como los artesanos o trabajadores del sector privado.

Fuente: EP, 12-5-10

 

-La capa de ozono en la Antártida se recuperará hacia el 2080

A los científicos y a los ecologistas les gusta especialmente la historia del llamado agujero de la capa de ozono: en menos de 20 años se predijo el problema (y después mereció el Nobel), se midió sobre la Antártida y se alcanzó un acuerdo internacional (Protocolo de Montreal, 1987) para prohibir el uso de los compuestos químicos que destruyen el ozono. Este mes se cumplen precisamente 25 años del primer anuncio, en mayo de 1985, del adelgazamiento acusado -agujero- de la capa de ozono sobre el continente blanco. Los científicos han celebrado una jornada conmemorativa en la Universidad de Cambridge (Reino Unido) y han explicado que el grosor de la capa de ozono sobre la Antártida recuperará, en 2080, los niveles de 1950. El paralelismo con el cambio climático no ha podido faltar, pero en este caso teñido de pesimismo, no por falta de conocimiento científico, sino por falta de un acuerdo político eficaz que ataje el problema.

Joseph Farman, Brian Gardiner y Jonathan Shanklin, del British Antarctic Survey (BAS) , informaron, en mayo de 1985, en la revista Nature, acerca del descubrimiento del adelgazamiento de la capa de ozono sobre el continente blanco, en la primavera austral. La revista científica lo recuerda con un artículo de Shanklin en el que cuenta cómo se produjo aquel hallazgo en la estación antártica Halley, al constatar que los valores más bajos de ozono a mediados de octubre (primavera allí) habían caído un 40% entre 1975 y 1984.

"Había ya entonces preocupación acerca de que los CFC [clorofluorocarbonos] podían destruir la capa de ozono, que está a una altura entre 10 y 35 kilómetros sobre la superficie terrestre y que protege a la humanidad de más del 90% de la dañina radiación solar ultravioleta", recuerda Shanklin. Los satélites permitieron constatar que el agujero de la capa de ozono se extendía sobre todo el continente.

Fueron otros científicos, antes que estos tres expertos del BAS, quienes hicieron sonar la alarma con sus estudios acerca de la química atmosférica y la destrucción del ozono por las reacciones de compuestos como los CFC utilizados en los aerosoles y refrigerantes. Por aquellos trabajos de los años setenta recibieron el Nobel de Química, en 1995, Paul J. Crutzen, Mario J. Molina y F. Sherwood Rowland.

 

La capa de ozono es una pantalla natural que filtra la radiación ultravioleta de la luz solar nociva para los seres vivos, capaz de provocar en las personas quemaduras de piel, cáncer y cataratas. Una molécula de ozono está formada por tres átomos de oxígeno y en la estratosfera se concentra en una banda a una altura de unos 20 kilómetros. Hay una molécula de ozono por cada 100.000 moléculas de aire, explica el BAS. Se genera ozono cuando la radiación ultravioleta rompe moléculas de oxígeno, y se destruye por reacciones químicas del cloro y del bromo, emitidos a la atmósfera en los CFC y los halones.

En los ochenta se emitían 500.000 toneladas de CFC al año, alcanzándose un valor acumulado de 30 millones de toneladas en la atmósfera, una sexta parte de las cuales llegaban a la estratosfera, informa la Unidad de Coordinación de Investigación del Ozono de la UE.

Aunque la destrucción del ozono no se limita a la Antártida, el agujero antártico se debe a la meteorología allí y al frío extremo durante el invierno, que reactiva la producción de cloro y bromo a partir de los gases contaminantes; cuando llega la luz de primavera se acelera la pérdida de moléculas de ozono. "Hoy comprendemos bien la física y la química que gobiernan la capa de ozono", dice Shanklin. "Los niveles mínimos de ozono han sido constantes en los últimos 15 años, en un 70% por debajo de los niveles de finales de los setenta".

En cuanto a los destructivos CFC -prohibidos desde 2000 por el Protocolo de Montreal y sustituidos por los compuestos alternativos en sus usos industriales- su nivel alcanzó el máximo en 2001 y luego empezó a decrecer. Pero su efecto es duradero y el agujero antártico sigue apareciendo cada primavera; en 2006 se registró su mayor extensión: 28 millones de kilómetros cuadrados.

Fuente: elapais.com, 12-5-10

 

-Los astrónomos pronto encontrarán lunas fuera del sistema solar y "habitables"

Una científica del Instituto Tecnológico de Massachusetts (MIT, por sus siglas en inglés) Sara Seager ha explicado que por el momento se desconoce la existencia de lunas extrasolares -- fuera del Sistema Solar --, aunque ha destacado que muchos investigadores no descartan el hallazgo e incluso analizar vida dentro de ellos. "Va a suceder, es cuestión de tiempo", ha puntualizado la experta.

Titán

En este sentido, ha indicado que por el momento se conocen cerca de 450 planetas fuera del Sistema Solar, los denominados 'exoplanetas', orbitando alrededor de otras estrellas y muchos de ellos más masivos que Saturno, gigantes de gas sin una superficie sobre la que andar.

No obstante, ha señalado que los planetas gigantes del Sistema Solar, como Júpiter, Saturno, Neptuno o Urano, todos cuentan con múltiples lunas o satélites planetarios, y muchos de ellos con aspectos que podrían favorecer la vida, como atmósferas, campos magnéticos o volcanes activos.

Además, ha añadido que los planetas gigantes vagan por las regiones más frías del Sistema Solar y otros sistemas planetarios muestras planetas masivos, con órbitas de mayor temperatura donde podría registrarse vida y el agua podría persistir. Si estos planetas tuvieran satélites, como la comunidad científica espera, podrían registrar por primera vez vida fuera del Sistema Solar.

Aunque algunas de las lunas del Sistema Solar están siendo estudiadas ante posible vida extraterrestre ninguna reúne todas las características para ser habitable como lo hace la Tierra, ya que orbitan 'a las afueras del Sistema Solar', de forma que sus temperaturas son más bajas.


El investigador del Penn State Erie, Darren Williams, ha comentado que en otros sistemas planetarios estos satélites del tamaño de la Tierra podrían ser los perfectos candidatos para albergar vida. "Algunas podrían formarse propiamente como lunas y después convertirse en satélites de planetas más masivos, de acuerdo con algunos estudios qu
e ya existen que apuntan a que Neptuno captó a Tritón, como satélite.

Fuente: EP, 11-5-10

 

-Frenazo a los biocarburantes

Los biocarburantes se perfilaban como la gran promesa de las energías limpias y como solución a la dependencia del petróleo. A principios de esta década Europa se fijó ambiciosos objetivos y España prometió situarse en la vanguardia. La primera fase ha sido introducir hasta un 5% de combustible de origen vegetal a la gasolina que consumen todos los coches. Prueba superada. Pero la siguiente fase, que obliga a adaptar los coches para asumir mezclas más verdes, ofrece más incertidumbre. Ni las estrategias de los fabricantes ni las apuestas políticas parecen ir ya en la misma dirección. La gran apuesta de la automoción en Europa es ahora el coche eléctrico. ¿Se han quedado definitivamente atrás los biocarburantes en la carrera de la energía sostenible?

La generalización de los B20 y B30 (mezclas con un 20% y 30% de biocarburante, respectivamente) parece más lejana. Las normas que deben fijar los estándares se retrasan. Algo que inquieta a la industria, ya muy castigada por las importaciones de EE UU, y la controversia sobre la responsabilidad de estos carburantes en la deforestación y encarecimiento de los alimentos, que ha llevado a los científicos a abrir nuevas líneas de investigación en busca de materias primas que no compitan con la industria alimentaria. Son los biocarburantes de segunda generación, que aún no han salido de los laboratorios.

La UE se ha marcado el objetivo de que las energías renovables supongan el 10% de la empleada en el transporte en 2020 -responsabilidad que recae principalmente en los biocarburantes, dada la escasa presencia del coche eléctrico en las carreteras- y España se ha impuesto alcanzar un 5,83% ya este año, una meta de difícil cumplimiento en el marco actual, según algunos expertos. En 2009 se matricularon 952.000 vehículos en España, de los que sólo 900 funcionaban con mezclas etiquetadas de biocarburantes, según la patronal de fabricantes Anfac. Los coches flexibles, que aceptan biocarburante o convencional, llevan años en el mercado pero no alcanzan el 1 por 1.000.

Manuel Bustos, director de la Asociación de Productores de Energías Renovables (APPA), hace la fotografía de cómo está el sector en España: "En todas las gasolineras, al poner gasóleo o gasolina hoy, el consumidor está metiendo biocarburante aunque no lo sepa". Esto se debe a que no es necesario etiquetar las mezclas hasta el 5% de biodiésel o bioetanol porque no hay riesgo de daño para el motor. "Desgraciadamente los biocarburantes en porcentajes superiores no se usan en los niveles deseables. La inmensa mayoría de las flotas de autobuses de las grandes ciudades españolas tienen alguno que los utiliza, pero nada más".

Anfac se declara a favor de los biocombustibles pero se remite a la posición de su homólogo europeo, ACEA. La asociación pide armonizar el marco europeo en lo fiscal y abogan por un sistema lineal que tenga en cuenta cada gramo de dióxido de carbono emitido. Asegura que a lo largo de este año, todos los coches podrán funcionar con mezclas del 10% en etanol y del 7% en biodiésel -como marca la directiva europea- pero recomienda no ir más allá. Aduce el desafío técnico que representa, la posibilidad de desequilibrios en los mercados y de que un combustible de calidad dudosa circule por la UE.

Y es que si la estructura de los proveedores de combustibles tradicionales era de pocos abastecedores con gran capacidad individual, en el caso de los biocombustibles, el número de proveedores es mayor y su capacidad de producción relativamente baja, lo que configura un mercado muy heterogéneo y hace necesario un control muy riguroso.

José María López, subdirector del Instituto de investigación del Automóvil de la Universidad Politécnica de Madrid (INSIA), asegura que "no se progresa por falta de normativa, no porque no se quiera potenciar los biocombustibles". El hecho de que aún haya problemas para utilizarlos se relaciona, según explica, con que los motores se homologan según los estándares para gasóleo o gasolina y sólo garantizan las mezclas hasta el 5%. Algunas empresas se atreven con mezclas al 20%, pero para llegar al turismo privado, se necesita legislar, asegura.

La colaboración de los fabricantes deja que desear, según los productores. "La política de fomento de biocarburantes arrancó en 2003 en la UE y hoy todavía se venden en España coches con una pegatina de 'no biodiésel en depósito", se queja Bustos. "Son políticas y liderazgos los que mueven las cosas y en España hay medidas fiscales importantes, pero no liderazgo para persuadir a los fabricantes". Esas medidas fiscales son el tipo cero que se aplica a los biocarburantes hasta el 31 de diciembre de 2012 en la Ley de Impuestos Especiales para hidrocarburos.

"Así como se lleva a los fabricantes hacia el coche eléctrico, se les podría presionar hacia los biocarburantes". Y cita "excepciones", como Ford o General Motors, que hacen vehículos flexibles -con un chip en el motor que detecta el porcentaje de bioetanol y funciona hasta con el 85%-. Las medidas más efectivas para ganarse el favor de los fabricantes serían fiscales: "Estos vehículos podrían tener un tipo cero en el impuesto de matriculación". Muchos fabricantes tienen motores preparados para soportar porcentajes etiquetados, pero no lo garantizan al comprador, afirma. "No hay especificaciones técnicas para un B20 porque los fabricantes se han encargado de retrasarlo en Bruselas".

La experiencia de Ricard Jiménez, del Centro Tecnológico ASCAMM, apoya esa teoría. Cuenta cómo el anuncio del ministro de Industria puso las pilas al sector para investigar y trabajar a destajo en el coche eléctrico. "Hay mucha confusión en torno al coche eléctrico. Los políticos lanzaron un vamos a ir a la Luna con el anuncio que hizo hace un año el ministro Sebastián de que habría un millón de coches eléctricos en la calle en 2014. Y el coche eléctrico no existe, trabajamos para hacer ese mensaje realidad. Pero los mensajes políticos sacuden el tejido industrial. Antes de ese anuncio la industria de la automoción no pensaba acelerar tanto este tema, quería explotar los hidrocarburos y amortizar el I+D empleado. Pero cuando hay ayudas se crea un reclamo, y hoy se pone fecha a la comercialización del coche eléctrico".

Juan José Coble, del grupo de investigación de Energías Renovables en la Universidad Antonio de Nebrija, coincide con Jiménez. "Hacen falta más ayudas del Gobierno al sector, tanto por protección arancelaria como por una obligación de mezclas etiquetadas en flotas públicas, por ejemplo, así incentivarían a los fabricantes hacia el coche flexible de forma generalizada. Y los operadores logísticos deben poner infraestructura para asegurar la demanda", asevera.

Ahora el transporte de las mezclas etiquetadas de biodiesel y todas las de bioetanol se hace por carretera porque no pueden compartir los oleoductos que se utilizan para los carburantes convencionales, ya que podrían alterar la calidad de otros productos. Por ejemplo, el bioetanol soltaría agua dañando al queroseno que utilizan los aviones. Por eso, las mezclas etiquetadas de biodiesel y todas las de bioetanol se mezclan en los camiones que las transportan desde las plantas de almacenamiento de las operadoras logísticas a las estaciones de servicio.

CLH es la operadora líder en España. "Cuando se trasponga la directiva, no habrá problema para que el biodiésel al 7% circule por los oleoductos; el bioetanol al 10% continuará mezclándose en brazo de carga, igual que ahora, así como las mezclas etiquetadas de biodiésel", explica Salvador Guillén, su director comercial. "Francia ha comprobado que se puede transportar biodiésel al 10% en oleoducto. Por eso y por nuestra experiencia con las mezclas al 5%, sabemos que hasta el 10% no habrá problemas; también que al 100% no podemos llegar, dónde está el límite, nadie lo sabe", afirma.

El transporte por oleoducto es más eficiente que por carretera. "Ahorra más de un millón de camiones al año, lo que evita la emisión de 400.000 toneladas de CO2. Además, no hay viaje de retorno en vacío, que supone el 40% de la energía que consume el camión". Pero un oleoducto para el bioetanol requeriría uso exclusivo, algo que "no tiene sentido" atendiendo a la rentabilidad.

En 2008, el valor de comercialización de biocarburantes y otros combustibles renovables fue del 1,94% en el sector del transporte. Se superó así el objetivo del 1,9% para ese año que fija ley de 2007. El objetivo obligatorio marcado por el Gobierno para 2009 era el 3,4%, pero no se sabrá si se ha cumplido hasta finales de este año. "Los expertos creen que sí se alcanzará", explica Carlos Alberto Fernández, jefe del Departamento de biocarburantes de IDAE. "Lo que no está tan claro es que se alcance el 5,83% que España ha fijado como obligatorio en 2010 -la directiva comunitaria fija un 5,75%- porque la normativa aún está en Consejo de Estado". Se refiere al real decreto que traspone la directiva de 2009 y que permitirá no etiquetar las mezclas de biodiésel hasta el 7% ni las de bioetanol hasta el 10%.

En uso de biocarburantes, España está mejor que unos países, pero peor que otros. "En Suecia es obligatoria la presencia de al menos una mezcla etiquetada en cada gasolinera. Una manera de fomentar el vehículo flexible". El objetivo de Francia es llegar al 7% este año y el de Alemania alcanzar el 6,25%. "Desgraciadamente, en algunos países hay retrocesos. Gran Bretaña retrasa sus objetivos del 5% de 2012 a 2014". La razón está clara para Bustos: "La campaña de desprestigio contra los biocarburantes de hace dos años. Algunos Gobiernos como el español o el francés lo valoraron como acusaciones infundadas, otros, precipitadamente, plegaron velas". La compañia Morrison anunció en febrero la retirada de sus combustibles B30 ante la eliminación de la exención fiscal en Reino Unido, informó The Guardian.

La controversia en torno a la sostenibilidad de los biocombustibles es otro escollo a salvar. La Directiva de 2009 garantiza, sin embargo, que no podrán utilizarse en la UE biocarburantes que no disminuyan como mínimo en un 35% las emisiones de gases de efecto invernadero respecto a los combustibles fósiles. Por su parte, "la CE se reafirma en que los biocarburantes son una buena forma de lucha contra el cambio climático y los seguirá apoyando", indican fuentes de la Comisión Europea.

Pros y contras de los aspirantes al 'coche limpio'

- El coche eléctrico anuncia un futuro sin combustibles fósiles, pero todavía faltan las infraestructuras que harán posible su uso. Los primeros vehículos saldrán al mercado el próximo año sin que se haya resuelto algo tan básico como un enchufe homologado en Europa. El coche eléctrico puro consume energía eléctrica (que almacena por la noche, lo que ayuda a equilibrar el sistema y a aprovechar las renovables) y no emite CO2, salvo el que genere un aumento de la demanda eléctrica. En su contra, su limitada autonomía, que los hace poco atractivos fuera de las ciudades. Esto hace prever que los primeros coches eléctricos serán flotillas de empresas y no para particulares. Los híbridos, ya en el mercado, son coches con dos motores, eléctrico y convencional, con lo que reducen las emisiones. El Gobierno tiene previsto instalar 263.000 postes de recarga en aparcamientos de flotas y sólo 62.000 en domicilios particulares, 12.000 en aparcamientos públicos y 6.200 en la vía.

- Los biocarburantes nacieron como una energía limpia a partir de materia vegetal, pero su imagen se ha visto golpeada por las acusaciones -en informes de organismos internacionales y ONG- de que provocan deforestación y carestía de los alimentos. En 2008, el relator especial de la ONU para el Derecho a la Alimentación, Jean Ziegler, llegó a pedir una moratoria en la producción por su impacto en el hambre. En países como Brasil, que utiliza la caña de azúcar, han demostrado, sin embargo, ser perfectamente viables. Algunos ven los biocarburantes como una alternativa para el campo europeo ante un futuro de posible desmantelamiento de la Política Agraria Común (PAC). Reducen las emisiones, pero sólo parcialmente porque la base sigue siendo un motor de combustión. El Cemitec, centro validado por la CE como de referencia en biodiésel, trabaja en el desarrollo de biocombustibles de segunda generación, producidos a partir de materias primas que no compiten con la alimentación.

Fuente: elpais.com, 11-5-10

 

 

-El ritmo de extinción de las especies se multiplica por mil

Flamencos en Tablas de Daimiel

  "Ya no se trata de salvar un bosque o un lago, sino de mantener los ecosistemas". Nick Nuttall, portavoz del Programa de Medio Ambiente de la ONU (UNEP), alertaba así del peligro en que se encuentra la biodiversidad del planeta en la presentación ayer del tercer informe de la ONU sobre la situación de la vida (animal y vegetal) en la Tierra.

Los científicos que han participado en la elaboración de este informe, algunos de los cuales también estaban presentes ayer en su presentación en el zoo de Londres, coincidieron en que los 192 gobiernos que forman esta convención deben incrementar sus planes para frenar la pérdida de vida y de recursos naturales, en un planeta habitado ahora por 6.000 millones de personas pero que, según sus cálculos, alcanzará los 9.000 millones en 2050.

Zonas húmedas en España

Nuttall aseguró ayer que la velocidad de pérdida de vida animal y vegetal en la Tierra, debido a la acción humana, "es mil veces mayor que el ritmo natural del propio sistema en el que las especies también se extinguen sin la intervención del hombre". De las 44.837 especies analizadas en 2009, 804 se han extinguido y un 38% están amenazadas de extinción. La presencia de vertebrados disminuyó en aproximadamente un tercio entre 1970 y 2006. Y también se han producido pérdidas en el hábitat. España, por ejemplo, ha perdido en las últimas décadas el 60% de sus zonas húmedas (lagos, ciénagas, ríos...).

Los científicos destacaron que los gobiernos no hacen lo suficiente para conseguir los objetivos marcados en la cumbre de Johannesburgo del año 2002, que pretendía detener la degradación del medio ambiente para 2010.

 

Las cinco principales causas de pérdida de vida en el planeta son los cambios en el hábitat, el exceso de explotación de recursos naturales, la contaminación, la interferencia de especies invasoras y el cambio climático. El informe lanza un aviso diciendo que las acciones que se tomen en las dos próximas décadas determinarán si las generaciones venideras habitarán un planeta en condiciones estables. La degradación ambiental tendrá también consecuencias en las economías de los países. "Si queremos seguir teniendo agua limpia o alimentos debemos contemplar ya a qué precio lo estamos obteniendo", dijo el portavoz del UNEP.

Fuente: publico.es, 11-5-10

 

 

-Científicos avanzan hacia la conquista de la cima cuántica

Un equipo de científicos financiados con fondos comunitarios y procedentes de la Universidad de Cardiff (Reino Unido) ha logrado disparar fotones (partículas de luz) a una torre de pequeñas dimensiones compuesta por un material superconductor.

Su trabajo podría conducir al desarrollo de ordenadores más rápidos. La investigación es un resultado del proyecto CUSMEQ («Espectroscopía ultrarrápida coherente y manipulación de qbits»), perteneciente al programa «Personas» del Séptimo Programa Marco (7PM) y financiado con cerca de 179.000 euros. CUSMEQ investigó la manipulación y espectroscopía ultrarrápida y coherente de estados excitónicos contenidos en un punto cuántico semiconductor. Los resultados del estudio fueron publicados recientemente en la revista Nature Materials.

Los científicos encargados del proyecto, procedentes de la Escuela de Física y Astronomía de la universidad mencionada, indicaron que un fotón colisiona con un electrón confinado en una estructura de pequeño tamaño contenida en la torre. Antes de que las partículas de luz resurjan de la misma, oscilan durante un pequeño lapso de tiempo entre los estados de luz y materia.

«Emparejar un cuanto de luz con uno de materia es complicado desde el punto de vista tecnológico y conceptual. Puede lograrse, por ejemplo, mediante la inclusión de un excitón atrapado en un punto cuántico dentro de una microcavidad óptica en la que el campo fotónico está confinado en un pequeño volumen de modo», escriben los autores en su artículo. «En consecuencia, un cuanto de excitación óptica oscila entre el estado de materia y luz antes de filtrarse hacia el exterior y disiparse.»

El equipo realizó este experimento con pares de fotones y con fotones individuales. Según explican, los pares de fotones aumentaron la frecuencia de la oscilación entre luz y materia más que los fotones individuales. Los resultados de su estudio coinciden con predicciones teóricas realizadas hace casi medio siglo.

El equipo de Cardiff utilizó un tubo semiconductor de tan sólo 1,8 micrómetros (un micrómetro es una milésima de milímetro) de diámetro y mantuvo una temperatura constante alrededor de los -263°C. Los fotones se atraparon en el interior del tubo durante diez picosegundos (un picosegundo es la billonésima parte de un segundo). Las tecnologías de la información y la comunicación (TIC) se verán beneficiadas por estos descubrimientos. Los investigadores opinan que están aumentado las posibilidades para construir sistemas lógicos basados en las interacciones de estas partículas, es decir, ordenadores cuánticos. Un avance como este supondría un aumento en la eficiencia de los procesadores, pues las partículas se desplazarían a mucha mayor velocidad y emplearían menos energía que los componentes electrónicos de un ordenador convencional.

«Esta interacción es capaz de producir una fuente continua de fotones y servir de base para una lógica de protón único, la cual sólo precisa de una mínima cantidad de energía para realizar procesos lógicos», explicó el profesor Wolfgang Langbein, de la Escuela de Física y Astronomía citada. «Las implicaciones a largo plazo de esta tecnología se extenderían a varias áreas, como la computación, las telecomunicaciones y los dispositivos criptográficos», añadió.

No obstante, quedan varios aspectos técnicos que habrá de resolver el equipo científico. El profesor Langbein comentó al respecto que «para utilizar esta tecnología en dispositivos de computación reales habrá que mejorar considerablemente las propiedades a tan bajas temperaturas, y lo ideal sería trasladarlas a una temperatura ambiente. Por el momento no está muy claro cómo conseguirlo, pero no es imposible.»


Fuente: CORDIS, 10-5-10

 

-Físicos desconfían de la aparición de una partícula de materia oscura

Hace tan sólo unos meses, científicos de la Universidad de Florida (EE.UU.) anunciaban el hallazgo de la que podría ser la primera partícula de materia oscura, la misteriosa sustancia que mantiene «pegado» al Universo. El detector CDMS (Cryogenic Dark Matter Search), construido en las profundidades de un mina en Minnesota, había captado dos posibles candidatos, aunque los investigadores reconocían que aún estaban lejos de poder confirmar el espectacular descubrimiento. Sus competidores en la carrera por lograr este hito científico no están dispuestos a cederles el premio con facilidad. Los científicos de la Universidad de Columbia que trabajan en el experimento XENON, que se presenta como el detector de partículas más sensible del mundo, aseguran que los avances de los otros equipos no son consistentes, ya que su máquina es la más potente y, en palabras sencillas, si ellos no lo han visto, no ha podido verlo nadie. Es decir, que la partícula de materia oscura se mantiene escurridiza y enigmática.

 


«Las partículas de materia oscura continúan escapándose a nuestros instrumentos, aunque nos hemos vuelto más inteligentes en nuestra búsqueda y confiamos en que pronto daremos con ella», asegura la física Elena April, portavoz del experimento XENON100. April y sus colaboradores, más de tres docenas de físicos de nueve instituciones de todo el mundo, ofrecerán datos de su trabajo el próximo verano, pero son realistas: no espera encontrar materia oscura en ese plazo de tiempo. En su lugar, aseguran que su detector es el mejor en este campo, ya que es el más eficaz en descartar la radiación de fondo que puede ser confundida con estas esquivas partículas.


Partículas WIMPS
La materia ordinaria, aquella que da forma a todo lo que podemos ver, desde un pequeño insecto a una galaxia, sólo suma el 4% del Universo. El inmenso 96% restante lo forman la materia y energía oscuras, que todavía suponen un enorme misterio. Por eso, la búsqueda de materia oscura se ha vuelto cada vez más competitiva. En 1997, un grupo de científicos de la Universidad de Roma se convirtió en el primero en reclamar el hallazgo y el pasado febrero los del CDMS anunciaron haber encontrado una señal. Los nuevos resultados de XENON100 ponen en duda las anteriores investigaciones. Si las primeras señales fueran en realidad materia oscura, esta máquina habría visto docenas de eventos, a menos que las propiedades de la materia oscura, las partículas denominadas WIMPS, sean muy diferentes a las esperadas. El detector consiste en un recipiente de acero inoxidable lleno de xenón líquido ultra puro colocado entre dos cámaras de alta sensibilidad. Se encuentra por debajo de los 5.000 metros de roca en el Gran Sasso Underground Laboratory (LGNS), situado en Italia, en una cámara de plomo y cobre que, junto a la roca, ayuda a filtrar la radiación de fondo que de otra forma se puede confundir con WIMPS. «El xenón es un material maravilloso para la captura y el estudio de estas partículas», asegura Aprile.
Según explican los científicos en la revista Physical Review Letters, en caso de que una partícula de materia oscura se pusiera en contacto con un átomo de xenón, se transferiría una pequeña cantidad de energía que daría lugar a la emisión de un destello de luz ultravioleta. Este aviso sería inmediatamente recogido por las cámaras. Además, la energía también se manifiesta en una pequeña cantidad de carga eléctrica más débil que la producida por el paso de otras partículas conocidas. Si el detector registra esta luz y la carga energética y puede excluir con certeza que no han sido producidas por otras fuentes, los científicos podrían brindar con champange.

 

Fuente: abc.es, 10-5-10
 

 

-Estudian las muecas de los ratones para ver cuándo sienten dolor

Científicos de la Universidad de Montreal (Canadá) han creado una escala para clasificar la expresión facial de los ratones que permitirá discernir cuándo sienten dolor, según publica hoy la revista "Nature Methods". Este sistema permitirá calcular de forma más precisa el dolor que experimentan esos roedores cuando son sometidos a experimentos en el laboratorio. Los humanos expresan su dolor con expresiones faciales, gestos que han sido codificados para identificar la intensidad del dolor en individuos que no son capaces de comunicarse, como los niños. La posibilidad de hacer una escala similar para determinar la intensidad del dolor en los ratones era hasta ahora una incógnita ya que las investigaciones al respecto se habían centrado en modelos que medían la respuesta de los roedores ante estímulos de calor o presión, aspectos secundarios en el contexto de dolor crónico.



Para realizar el estudio, los investigadores analizaron cientos de imágenes de ratones antes y mientras los sometían a estímulos de dolor de intensidad moderada. De esta manera establecieron cinco rasgos de rigidez facial, hinchazón de nariz y mejillas, movimientos de las orejas y bigotes que cambian según la gravedad de los estímulos y que permiten crear una escala de gestos relacionándolos con la intensidad del dolor. Uno de los objetivos que se pretende alcanzar con este estudio es detectar en los postoperatorios con una simple inspección visual si la dosis de analgésicos administrada a los ratones es insuficiente.

Fuente: larazon.es, 9-5-10

 

-Más cerca del corazón artificial

Fabricar un corazón artificial a partir de células madre idealmente del propio paciente para poder reemplazar el miocardio enfermo es una de las quimeras de la medicina regenerativa. Un equipo español dio el pasado domingo el primer paso para que ese proyecto sea algún día una realidad. El jefe de Cardiología del Hospital Gregorio Marañón de Madrid, Francisco García Avilés, ha preparado, por primera vez en el mundo, la estructura de un corazón humano para que, una vez vaciada de sus propias células, sea apta para recibir otras células madre que regenerarían el tejido cardiaco. Cuando se complete la investigación con esta última fase, se podría hablar del primer corazón bioartificial humano.

El experimento lo ha autorizado la Organización Nacional de Traplantes (ONT) que, como confirmaron a Público fuentes de este organismo, se encargó de garantizar que el corazón manipulado fuera de un donante de órganos, pero no apto para un trasplante cardiaco.

La investigación no es sólo española. El equipo de la bióloga del Centro de Reparación Cardiaca de la Universidad de Minnesota (EEUU) Doris Taylor ha participado en este avance, que se presentará hoy en el VII Simposio en Terapia con Células Madre e Innovación Cardiovascular, que se está celebrando en Madrid. Taylor publicó en enero de 2009 un estudio en Nature Medicine en el que describía el proceso en una estructura de un corazón de cerdo que se rellenó de células madre embrionarias de rata. En el laboratorio, se consiguió que el corazón bioartificial latiera.

Sustituir a los donantes

Aunque Fernández Avilés destacó que pueden pasar "años" hasta que se consiga completar el experimento en humanos, una vez que esto se logre se podría sustituir a los donantes por bancos de órganos "descelularizados", informa Europa Press.

"Tras despoblar un corazón humano de células, lo hemos convertido en una matriz", explicó el cardiólogo del hospital madrileño, que destacó la coordinación existente entre su laboratorio, el de la universidad estadounidense y la ONT, así como el Ministerio de Ciencia e Innovación (MICINN).

El trabajo multicéntrico se enmarca en el proyecto de investigación Estructuras y Órganos Bioartificiales para Trasplante (SABIO, de sus siglas en inglés), financiado con 700.000 euros por el MICINN a través de la convocatoria de ayudas del Plan Nacional de I+D+i para la investigación de células madre con fines terapéuticos en colaboración con grupos de investigación de otros países.

En el mismo simposio donde se presenta hoy este hallazgo, se difundieron ayer los resultados del estudio PRECISE, dirigido también por Fernández Avilés. En este trabajo, el equipo ha conseguido demostrar que las células de grasa obtenida por liposucción y procesada en busca de sus células madre son un tratamiento seguro y con un efecto beneficioso para los afectados por cardiopatías graves sin solución terapéutica.

 

Fuente: publico.es, 7-5-10

 

 

 

-Agujeros negros asesinos de galaxias

 

Tal y como suena. Algunos agujeros negros son capaces de destruir galaxias enteras, abortando sus estrellas antes de que nazcan y condenando a las ya existentes a consumirse en una interminable agonía. Pero el método utilizado por estos monstruos espaciales no consiste en devorarlas, como parecería lógico dada su condición de sumideros de materia, sino en bombardear a las galaxias con energía letal. Eso, por lo menos, es lo que asegura haber descubierto Asa Bluck, astrofísico de la Universidad inglesa de Nottingham.
A pesar de que los agujeros negros son devoradores insaciables de materia, este proceso en sí mismo no es suficiente para "asesinar" a una galaxia entera. De hecho, y a pesar de su voraz apetito, miles de nuevas estrellas nacen continuamente (en especial en las galaxias más activas) compensando así las pérdidas de materia.

La Vía Láctea se fundirá con la galaxia Andrómeda dentro de 4.000 millones de años, y con ellas, sus dos agujeros negros / ABC

 

Un buen ejemplo es la Vía Láctea, nuestro propio hogar en el espacio, que lleva miles de millones de años perdiendo ingentes cantidades de material a manos de su gran agujero negro central, y volviéndola a crear, gracias a la generación estelar, en un gran número de "semilleros" en cuyo interior las estrellas se forman en una cantidad suficiente como para mantenerla estable.
Sin embargo, y ahí está el quid de la cuestión, la materia que es absorbida por el agujero negro no cae en su interior de forma abrupta, sino que gira a su alrededor, formando un disco de acreción cuya temperatura aumenta a medida que se va comprimiendo y que es capaz de radiar grandes cantidades de energía.
Monstruos gigantescos
Y ahora pensemos lo que este proceso implica para las galaxias más grandes y masivas, en cuyo centro anidan agujeros negros gigantes, con masas que pueden ser hasta miles de millones de veces la de nuestro Sol. Para comprobar el impacto que tienen estos auténticos monstruos, un grupo de astrónomos, liderados por Asa Bluck, han utilizado dos de los mejores instrumentos de observación que existen: los telescopios espaciales Hubble y Chandra que operan en los rangos de la luz visible y en el de los rayos X respectivamente.
Con ellos han buscado galaxias con emisiones muy altas de rayos X, lo que suele ser un indicio de la presencia de un gran agujero negro central "alimentándose" del material de la galaxia, especialmente de polvo y gas. Los investigadores descubrieron que, por lo menos en una de cada tres galaxias estudiadas, los discos de acreción eran lo suficientemente grandes como para oscurecer el brillo de los miles de millones de estrellas de la propia galaxia.
Y vieron también que la cantidad de energía emitida por estos discos era más que suficiente para despojar a las galaxias de las grandes nubes de gas que son la materia prima para la formación de nuevas estrellas. De hecho, toda esta cantidad de radiación barre, literalmente, las reservas de polvo y gas de la galaxia, privándola así de los ingredientes que necesita para regenerarse. Las estrellas que ya existen, por su parte, envejecerán en solitario, hasta consumirse por completo. Y cuando eso ocurra ya no habrá nuevas generaciones de estrellas para relevarlas.
"Nos encontramos con este espeluznante retrato en la historia de las galaxias masivas, en las que la enorme violencia desencadenada por ese gran torrente de radiación generada por la materia que cae en el agujero negro lleva a la propia galaxia a la muerte", asegura Asa Bluck. "Los agujeros negros se forman en el interior de sus galaxias huéspedes y crecen en proporción a ellas, formando discos de acreción que pueden llegar a destruirlas".


Una de cada mil
No todas las galaxias, sin embargo, corren esta trágica suerte. Bluck ha comprobado que este final está reservado sólo a los ejemplares más grandes, es decir, a cerca de una galaxia de cada mil. La mayoría de las restantes, afirma Bluck, "serían demasiado pequeñas para albergar en su interior agujeros negros super masivos, por lo que es poco probable que sus discos de acreción emitan energía en cantidad suficiente como para llevarlas a la muerte".
Por lo que respecta a nuestro propio futuro lejano, Bluck predice que a nuestra galaxia le quedan varios miles de millones de años de tranquilidad. De hecho, el agujero negro central de la Vía Láctea parece estar aletargado, si comparamos su actividad con la que exhiben los "inquilinos" de otras galaxias. Pero dentro de unos 4.000 millones de años nuestra galaxia se fundirá con su vecina, Andrómeda (en la imagen), lo cual supondrá el nacimiento de una auténtica "supergalaxia" y, probablemente, la fusión de sus dos agujeros negros centrales en uno solo, mucho más grande y activo.
"Pero no hay que preocuparse", añade el científico. Para entonces nuestro Sol ya habrá desaparecido hace mucho tiempo, y con él, todos nosotros.

 

Fuente: abc.es, 7-5-10

 

-¿Humanos contra robots en 2015?

Kitano Hiroaki por ser el inventor del perro robot Aibo y uno de los directores del Sony Computer Science Lab en Tokio.

A principios de los años noventa, Kitano Hiroaki soñaba con crear robots bípedos con habilidades superiores a las de un ser humano. Ambicioso, pero a la vez realista, empezó con el desarrollo del perro robot de cuatro patas Aibo, que llegó a venderse en las tiendas, y continuó con el desarrollo de QRIO también de Sony, el primer robot bípedo de la historia capaz de correr.

El sueño de Kitano Hiroaki era y es conseguir crear un robot humanoide que supere en habilidades motrices a un ser humano antes de 2050.

No es un problema sencillo de resolver; no se puede solucionar en solitario. A Kitano Hiroaki y a sus colegas del Sony Computer Science Lab se les ocurrió una idea fabulosa para que todo el mundo pueda participar y mantenerse motivado al cien por cien durante el proceso de desarrollo de robots potentes. Decidieron crear una competición mundial de fútbol en la que los jugadores, en vez de humanos, serían robots. El objetivo final sería crear un equipo formado por futbolistas robóticos totalmente autónomos capaz de ganar al mejor equipo de fútbol en el año 2050.

La primera edición de Robocup, la competición mundial de robots, se celebró en Japón en 1997 y participaron 40 equipos, casi todos ellos de universidades y empresas japonesas. El año pasado fueron ya más de 400 equipos de más de 40 países. En Japón es un evento conocido por casi todo el mundo, con seguimiento en los medios; algunos de los partidos más interesantes son televisados.

Los robots participantes en la Robocup son totalmente autónomos. Durante el partido no se permite que humano alguno intervenga remotamente en la marcha del juego. Los robots deciden por sí mismos en tiempo real los movimientos en el campo de fútbol. Programar una buena inteligencia artificial, y además colectiva, es algo clave, más importante incluso que tener robots con habilidades motrices avanzadas.

Para conseguir ganar en la Robocup los miembros humanos de los equipos deben saber mucho sobre muchas disciplinas: inteligencia artificial en general, programación, matemáticas, física, mecánica, visión artificial, electrónica, anatomía humana, etcétera.

"En principio pensé en el fútbol porque es un juego que lo entiende casi todo el mundo y a la vez es lo suficientemente complicado como para ser un problema desafiante", explicó Hiroaki recordando cómo nació la idea del Robocup. Aunque pueda parecer que la competición es un mero juego, una afición cara de científicos de todo el mundo, y aunque el objetivo de competir contra humanos pueda sonar un poco ingenuo, el verdadero propósito del torneo es incrementar la motivación para crear cada vez mejor tecnología a la que se le puedan buscar aplicaciones prácticas. Por ejemplo, en la Universidad de Tokio están desarrollando un robot cirujano cuya tecnología está basada en robots humanoides que fueron creados para la Robocup del año 2007.

En las universidades de Waseda y Keio han creado varios robots de rescate para los bomberos, cuyos primeros prototipos fueron desarrollados para competiciones Robocup. Son algunos de los ejemplos de entre los centenares de avances que se han llevado a cabo en universidades de todo el mundo gracias a la Robocup.

¿Conseguirán 11 montones de latas derrotar al campeón mundial de los humanos en 2050? Por ahora van por buen camino y aún faltan 40 años para que llegue la fecha del enfrentamiento final. La próxima cita de la Robocup se celebrará en junio en Singapur, con la participación de varios equipos españoles que, a diferencia del torneo de Suráfrica, no salen como favoritos.

 

 

Fuente: elpais.com, 6-5-10

 

 

-Herschel capta una "estrella" imposible que desafía a la ciencia

La burbuja galáctica RCW 120 / ESA

El observatorio espacial de la Agencia Espacial Europea (ESA) en la banda del infrarrojo, Herschel, ha desvelado aspectos hasta ahora desconocidos del proceso de formación de las estrellas durante su primer año de operaciones. Sus imágenes revelan la frenética formación de estrellas en lejanas galaxias y las impresionantes nubes de polvo y gas que se extienden a lo largo de la Vía Láctea, en el interior de las que nacen las nuevas estrellas de nuestra galaxia. Una de las imágenes ha capturado una estrella «imposible» en plena formación. «Imposible» porque promete convertirse en algo tan grande que los científicos jamás hubieran imaginado.
 

Los primeros resultados científicos obtenidos con Herschel han sido presentados hoy en el Centro Europeo de Investigación y Tecnología Espacial (ESTEC) de la ESA. Estas primeras conclusiones desafían a las teorías actuales sobre la formación de las estrellas y proponen nuevos caminos para futuras investigaciones.
Las observaciones realizadas con Herschel de la nube de formación de estrellas RCW 120 han desvelado una estrella embrionaria que podría convertirse en una de las estrellas más grandes y más brillantes de nuestra Galaxia en los próximos cientos de miles de años. Actualmente ya cuenta con una masa unas ocho o diez veces superior a la de nuestro Sol, y continúa rodeada por una nube de gas y polvo de unas 2000 masas solares de la que podrá seguir alimentándose durante los próximos miles de años.
«Esta estrella sólo puede seguir creciendo», comenta Annie Zavagno, del Laboratorio de Astrofísica de Marsella. Las estrellas masivas son poco frecuentes y su vida es relativamente corta. El poder observar una de ellas durante su proceso de formación representa una oportunidad única para intentar resolver una de las grandes paradojas de la astronomía. “Según las teorías actuales, no es posible la formación de estrellas con una masa superior a ocho veces la de nuestro Sol”, aclara la Doctora Zavagno.

Esto es debido a que la intensa luz emitida por las estrellas de este tamaño debería dispersar las nubes que las rodean antes de ser capaces de acumular más masa. Pero por algún motivo todavía desconocido, estas estrellas existen. Actualmente se conocen varios ejemplos de estas estrellas ‘imposibles’, algunas con una masa de hasta 150 veces la de nuestro Sol, pero ahora que Herschel ha descubierto una de ellas en plena formación, los astrónomos tienen la oportunidad de analizar dónde fallan sus teorías.
El comienzo del Universo

Herschel, que fue lanzado el 14 de mayo de 2009 junto con el satélite Planck, es un gran telescopio espacial en la banda del infrarrojo lejano diseñado para estudiar algunos de los objetos más fríos del espacio, en una región del espectro electromagnético prácticamente inexplorada. Concretamente, cuenta con 7, 5 metros de altura y cuatro metros de ancho y es el telescopio de infrarrojo más grande jamás lanzado. La superficie extremadamente pulida de su espejo primario de 3, 5 metros de diámetro - hecho de carburo de silicio ligero-- es casi vez y media mayor que el del Hubble, y seis veces más grande que el espejo de su predecesor ISO, lanzado por la ESA en 1995.

Con su gran capacidad para captar luz y con sus sofisticados detectores enfriados hasta cerca del cero absoluto por más de 2.000 litros de helio superfluido, Herschel será capaz de observar las fuentes de luz infrarroja más débiles y lejanas del Universo, y de analizar las hasta ahora inexploradas regiones del infrarrojo lejano y de la radiación submilimétrica del espectro electromagnético.
También puede ver a través de la opacidad del polvo y el gas cósmico y observar estructuras y sucesos lejanos que datan de los comienzos del Universo - tales como el nacimiento y la evolución de las primeras estrellas y galaxias - hace diez mil millones de años, intentando determinar exactamente cómo comenzó todo. En la Vía Láctea también puede observar objetos extremadamente fríos, tales como las nubes de polvo y el gas interestelar a partir del cual se forman las estrellas y los planetas, e incluso la atmósfera que rodea a los cometas, a los planetas y a sus lunas dentro del Sistema Solar.

Fuente: abc.es, 6-5-10

 

-Francisco J. Ayala, dice que "religión y ciencia son dos ventanas para mirar al mundo"

La religión y la ciencia son 'dos ventanas para mirar al mundo, que es el mismo, y sólo son contradictorias si una se empeña en pisarle el terreno a la otra', afirma el biólogo evolucionista español Francisco J. Ayala, galardonado con el premio Templeton.

Ayala, que recibió hoy el premio, dotado con un millón de libras (1,2 millones de euros), de manos del duque de Edimburgo, explicó a Efe que el dinero lo destinará íntegramente a la Universidad de California en Irvine (EEUU), donde enseña, por lo que 'los estudiantes serán los primeros beneficiados'. El premio, instituido en 1973 y ligeramente mayor en dotación que el Nobel, distingue anualmente a 'una persona viva que haya hecho una contribución excepcional a afirmar la dimensión espiritual de la vida, ya sea a través de una idea, un descubrimiento o una acción concreta' y entre los premiados figuran la madre Teresa de Calcula, la primera en recibirlo, y el escritor ruso Aleksandr Solzhenitsyn.

Francisco Ayala

 

Su fundador, el empresario John Templeton, estableció que, aunque el anuncio se hace en Washington, se entregase oficialmente al ganador en el Palacio de Buckingham, de Londres, de manos del Duque de Edimburgo, el esposo de Isabel II, algo que ocurrió también hoy. En declaraciones a Efe antes de recibir el galardón, el biólogo español explicó que la nueva variante del creacionismo, el llamado 'diseño inteligente' no tiene tampoco validez científica y al igual que aquél se explica sólo por la fuerza que tiene todavía en EEUU el 'literalismo bíblico'.

El propio Ayala ayudó ya en 1987 a preparar el resumen Amicus de la Academia Nacional de Ciencias de EEUU en oposición a una ley del estado de Luisiana que imponía la enseñanza simultánea del creacionismo y la evolución en las escuelas públicas, ley que el Tribunal de Justicia declaró inconstitucional por su intención de promover una visión religiosa específica.

Ayala preparó con ayuda de abogados y expertos en la Primera Enmienda de la Constitución de EEUU el trabajo 'Ciencia, Evolución, Creación', un opúsculo que va ya por su tercera edición y que sostiene que el diseño inteligente no es ciencia y no puede por tanto enseñarse en las escuelas. Pero, según Ayala, otros científicos como el biólogo británico Richard Dawkins 'se van al extremo opuesto al afirmar que religión y ciencia son incompatibles y negar tajantemente la existencia de Dios, algo que no sostienen, por el contrario, la Academia Nacional de Ciencias de EEUU ni tampoco muchos teólogos'.

Al margen de sus trabajos sobre la evolución, a la que ha dedicado varios libros, Ayala ha llevado a cabo importantes investigaciones sobre los protozoos parásitos y en especial la malaria, que afecta cada año a más de 400 millones de personas sólo en África y de la que mueren millón y medio de niños.

'Hasta hace dos o tres años sólo disponíamos de una estirpe del plasmodium del chimpancé y para compararlo con el de la malaria maligna, el llamado plasmodium falciparum, necesitábamos más muestras, que logramos obtener analizando el ADN de los parásitos en las heces de gorilas y chimpancés y monos antropoides', dijo.

'El año pasado conseguimos demostrar que el falciparum se deriva del plasmodium reichenowi, que éste es su antepasado, y se deriva de él además en un tiempo relativamente reciente de la evolución y que su expansión se produjo en cuestión de cinco a seis milenios y asociada a la agricultura en África', añadió.

'Hemos coleccionado muchas más muestras de especies de esos antropoides y hemos visto que en varios casos están infectados por el falciparum, lo cual es un problema serio porque si se consigue extirpar la malaria en los humanos, quedaría ese repositorio en los monos', indicó el biólogo.

'Los chimpancés y gorilas no sufren la malaria maligna, pero los parásitos están en su sangre', explicó Ayala.

'Hay tres o cuatro especies de plasmodios que no se conocían antes, y la semana pasada envié otro trabajo a la Academia Nacional de Ciencias de EEUU sobre una nueva especie de falciparum que puede llegar a ser un problema', dijo Ayala.

En ese trabajo demostramos que el falciparium y los parásitos de los monos antropoides no tienen relación evolutiva alguna con los otros parásitos humanos ni con los de los monos, sino que se derivan de un parásito anterior distinto', señaló el científico.

El mayor consuelo en cualquier caso es que en los antropoides el falciparum no se multiplica con la rapidez que en los humanos y además su ciclo vital atraviesa varios estadios, que hacen difícil su transmisión.

Ayala trabaja además actualmente en otras graves enfermedades del mundo en desarrollo, de origen parasitario, como la de Chagas, que afecta también a millones de personas en las zonas tropicales, la leishmaniasis o la llamada enfermedad del sueño africana, causada por el trypanosoma brucei.

Sobre el estado de la ciencia en España, Ayala afirmó que el país 'produce muy buenos científicos', pero son luego otros, como EEUU, quienes luego los contratan ya que los españoles no pueden seguir su carrera en su propia tierra al no encontrar puestos de trabajo en la investigación.

'Ahora mismo tengo en el departamento de Ecología y Evolución a un joven científico, José María Ranz, que es biznieto intelectual mío', explicó Ayala, quien agregó que en su departamento tiene también otros dos españoles en espera de conseguir puestos en otras universidades norteamericanas.

España invierte poco más del 1 por ciento de su Producto Interior Bruto (PIB) en investigación científica frente a un promedio europeo del 2 por ciento y un 3 por ciento en Estados Unidos, critica Ayala, según el cual en el país ibérico parecen no haber comprendido la relación directa entre investigación científica y expansión económica.

Fuente: EFE, 5-5-10

 

-El final de los transbordadores se aplaza por un experimento

En plena campaña de clausura del programa del transbordador espacial, la NASA ha tenido que cambiar sus planes debido a la decisión del equipo del gran detector de antimateria Alpha Magnetic Spectrometer (AMS) de hacer cambios estructurales en el instrumento. El último vuelo del transbordador será ahora el que lleve el AMS a la Estación Espacial Internacional, siempre que los científicos de 14 países que participan en el caro y largo proyecto sean capaces de tener listo para noviembre el detector tras el cambio de su imán criogénico avanzado por otro convencional. El vuelo del Endeavour, previsto para julio, queda así retrasado para noviembre (sin fecha concreta), y se convierte en el último previsto, en vez del Discovery en septiembre. Más de 6.000 trabajadores a punto del despido disfrutarán de un breve respiro.

El AMS espera encontrar, una vez instalado en la estación, nuevas partículas de antimateria y pistas de la misteriosa materia oscura del universo. "Es, con mucho, el proyecto científico más importante de los actualmente planeados para la estación", dice el físico teórico John Ellis, del CERN, donde se ha desarrollado el AMS. Sin embargo, otros científicos no creen tanto en el proyecto.

"Desde luego no estamos en una situación confortable", dice Manuel Aguilar, del Ciemat, principal organismo español en el proyecto AMS. "El calendario que tenemos ahora es bastante ajustado". Los responsables de AMS han argumentado estos días que la decisión de cambiar el imán superconductor por el imán convencional que se utilizó en el prototipo de 1998 se debe, principalmente, a que la NASA ahora ha aumentado el periodo de utilización de la estación de 2015 a 2020. En realidad, el imán superconductor, cuya electrónica ha sido aportada por los españoles, tiene un problema grave, ya que consume entre un 30% y un 40% más del helio refrigerante previsto, lo que reduciría su tiempo de funcionamiento de los tres años programados a menos de dos.

Ilustración del detector de antimateria AMS instalado en la Estación Espacial Internacional.- NASA

Algunos críticos han señalado a la revista Nature que con el imán antiguo, además de hacer falta más acopio de datos, sólo se podrá trabajar en un rango de energía menor. Además, creen que hacer un cambio tan grande puede ser fatal para el proyecto. "Las pruebas y verificaciones constituyen un proceso muy meticuloso que no se debería acelerar", señala Bob O'Dell, antiguo director científico del telescopio espacial Hubble.

"Para la parte del experimento de búsqueda de antimateria, hasta un teraelectronvoltio de energía, el espectrómetro reconfigurado tiene las mismas prestaciones en 10 años que el imán superconductor en tres, e incluso puede ser más competitivo porque lo que cuenta es la acumulación de datos", argumenta Aguilar. "También en la búsqueda de materia oscura prima la acumulación de datos, pero hay una parte del experimento que nos interesaba bastante que se degrada con el imán convencional y es el estudio de isótopos nucleares".

El AMS está ya en el CERN, donde fue ensamblado, de vuelta desde el centro científico y tecnológico de la ESA en Holanda, donde el aparato ha pasado pruebas de condiciones de vuelo. Se empezará a desmontar ahora y el próximo día 15 llegará de Alemania el imán convencional, que habrá que montar, así como reestructurar el equipo. Si se quiere volar en noviembre, el conjunto debe estar en el Centro Espacial Kennedy en septiembre.

El proyecto cuesta 1.500 millones de euros y lleva 15 años en preparación, liderado por el Ministerio de Energía de Estados Unidos. Su director científico es el premio Nobel Samuel Ting. España participa con 8 millones.

Fuente: elpais.com, 5-5-10

 

 

-La auténtica máquina del tiempo

Uno de los grandes objetivos de astrónomos y científicos es conocer los primeros momentos de la existencia del Universo, el tiempo que llegó inmediatamente después de aquel primer instante. La NASA e investigadores universitarios han comenzado la construcción de un instrumento diseñado para conocer ese minuto uno, una auténtica «máquina del tiempo» que nos permitirá viajar al pasado más remoto que nunca ha existido, hace 13.700 años. Se trata de un nuevo telescopio terrestre, un rastreador cosmológico a escala de gran angular (CLASS, por sus siglas en inglés) que comienza a tomar forma en el Centro de Vuelo Espacial Goddard, situado en Greenbelt, Maryland (EE.UU). Si todo va como los investigadores esperan, el rastreador estará listo en 2014. Entonces, se instalará en el desierto de Atacama, en el norte de Chile, desde donde escudriñará el cielo con detectores sensibles a las frecuencias de las microondas, la única forma de «ver» el pasado.

 

La construcción del ingenio está dirigida por el ex científico de la NASA Chuck Bennett, ahora un astrofísico de la Universidad Johns Hopkins (JHU) en Baltimore (Maryland), con la ayuda económica de la Fundación Nacional de Ciencia. El objetivo final es probar la teoría inflacionaria de origen del Universo. Considerada una idea asombrosa hace 30 años, la teoría de la inflación postula que el Universo se expandió mucho más rápido que la velocidad de la luz y creció exponencialmente casi un instante después del Big Bang. Para ello, el telescopio buscará un patrón en el fondo cósmico de microondas, algo así como la remanente de la creación del Universo que impregna el cielo en todas las direcciones. Debido al tamaño del cosmos, los científicos sólo pueden estudiar esa luz con instrumentos sensibles a las frecuencias de las microondas.


Ondas delatoras
Si esto sucedió realmente, si el universo estalló a toda velocidad como un pastel que ha pasado demasiado tiempo en el horno, los científicos creen que pueden existir ondas grativatorias, perturbaciones del espacio tiempo que todavía siguen en alguna parte y que el nuevo telescopio se encargará de buscar. El equipo completará el instrumento en 2014 y lo enviará al desierto de Atacama en Chile, donde observará grandes franjas del cielo en microondas.
 


De momento, los científicos del Goddard han descubierto pistas de que la inflación sucedió, pequeñas diferencias de temperatura detectadas en el fondo de radiación cósmica. De todas formas, CLASS no es el único esfuerzo dirigido a encontrar la misma evidencia. Otro equipo de Goddard construye un instrumento para ser lanzado en globo, llamado Primordial Inflation Polarization Exploration (PIPER) que será lanzado en 2012, en busca de la misma señal pero con otro tipo de tecnología.

 

Fuente: abc.es, 4-5-10

 

-Europa quiere acortar distancias con Estados Unidos en política espacial

El hecho de que la UE se haya dotado de nuevas competencias en materia espacial contribuiría a acortar las distancias entre Europa y EEUU a partir de 2014, han subrayado hoy fuentes del Centro para el Desarrollo Tecnológico e Industrial (CDTI).

Una conferencia que se celebra hoy en La Granja (Segovia) trata de determinar el alcance y ámbito de actuación de la Agencia Espacial Europea (ESA) y la UE, tras las nuevas competencias en el ámbito espacial fijadas con la entrada en vigor del Tratado de Lisboa.

Según ha informado el CDTI, que organiza la conferencia dentro de la Presidencia española de la UE, uno de los temas que centran los debates es el uso del espacio como factor para incrementar la productividad y promover la innovación.Asimismo se habla del potencial del espacio como elemento aglutinador de la cooperación internacional y su uso como herramienta para garantizar el desarrollo sostenible.

En la actualidad, la ESA gestiona un presupuesto anual superior a los 3.500 millones de euros que ha permitido situar a Europa como segunda potencia espacial del mundo tras los Estados Unidos. En los últimos años, la UE se ha interesado en el ámbito espacial mediante su participación en los programas espaciales de la ESA Galileo, de navegación, y GMES (Global Monitoring for Environment and Security), para la vigilancia mundial del medio ambiente y la seguridad, de observación de la tierra.

Ahora deberá presentar para su aprobación durante el próximo año, una propuesta oficial de Programa Espacial susceptible de garantizar las aspiraciones europeas.

La conferencia sobre gobierno de los programas espaciales ha sido inaugurada, esta mañana, por el alcalde de La Granja, José Luis Vázquez, junto con el director de Aeronáutica, Espacio y Retornos Tecnológicos del CDTI, Juan Carlos Cortés, y el jefe de la oficina política del director general de la ESA, Giuseppe Morsillo.

 

Este evento, que supone una continuación del encuentro sobre Espacio y Seguridad que tuvo lugar en Madrid durante el pasado mes de marzo, culminará con la celebración de un Consejo Europeo de Espacio a nivel ministerial durante la próxima presidencia belga. De acuerdo con el CDTI, en el encuentro se habla de diversos procedimientos para llevar a cabo la colaboración entre la ESA y la UE, en lo que respecta a los ámbitos de actuación del Programa Espacial Europeo. Asisten, a puerta cerrada, representantes de la Comisión Europea, la ESA y las delegaciones de sus correspondientes Estados miembros.

Entre otros participantes se encuentran el director para el Sector Aeroespacial, GMES, Seguridad y Defensa de la Comisión Europea, Paul Weissenberg, y el jefe de Estrategia y Relaciones Nacionales e Internacionales de la Agencia Espacial Italiana, Augusto Cramarossa. Según el CDTI, en función de las nuevas competencias, la Comisión Europea está elaborando una propuesta para definir sus actividades espaciales dentro de la envolvente presupuestaria de la UE para el período 2014-2020.

Fuente: EFE, 4-5-10

 

 

-Cuando la voluntad supera al ADN

En los últimos años, la ciencia ha identificado varias mutaciones genéticas relacionadas con la obesidad. Estas pequeñas alteraciones escritas en el ADN inciden directamente en nuestras posibilidades de engordar, nos hacen más propensos al sobrepeso. Sin embargo, no tienen 'la última palabra' sobre nuestro organismo. Tal como acaba de poner de manifiesto una investigación con participación española, el ejercicio puede 'desactivar' su poder.

Este trabajo, que se publica en las páginas de la revista 'Archives of Pediatrics and Adolescent Medicine', evaluó a 752 adolescentes de 10 países europeos que portaban una alteración en el gen FTO, uno de los relacionados con la obesidad. Concretamente, estos jóvenes presentaban una variante conocida como rs9939609, que se ha asociado con un aumento significativo del peso y la grasa corporal en diferentes poblaciones.

Además de medir su talla, peso y circunferencia abdominal, entre otras variables, los autores de esta investigación analizaron la cantidad de ejercicio que los participantes realizaban al día a través de un acelerómetro, un aparato capaz de registrar la cantidad e intensidad de los movimientos.

"Las recomendaciones generales de actividad física para los niños y adolescentes dicen que éstos deberían hacer al menos 60 minutos de actividad física todos los días de la semana [...] Queríamos saber si seguir las recomendaciones podía atenuar el efecto de la mutación genética", comentan los investigadores en su trabajo.

Los resultados de su análisis confirmaron esta hipótesis. Según sus datos, en aquellos adolescentes que realizaban más de una hora diaria de ejercicio –de moderado a intenso-, "la presencia del genotipo de riesgo no se asociaba con un mayor índice de masa corporal, porcentaje de grasa o circunferencia abdominal". Por el contrario, para los jóvenes más sedentarios, la existencia de la alteración genética sí resultaba determinante.

Cumplir las recomendaciones

En sus conclusiones, los investigadores subrayan que sus hallazgos tienen implicaciones fundamentales para la salud pública ya que indican que "cumplir con las recomendaciones de actividad física puede contrarrestar una predisposición genética al sobrepeso y la obesidad en adolescentes".

"Existe la creencia popular de que no se puede hacer nada contra lo que predetermina la genética. Nuestros datos demuestran que esto no es así y que modificando el estilo de vida se puede atenuar e incluso hacer desaparecer los efectos negativos de un gen", comenta Jonatan Ruiz, investigador de la Universidad de Granada y principal firmante del trabajo, que ha diseñado también como miembro de la Unidad de Nutrición Preventiva del Instituto Karolinska de Estocolmo (Suecia), donde disfruta de una beca post-doctoral.

"Estos resultados transmiten un mensaje de optimismo. Nos muestran que, aunque estemos predestinados al sobrepeso, podemos combatirlo con medidas sencillas como la actividad física", apunta Luis Moreno, profesor de la facultad de Ciencias de la Salud de la Universidad de Zaragoza, quien destaca la sólida metodología empleada en la elaboración del trabajo.

Tanto Moreno como Ruiz coinciden en señalar que "para un joven es muy fácil cumplir con las recomendaciones. Basta con jugar al fútbol, al baloncesto o realizar determinadas actividades extraescolares". Sin embargo, Ruiz lamenta que "gran parte de los adolescentes analizados en nuestra investigación no practicaban suficiente ejercicio".

Según explica, el siguiente paso en la investigación será realizar estudios de intervención para comprobar si llevar a cabo un programa de ejercicio en niños con la citada mutación genética tiene efectos beneficiosos sobre el riesgo de desarrollar sobrepeso u obesidad.

Además, según explica Moreno, también tratarán de averiguar qué otros factores podrían, de forma combinada, atenuar aún más la predisposición al sobrepeso marcada en los genes.

Fuente elmundo.es, 3-5-10

 

 

-El presidente de Estados Unidos alertó hoy de un potencial desastre sin precedentes en el Golfo

El presidente de Estados Unidos, Barack Obama, alertó hoy durante una visita al estado de Luisiana que el vertido incontrolado de crudo en el Golfo de México podría provocar un desastre ecológico 'potencialmente enorme y sin precedentes'.

'Creo que el pueblo estadounidense es consciente ahora, ciertamente los habitantes aquí del Golfo lo son, de que estamos afrontando un desastre ecológico potencialmente enorme y sin precedentes', afirmó Obama desde Venice, al sur de Luisiana.

'El petróleo que fluye del pozo podría dañar seriamente la economía y el medioambiente de nuestros estados del Golfo', afirmó en unas breves declaraciones a la prensa.

Añadió que las repercusiones podrían durar 'mucho tiempo' y amenazar los medios de vida de miles de estadounidenses que consideran 'este lugar su hogar'.

Aseguró, por lo demás, que 'podrían ser necesarios muchos días para detener' el derrame que comenzó el pasado 20 de abril a raíz de la explosión y posterior hundimiento de una plataforma petrolífera operada por British Petroleum (BP). El presidente respondió también a los críticos que aducen que su Gobierno no ha actuado con la suficiente celeridad en el caso.

 

'Nos preparamos y planeamos para lo peor desde el primer día, aunque esperamos lo mejor', insistió y recordó que su administración lanzó una investigación 'inmediatamente' después de la explosión para aclarar lo sucedido.

Añadió, además, que su Gobierno lleva a cabo un esfuerzo 'implacable' para hacer frente al derrame y dijo que no se dará por satisfecho hasta lograr contenerlo. Los críticos sostienen que la Casa Blanca no ha actuado con suficiente rapidez frente al derrame y dicen que podría convertirse en el 'Katrina' de Obama, en referencia al huracán que golpeó Nueva Orleans en el año 2005 y que lastró la popularidad del presidente George W. Bush por la lentitud oficial ante la tragedia. Al igual que Obama, la secretaria de Seguridad Nacional, Janet Napolitano, restó hoy legitimidad a esas críticas al afirmar que el Gobierno ha estado alerta desde el primer momento.

'La respuesta física sobre el terreno ha sido desde el primer día como si este pudiese ser un fallo catastrófico', afirmó hoy Napolitano, quien dijo que el Gobierno está utilizando todos los recursos a su alcance para minimizar el impacto del vertido.

Las últimas estimaciones indican que el derrame ronda los 800.000 litros de petróleo diarios, aunque Lamar McKay, presidente de British Petroleum en EE.UU., concesionaria de la plataforma hundida, dijo hoy que es imposible predecir la magnitud.

El ejecutivo insistió en que un fallo técnico del mecanismo que debería de haberse activado para sellar el pozo explica que el petróleo siga fluyendo libremente.

Varios brazos robóticos son controlados por hombres en el fondo marino para intentar cerrar el pozo.

McKay adelantó, por lo demás, que la gigantesca estructura que construyen los ingenieros de la firma para contener el derrame podría estar instalada en el plazo de 'seis a ocho días'.

La citada estructura es una especie de cúpula gigante que se colocaría sobre las fugas en el oleoducto a través de las que se vierte el petróleo, que se acumularía dentro de la cúpula y se bombearía fuera de ella evitando así el derrame directo en el mar. A la espera de los resultados de esa iniciativa, el secretario del Interior de EE.UU., Ken Salazar, dijo hoy que para lograr una 'solución definitiva' podrían ser necesarios tres meses. Esa solución implica la construcción de un pozo alternativo a través del que se inyectaría un líquido más pesado que el petróleo que actuaría como una especie de tapón e impediría que el crudo siga fluyendo a la superficie. Hasta que eso se logre, explicó hoy Salazar, 'podría seguir fluyendo un montón de petróleo'.

Fuente: EFE, 2-5-10