A pesar de su larga historia en
Oriente y de su creciente aceptación en Occidente, aún quedan cuestiones por
resolver acerca del funcionamiento de la acupuntura, como los mecanismos por
los que causa analgesia. Un trabajo publicado en
'Nature Neuroscience'
revela las bases fisiológicas de sus efectos a nivel local.
Varias investigaciones han demostrado que la aplicación
de agujas activa de forma duradera los tractos sensitivos ascendentes y, en
consecuencia, se liberan endorfinas (péptidos opioides) en el sistema
nervioso central. Muchas personas encuentran un alivio para su dolor
con esta técnica, que se practica en sesiones de 30 minutos en las que las
agujas se giran o estimulan con calor o electricidad cada cinco minutos.
"No obstante, este elemento central no puede explicar por
sí solo por qué la acupuntura se aplica convencionalmente muy cerca del foco
del dolor y por qué sus efectos analgésicos están restringidos al lado
ipsilateral", señalan los autores, procedentes del Centro de Medicina
Traslacional de la Universidad de Rochester (Nueva York, Estados Unidos).
Sesión acupuntura
Si fuera así, si la liberación de endorfinas en el cerebro
fuera lo único que mediara el efecto analgésico de la acupuntura, entonces
bastaría con clavar las agujas en cualquier punto y no en los que están
próximos a la zona a tratar. Por eso, este grupo de investigadores
centró su atención en los fenómenos que tenían lugar en las proximidades del
lugar de inserción de las agujas.
La importancia de la adenosina
Centraron su atención en la adenosina, un derivado del ATP
–la molécula que confiere energía a las células- que interviene en procesos como
la regulación del sueño o de la función cardiaca y que tiene propiedades
antiinflamatorias y analgésicas. Este nucleósido se libera en la piel
después de sufrir una herida e inhibe los impulsos nerviosos aliviando
el dolor.
Varios ratones con molestias en una de sus patas sirvieron
como sujetos de estudio. Los autores les sometieron a acupuntura en un punto
concreto de la rodilla en sesiones estándar y monitorizaron los niveles de
adenosina en la zona. Pudieron comprobar, en primer lugar, que el dolor
disminuía en dos tercios gracias a las agujas.
Durante el tratamiento, los niveles de adenosina cerca del
punto de inserción crecían hasta ser 24 superiores al basal. Curiosamente, en un
grupo de roedores alterados genéticamente para ser insensibles a esta molécula,
la acupuntura no tuvo efecto alguno, reforzando la idea de que
su papel es crucial para aliviar el dolor.
"Este cuidadoso estudio identifica la adenosina como parte de
ese proceso. Es una interesante contribución a nuestro creciente entendimiento
de una compleja intervención como la acupuntura", ha señalado Josephine Briggs,
directora del Centro Nacional de Medicina Complementaria y Alternativa de
Estados Unidos, que financió el proyecto.
Fuente: elmundo.es, 31-5-10
-Un
objeto desconocido, descubierto alrededor del sol
Un objeto
desconocido, seguramente de fabricación humana, ha sido descubierto en una
órbita alrededor del Sol. Bautizado como 2010 KQ, el artilugio ha sorprendido a
los astrónomos. Primero fue confundido con un asteroide, pero su inclinación, su
color y su escaso brillo indican sin duda que, en vez de una roca, se trata de
un artefacto artificial, obviamente -a no ser que nos llevemos la mayor sorpresa
de nuestras vidas, quién sabe-, elaborado en este planeta. Los científicos no
son capaces de relacionarlo con ningún lanzamiento concreto, aunque algunos
sospechan que puede tratarse de una parte de un cohete Protón ruso lanzado en
octubre de 1974 para analizar la Luna.
El objeto 2010 KQ, en órbita alrededor del Sol / Faulkes Telescope North
El objeto fue descubierto el pasado día 16 de mayo por el telescopio
Catalina Sky Survey. Orbita el Sol una vez cada 1,04 años y pasó a menos de
1,28 distancias lunares de la Tierra el pasado día 21.Al principio, los
expertos creían que era un asteroide más, pero el astrónomo Richard Miles,
del telescopio Faulkes North, se dio cuenta de que ese extraño «ovni» tenía
la huella de la mano del hombre. Los motivos son su particular color y su
escaso brillo, y su órbita circular y de muy baja inclinación. Los espectros
en ultravioleta demostraron también la existencia de dióxido de titanio,
utilizado en la fabricación de pintura blanca.
Faulkner cree que el artilugio es la «cuarta etapa» de un cohete Protón ruso
lanzada el 28 de octubre de 1974 por la sonda Luna 23. Esta nave tenía como
misión recoger muestras lunares para su posterior estudio, pero el alunizaje
fue muy violento y parte del equipo quedó dañado. La pieza que ahora se ha
convertido en un asteroide artificial puede ser un bloque equipado con un
motor 11D-58S que medía casi seis metros de longitud.
Desintegración
El objeto se aleja de la vecindad de la Tierra, pero volverá en 2036. «En la
actualidad, existe una probabilidad del 6 por ciento de que 2010 KQ entre en
nuestra atmósfera en un período de 30 años a partir de 2036», han explicado
desde el Jet Propulsion Laboratory (JPL) de la NASA. «Es muy probable que las
observaciones adicionales del objeto permitan perfeccionar su órbita y las
posibilidades de impacto. Aun en el improbable caso de que este objeto esté
dirigido para el impacto con la Tierra, es tan pequeño que se desintegraría en
la atmósfera y no causaría daños en el suelo».
La NASA detecta, rastrea y caracteriza a los asteroides y cometas que pasan
cerca de la Tierra utilizando telescopios terrestres y espaciales. La llamada «Spaceguard»
descubre estos objetos, que caracteriza según sus órbitas para determinar si
alguno podría ser potencialmente peligroso para nuestro planeta.
Fuente: abc.es,
29-5-10
-El
homínido más antiguo recibe críticas
¿Era Ardi, el
homínido más antiguo encontrado hasta ahora, verdaderamente un antepasado del
ser humano, y vivía en un bosque o más bien en una sabana? Algunos aspectos de
lo que fue considerada la noticia científica más importante del año 2009 son
objeto de cierto debate en la comunidad científica, que se refleja en un
intercambio de argumentos entre los descubridores y estudiosos del
Ardipithecus ramidus, hallado en Etiopía, y sus críticos.
Por un lado, el especialista en homínidos extinguidos
Esteban E. Sarmiento, de la Fundación Human Evolution de EE UU, cree que no
existen pruebas suficientes de que Ar. ramidus fuera un homínido, es
decir, que perteneciera al linaje humano tras la separación del linaje del
chimpancé, y se inclina por que era anterior a esta divergencia.
La presentación en sociedad, largamente esperada, del
Ar. ramidus, un fósil de hace 4,4 millones de años, se hizo a través de
una decena de artículos publicados, bajo la dirección del paleontólogo
estadounidense
Tim White , el 2 de octubre de 2009 en la revista Science, la
misma que acoge ahora el debate. Según Sarmiento, la identificación de un
homínido sobre la base de las características de los dientes caninos y
premolares induce a equivocación y otras supuestas pruebas, como la de que
podía andar erguido basándose en la morfología del pie, no son convincentes.
White y algunos de sus colegas argumentan que son
múltiples los parecidos dentales, craneales y esqueléticos entre el Ar.
ramidus y otros homínidos, especialmente con el australopiteco posterior
y que no sería lógico que estas características se hubieran desarrollado
antes de la separación con el chimpancé y luego hubieran vuelto a surgir. El
paleontólogo español Juan Luis Arsuaga, que tiene una buena relación con
White, señala que cree que sí es un homínido, pero que quedan aspectos por
aclarar en lo que se publicó, como lo relativo a la monogamia y la postura
bípeda.
Esta última característica, tan importante, tiene que ver
también con la segunda crítica, que se refiere al ambiente en que vivió la
criatura en lo que hoy es el desierto de Etiopía. Un gran experto,
Thure Cerling , de la Universidad de Utah, y científicos de otras
universidades argumentan que se trataba de una sabana y no del bosque mucho
más cerrado que White y sus colegas presentan. Para ello esgrimen complejas
interpretaciones de paleoisótopos, la técnica preferida actualmente para
recrear el ambiente pretérito. White y sus colegas las refutan, con
argumentos igualmente complejos.
Hipótesis de la sabana
Nuria García, la única científica española que participó
en este trabajo, señala: "Los dos se refieren en realidad a la hipótesis
de la sabana, la idea de que los homínidos se hicieron bípedos al tiempo
que los espacios abiertos fueron siendo predominantes". García cree que
Cerling y sus colegas están interpretando a una escala errónea. "Creo que
están centrándose en una escala regional de paleoambientes, mientras que
White y los suyos, como saben de donde proceden los fósiles, la geología, y
la fauna de cada localidad, pueden hacer una interpretación específica del
hábitat solo de Ar. ramidus". La paleontóloga española, que trabajó
precisamente en la interpretación del ambiente, sobre datos de miles de
fósiles, cree que White da una mejor interpretación global, al menos por el
momento, y que además establece que la hipótesis de la sabana es ahora
testable científicamente, cuando antes no lo era.
"Ardi prefería todavía ambientes más cerrados", concluye García. "La
visión de los primates atravesando sobre dos patas las distancias entre zonas
boscosas cada vez más apartadas ha mantenido su atractivo durante décadas de
investigación", explica White, para quien los datos obtenidos del ambiente en el
que vivía Ardi socavan esta hipótesis y dan una visión nueva del nicho
ecológico de los primeros homínidos.
Fuente:
elpais.com, 27-5-10
-El
primer humano infectado por un virus informático
Parece una historia de ciencia ficción. El científico Mark Gasson, de la
Escuela de Ingeniería de Sistemas de la Universidad de Reading (Berkshire,
Reino Unido), asegura haberse convertido en el primer humano infectado por
un virus informático. El investigador se introdujo en una mano un chip
electrónico como parte de una investigación sobre los riesgos potenciales de
los dispositivos implantables. Sin embago, el pequeño aparato resultó estar
«contaminado» por un virus. Este virus podría haber sido transferido a otros
sistemas electrónicos con los que el científico ha estado en contacto. A su
juicio, lo ocurrido destapa la inquietante posibilidad de que, en un futuro,
avanzados dispositivos médicos como los marcapasos o los implantes cocleares
sean vulnerables a ataques cibernéticos.
Gasson se implantó el chip en su mano hace un año para realizar un
experimento científico. El artilugio es una versión mejorada de los chips de
identificación utilizados para localizar a las mascotas perdidas, algo más
sofisticado que los que llevan los perros y los que se utilizan en las
etiquetas de seguridad para evitar robos en las tiendas. El dispositivo
estaba programado para que su propietario pueda abrir las puertas de
seguridad de la universidad y desbloquear su teléfono móvil automáticamente.
Sin embargo, de alguna forma el chip se vio infectado por un virus
informático, un error que ha dañado su sistema principal de comunicación y
que ahora Gasson lleva en su propio cuerpo. Es muy posible que, si ha
entrado en contacto con otros sistemas informáticos, el virus se haya
transmitido.
Mark Gasson
«Fuera de control»
«Al igual que las personas con implantes médicos, después de un año de tenerlo,
lo siento como parte de mi cuerpo. Si bien es emocionante ser la primera persona
infectada por un virus informático de esta manera, encuentro que es una
experiencia que viola mi intimidad, porque el implante está íntimamente
conectado a mí, pero la situación está fuera de control», explica Gasson en un
comunicado dado a conocer por el centro universitario británico.
Según Gasson, a medida que la tecnología implantable se ha desarrollado, también
se ha vuelto más sensible a los virus informáticos. «Nuestra investigación
demuestra que es posible comunicar, almacenar y manipular datos en los
implantes. Los beneficios de este tipo de tecnología tienen sus riesgos», ha
confesado el científico. El peligro es que alguien pueda acceder a uno de estos
aparatos tecnológicos implantados y cambiar la programación a su antojo o
utilizarlos con fines no médicos, algo que, a juicio de Mark Gasson, debe ser
tenido en cuenta de cara al futuro.
Fuente: abc.es,
27-5-10
-Resuelto el enigma del "Gran Cañón" marciano que inquietaba a los astrónomos
¿Qué son esos hoyos sobre la superficie helada de Marte, unas simas tan
gigantescas que hasta permiten ver las capas inferiores del planeta? Desde
que fueron descubiertas, hace ahora cuarenta años, estas formaciones
geológicas, una enorme sima más grande que el Gran Cañón de Colorado en
Estados Unidos y unas series de depresiones espirales, han resultado para
los científicos un auténtico enigma. Hasta ahora. Investigadores de la
Universidad de Tejas y del Instituto de Geofísica de Austin han reconstruido
la formación de estos fenómenos en el noreste del planeta con la ayuda de
los datos obtenidos por la sonda Mars Reconnaissance Orbiter de la NASA, y
han concluido que son fruto de una poderosa acción conjunta del viento y el
Sol. Los hallazgos aparecen publicados en el último número de la revista
Nature.
En el caso de la Tierra, las enormes capas de hielo se disponen y toman
forma a partir del movimiento; mientras que en el caso de Marte, de acuerdo
con este último descubrimiento, otros fenómenos contribuyen a la hora de
darle forma. En concreto, esta capa de hielo marciana tiene tres kilómetros
de profundidad y cubre un área un poco mayor que el estado norteamericano de
Tejas.
Con los datos obtenidos por radar, los científicos son capaces de
diseccionar el hielo en varias capas, de igual forma que si fuera una
cebolla. En el caso del primer misterio astronómico resueltos se corresponde
con 'Chasma Boreale', un cañón tan largo como el del Colorado, pero más
profundo y ancho.
Algunos científicos sostienen que estas formaciones podrían haber surgido
por el calor volcánico del planeta, que derritió las capas más profundas del
bloque de hielo. Sin embargo, el nuevo trabajo apunta a que estos fenómenos,
incluidas las depresiones espirales, surgieron a partir de fuertes vientos
polares, llamados 'katabatics', que tallaron el cañón o esas formas en el
hielo durante 2,5 millones de años.
La región norte de Marte muestra capas polares de hielo prácticamente
circulares y blancas de unos mil kilómetros de longitud. Esta zona estaría
biseccionada por el 'Gran Cañón' o 'Chasma Boreale' en el lado derecho, y la
zona oscura, las depresiones espirales / NASA/Caltech/JPL/E. DeJong/J. Craig/M.
Stetson
Fuente: abc.es,
27-05-10
-El transbordador "Atlantis" finaliza
su última misión
El transbordador Atlantis de la NASA tiene previsto
aterrizar hoy en Cabo Cañaveral por última vez después de un cuarto de siglo
llevando astronautas al espacio.
La
nave tocará la pista de aterrizaje a las 8.48 de la mañana de Florida (14.48
hora peninsular española). Tras esta última misión, la agencia espacial
prevé retirarlo del servicio para siempre. Es el comienzo del final de la
era shuttle, que se consumará cuando los otros dos transbordadores
que aún están en servicio, el Discovery y el Endeavour,
lleven a cabo sus respectivas misiones este año. Como a muchos otros
proyectos de la NASA, les espera un futuro incierto.
"Una vez se retiren los
shuttle,
el destino final del Atlantis
y el Endeavour
aún están por determinar", explica a Público el portavoz de
la agencia Michael Curie. Lo más probable es que los vehículos acaben sus
días como piezas de museo si la NASA consigue subastarlos. Por ahora, el
único que ya tiene hogar definitivo es el Discovery, que terminará
sus días en el National Air & Space Museum de Washington tras haber puesto
en órbita el Telescopio Espacial Hubble o haber sido el primer
transbordadoren volver al espacio tras los desastres del
Challenger y el Columbia.
El ocaso de los shuttle coincide con una
etapa de transición en la NASA impuesta por
el presidente de EEUU, Barack Obama, ante la crisis. El mandatario
anunció en febrero la desaparición del programa Constellation, que
incluía nuevos vehículos que sucederían a los shuttle. Pero su
voluntad aún está lejos de cumplirse, pues el plan debe ser aprobado por el
Congreso, donde algunos representantes demócratas y republicanos ya planean
enmiendas para resucitar Constellation o alargar la vida de los
viejos shuttle dos años más. Como siguiente paso del tortuoso
trámite parlamentario del plan Obama, el Comité de Ciencia y
Tecnología de la Cámara de Representantes celebra hoy una sesión sobre el
futuro de la NASA similar a la que ya tuvo lugar en el Senado este mes.
El
transbordador Atlantis' sobrevuela los Andes durante su última misión hacia
la ISS, donde fue tomada la imagen.NASA
Mientras el futuro de su nave se decidía a unos 600
kilómetros bajo sus pies, los seis tripulantes del Atlantis hicieron
ayer las últimas comprobaciones para asegurarse de que el fuselaje no ha sufrido
daños que puedan ponerle en peligro durante su reentrada en la atmósfera. Un
defecto de este tipo fue el que provocó que el Columbia se desintegraseen 2003. Los seis tripulantes han pasado doce días en el espacio durante
los que han llevado respuestos y nuevos elementos a la Estación Espacial
Internacional (ISS). "Hemos colocado una nueva
antena, seis baterías de repuesto, un nuevo módulo y, en general, hemos
derrotado a las fuerzas del mal", bromeó ayer el astronauta Garrett Reisman
durante una entrevista en directo con el programa televisivo The Colbert
Report.
Tras su probable llegada hoy, la NASA mantendrá al
Atlantis listo para despegar. El transbordador servirá de vehículo de
rescate durante la última misión prevista, que llevará al Endeavour a
la ISS en noviembre. La agencia decidirá el futuro final del transbordador en
uno o dos meses, explica Curie. Según AP, una de las opciones es usar el
Atlantis para una misión adicional en 2011.
Muerto el shuttle y con el Constellation en
la cuerda floja, la agencia espacial de EEUU prevé llegar a la ISS a bordo de
naves Soyuz rusas y, en unos años, a bordo de cohetes y naves privadas.
El plan ha recibido el apoyo de las empresas que fabricarán los nuevos
vehículos, pero no el de algunos congresistas, que están proponiendo en el
Congreso modificaciones sustanciales. La senadora republicana por Texas Kay
Bailey Hutchison lidera un plan para que la NASA haga una puesta a punto de los
viejos shuttle y los use en 2011 y 2012. En las filas demócratas, el
senador Bill Nelson suma apoyos para su plan de conservar los cohetes Ares
queObamaquiere cancelar. Nelson, un ex astronauta, no confía
en que las compañías privadas puedan desarrollar vehículos para llegar al
espacio.
Dos tragedias en más de 40 años de servicio
1. ‘Enterprise'
Años antes de que comenzase el programa ‘Apolo' que permitió
a EEUU pisar la Luna por primera vez, la agencia ya sopesaba crear las primeras
naves espaciales que pudieran usarse más de una vez. Así surgió el programa
‘shuttle' cuyo desarrollo comenzó en 1969. El primero en llegar fue el ‘Enterprise',
un vehículo de pruebas sin motores que despegaba con la ayuda de otro avión y
que nunca llegó al espacio.
2. ‘Columbia'
En 1981 se convirtió en el primer transbordador en llegar al
espacio. Llevó a cabo 27 misiones hasta 2003, cuando la nave se desintegró por
fallos en el fuselaje matando a sus siete tripulantes. La tragedia fue clave
para que la NASA decidiese retirar los ‘shuttle' en 2010.
3. ‘Challenger'
Fue el transbordador de vida más corta. Realizó su primer
viaje al espacio en 1983 y otras ocho misiones más. En 1986, un fallo en los
cohetes que debían ponerlo en órbita causó una enorme explosión que desintegró
la nave y acabó con sus siete tripulantes.
4. ‘Discovery'
Se estrenó en 1984 y es el transbordador más antiguo en
servicio. Tras su último viaje previsto para el 16 de septiembre será expuesto
en un museo de Washington.
5. ‘Atlantis'
Podría realizar una misión más en 2011 o ser vendido a un museo por 28,8
millones de dólares.
6. ‘Endeavour'
Es el más moderno (1992) y será el último en retirarse, en noviembre
Fuente:
publico.es, 26-5-10
-Un
estudio aclara el origen de una extraña "franja" espacial
Científicos de
Polonia y Estados Unidos han propuesto una explicación para la misteriosa
estructura con forma de franja que rodea nuestro Sistema Solar. En un artículo
publicado en la revista Astrophysical Journal Letters, explican que dicha franja
podría suponer la frontera entre la Nube Local de gas interestelar frío y otra
nube de gas extremadamente caliente conocida como Burbuja Local. De estar en lo
cierto, el Sol penetrará en la Burbuja Local dentro de unos cien años.
El descubrimiento ha causado sorpresa pues hasta ahora se pensaba que la
frontera entre la Nube Local y la Burbuja Local estaba más lejos.
«Observamos la franja porque el Sol se está acercando a una frontera entre
nuestra nube de gas interestelar local y otra nube de gas muy caliente y
turbulento», explicó el director de la investigación, el profesor Stan
Grzedzielski del Centro de Investigación Espacial de la Academia de las
Ciencias de Polonia. El profesor Grzedzielski aclaró que este fenómeno no es
extraordinario, pues el Sol penetra con frecuencia en distintas nubes de gas
interestelar.
Al entrar en la nube más caliente es probable que la heliosfera mengüe
ligeramente y provoque un ligero aumento de la radiación cósmica. La
heliosfera es una especie de «burbuja» dentro de la cual el viento solar
ofrece protección contra los rayos cósmicos dañinos. «Tal vez las futuras
generaciones tendrán que aprender cómo reforzar mejor su equipo espacial
contra una radiación más fuerte», comentó el profesor Grzedzielski.
La franja espacial objeto de estudio fue descubierta el año pasado por la sonda
IBEX (Explorador de la Frontera Interestelar) de la NASA, que se lanzó en 2008
para explorar la frontera entre la heliosfera y el espacio interestelar.
Su objetivo principal era obtener un mapa de todo el cielo de emisiones de
átomos neutros energéticos (ENA), desvelando de este modo la cinta de ENA que
rodea el Sistema Solar. Desde entonces se han propuesto varias teorías que
explican el origen de estas emisiones. La mayoría se centran en las
interacciones entre la heliosfera y el espacio interestelar, pero este último
estudio propone que los ENA se crean en la frontera entre la Nube Local fría y
la más caliente Burbuja Local. Ésta última es una región espacial extremadamente
caliente y turbulenta y probablemente el residuo de una serie de explosiones de
supernovas que se habrían producido hace millones de años.
Según los investigadores, los ENA se crean cuando los protones de la Burbuja
Local caliente roban electrones de los átomos neutros al borde de la Nube Local
más fría. Esto provoca que salgan despedidos en todas direcciones, alcanzando
algunos los detectores del IBEX.
«Si nuestra hipótesis es correcta, entonces estamos detectando átomos que se
originan en una nube interestelar que es diferente de la nuestra», señaló el Dr.
Maciej Bzowski, jefe del equipo polaco IBEX y coautor del artículo.
Por otro lado, el profesor Grzedzielski explicó que la franja es una especie de
ilusión óptica, pues en realidad los ENA se crean en toda la frontera que existe
entre la Nube Local y la Burbuja Local.
«Es un efecto puramente geométrico, que se observa porque el Sol está en la
actualidad en el lugar correcto, a un millar de unidades astronómicas de la
frontera entre nubes», apuntó. «Si el límite nube-nube es plano, o mejor
ligeramente extruido hacia el Sol, entonces parece más delgado hacia el centro
de la franja y más grueso en los laterales, justo donde se ve el borde de la
franja. Si fuéramos más lejos de la frontera no se vería la franja, ya que todos
los ENA quedarían re-ionizados y dispersados en el gas de la Nube Local.»
Fuente: Cordis,
26-5-2010
-La NASA da por finalizada la
misión "Phoenix" en Marte
La Agencia Espacial de EEUU, NASA, ha dado finalmente
por muerto al laboratorio Phoenix Mars Lander, la sonda que encontró
evidencias de agua en Marte, ya que no ha podido superar el invierno
marciano, informó el Laboratorio de Propulsión a Chorro (JPL).
Según indica hoy la NASA en su página Web, una nueva
imagen transmitida por el Mars Reconnaissance Orbiter indica que el
hielo de Marte dañó irreparablemente los paneles solares del laboratorio
durante el invierno en el planeta rojo, que es dos veces más largo que
el de la Tierra.
Aún así, según Fuk Li, responsable del Programa
de Exploración de Marte, el trabajo del laboratorio Phoenix 'ha
tenido éxito en sus investigaciones y ha superado el tiempo de
actividad que se le suponía'.
Igualmente destacó que, aunque su trabajo ha
terminado, 'el análisis de la información científica que ha
facilitado continuará aún durante algún tiempo'.
La pasada semana, la NASA indicó que los primeros
esfuerzos por recuperar el contacto y revivir al laboratorio tras el
invierno marciano no habían tenido éxito.
Phoenix 'no fue designado para sobrevivir en la
oscuridad, el frío y el hielo del invierno', reconoció hoy la NASA.
El último intento por recuperar las
comunicaciones con el vehículo se inició el lunes 17 de mayo y se
llevó a cabo a través de un enlace con la nave Mars Odyssey, cuyas
órbitas pasaron por encima de donde se encuentra Phoenix, en el
extremo norte del planeta. Tras estos movimientos, la NASA informó
de que el orbitador no había detectado ninguna señal del Phoenix
Mars Lander.
Se realizaron igualmente nuevos intentos de
comunicación con Phoenix en los días siguientes, pero al no obtener
respuesta, se decidió dar la nave por perdida. El Laboratorio de
Propulsión a Chorro emprendió estos últimos esfuerzos a pesar de
saber que eran virtualmente nulas las posibilidades de establecer
contacto con la Sonda.
'Como se esperaba, la reducción de la luz solar
(en el hemisferio norte del planeta) ha dejado al 'Phoenix', que
operaba con baterías solares, sin energía para mantenerlas
cargadas', señaló el JPL en esa ocasión. Phoenix descendió sobre la
superficie marciana el 25 de mayo de 2008 con el objetivo de
confirmar la existencia de agua en el planeta mediante análisis
hechos en el laboratorio que llevaba a bordo.
Phoenix
Y lo consiguió, ya que Phoenix confirmó la existencia de extensos
depósitos de hielo subterráneo que habían sido detectados por el
Oddyssey e identificó un mineral llamado carbonato de calcio que sugiere
la presencia ocasional de agua descongelada. La NASA indica también en
su web que 'la mayor sorpresa' de esta misión fue el descubrimiento de
un perclorato, una sustancia química que constituye un alimento para
algunos microbios pero es potencialmente tóxica para otros. Aunque con
dificultades, la NASA todavía mantiene en operaciones a los vehículos
exploradores 'Spirit' y 'Opportunity', los cuales descendieron sobre la
superficie del planeta hace casi cuatro años.
Fuente: EFE, 25-5-10
-Vertido en el Golfo de México: ¿la
historia interminable?
Dicen los blogeros expertos que no es bueno insistir
mucho sobre el mismo tema. Parece ser que esto resta lectores. Pero lo
que está sucediendo en el
desastre del Golfo de México es impactante. En primer lugar British
Petroleum y el Gobierno americano no dieron
las cifras reales
del vertido. De las 800 toneladas diarias de vertido hemos pasado a
oir que se podrían haber vertido 4000 toneladas diarias. Y BP sigue sin
encontrar una solución y va trampeando como puede. Ya nos hemos
acotumbrado al vertido del Golfo de México y poco a poco desaparece de
las portadas de los medios de comunicación.
Hace unos días, por fin, British Petroleum
comenzó a recoger una pequeña parte del petróleo que se derrama en
el Golfo de México tras haber insertado un tubo en la fuga principal del
pozo. Sin embargo,
el Gobierno estadounidense duda de que la petrolera BP, responsable
de la platarforma que causó el vertido de crudo en el golfo de México,
pueda controlar el derrame en los próximos días.
El profesor de ingeniería mecánica Steve Wereley, de la Universidad
de Purdue, testificó ante un subcomité de la Cámara de Representantes,
para estimar cuánto petróleo emana al golfo en realidad. Hay dos fugas.
Su opinión: De una emanan 70.000 barriles y de la otra, 20.000. El
vertido, considerando el margen de error, es de entre 76.000 y 104.000
barriles por jornada.
Según diversos modelos científicos de predicción
del comportamiento de las corrientes y de los remolinos en el Golfo,
la mancha, difícil de avistar con imágenes tomadas a través de
satélites, podría unirse a la corriente de Lazo, que avanza desde la
península de Yucatán, en México, a los cayos de Florida, para,
eventualmente, cruzar el Atlántico, de forma diluida. La
corriente de Lazo avanza siempre en la dirección de las manillas
del reloj, dentro del Golfo, y se conecta a la corriente del Golfo
en el sur de Florida, cerca de Cuba. Sin embargo,
su trayectoria y forma cambian. En ocasiones discurre muy al
norte, rozando las costas de Luisiana, Misisipi y Alabama, y en
ocasiones fluye más al sur. Durante el fin de semana, diversos
científicos revelaron la existencia de unas columnas gigantescas de
petróleo en el lecho marino, de hasta 16 kilómetros de largo. Esos
bancos de petróleo podrían unirse fácilmente a la Corriente de Lazo
y, de allí, a la del Golfo. En teoría podría llegar a Europa
(Galicia) de forma diluida. El crudo
ya llegó a las costas de Luisiana. Y mancha unos 100 kilometros
de humedales.
Diversos agentes
del Departamento de Interior han informado este
viernes de que han encontrado más animales cubiertos de petróleo:
186 tortugas y 60 aves pero cada día estas cifras continuan
creciendo. La mayoría de las tortugas y 43 aves han muerto por los
efectos del crudo. Además, han encontrado 18 delfines varados en
distintas playas.
El
crudo que ha emanado durante el último mes se mantiene, de
momento, hundido en el lecho marino por el efecto de unos
disolventes que BP esparce sobre la superficie. La Agencia de
Protección Ambiental de EEUU (EPA, por sus siglas en inglés)
advirtió ayer a BP de que tiene 24 horas para elegir un dispersante
químico menos tóxico que los que la compañía usa actualmente para
tratar de evitar que el vertido llegue a las costas. Hasta el
momento, BP ha utilizado más de dos millones de litros de dos tipos
de dispersantes. Por ejemplo BP ha utilizado 2,5 millones de litros
de
Corexit que ya se empleó en el vertido del
Exxon Valdez.
“Corexit,
fabricado por la compañía Nalco, cuyo consejo de administración
incluye a ejecutivos de Exxon y de British Petroleum. El secreto a voces
en Houston es que Corexit es un dispersante que fabrica la industria
petrolera para vendérsela a sí misma. BP ha anunciado que ya compró
otros 850 mil galones (3.2 millones de litros) de Corexit. Según la
Agencia Federal de Protección del Medio Ambiente (EPA), el Corexit es
uno de los dispersantes más tóxicos y menos eficientes para enfrentar
derrames de crudo como el de las costas de Luisiana. La realidad es que
mientras los dispersantes ayudan a mantener las capas de crudo lejos de
las playas y humedales, tienen efectos a largo plazo sobre los
ecosistemas y la fauna marina. Cuando se usó el Corexit en el derrame
del Exxon Valdez, varios voluntarios sufrieron infecciones y problemas
de salud. Pero todo eso es irrelevante: BP necesita evitar a toda costa
que la capa de petróleo suba a la superficie y manche su imagen. ”Beyond
Petroleum” (Más allá del petróleo), se anunciaba hace poco la compañía.”
“Después del fracaso de intentar cubrir la fuente del
vertido con dos campanas de acero y cemento de distintos tamaños, BP
va a tratar de cubrir la perforación
por la que el petróleo emana al
océano, a 1′5 kilómetros de profundidad, con una mezcla de líquidos
pesados, lodo y cemento. En principio iba a utilizar esa nueva técnica
este mismo fin de semana, pero sus ingenieros han decidido dejarlo para
la semana que viene.”
“La petrolera British Petroleum (BP) ha informado hoy
de que
el coste para intentar contener el vertido de petróleo en el golfo
de México asciende ya a unos 596 millones de euros. La empresa británica
ha indicado que sólo en la última semana el montante ascendió a unos 153
millones, pero precisó que es aún prematuro para establecer el gasto
final. BP ha aceptado hacerse cargo de los costes de la limpieza del
golfo de México, además de pagar una indemnización de 75 millones de
dólares (unos 60 millones de euros) por el vertido que provocó la
explosión y posterior hundimiento hace un mes de una plataforma operada
por la petrolera. La petrolera británica ha reconocido asimismo que la
marea negra que se extiende hasta las costas estadounidenses es “una
catástrofe”.
“Más de 24.000 efectivos gubernamentales y
voluntarios, junto a un millar de embarcaciones, trabajan casi sin
descanso para impedir que la marea negra penetre aún más en las marismas
de Luisiana o que se extienda a los
Cayos de Florida
y las playas de Miami en su destructivo viaje por las aguas del
Golfo. De alcanzar estos puntos, podría generar un desastre ambiental
aún mayor que el actual, además de provocar ingentes daños al turismo en
Florida, una industria que mueve más de 60.000 millones de dólares cada
año.”
Menos mal que el actor Kevin Costner prestará a la petrolera BP
máquinas centrifugadoras con tecnología desarrollada por él y un grupo
de científicos, que separan el crudo del agua para tratar de limpiar el
vertido del golfo de México…
Fuente: Blog "ciencia marina y otras
historias", 25-5-10
-Los genes reescribirán la historia de Estados Unidos
Andrew Powell no pretende pasar a la historia como el hombre que cambió la
fecha del Día de Acción de Gracias. "Eso es para los americanos", dice a
Público. "Es un gancho periodístico", añade. Pero si triunfa en su
empeño, ese podría ser su legado, si no fuera por la inercia de una
tradición de casi siglo y medio.
Argumentos no le faltarían: la cena del pavo rememora a la primera colonia
británica estable en Norteamérica, la de los peregrinos del Mayflower
en Plymouth. Así, quien demostrase que esta no fue la primera colonia
estable tendría derecho de enmienda a la totalidad.
Esa puede ser la conclusión si el proyecto que persigue
este alcalde inglés, en colaboración con un equipo de investigadores de EEUU,
logra su propósito: demostrar que el
asentamiento de la isla de Roanoke, fundado tres decenios antes de la
aventura del Mayflower, dejó descendencia tras su misteriosa
desaparición.
El episodio de la colonia perdida es popular para los
estadounidenses, añadiendo al interés histórico el ingrediente del misterio.
En 1587, el británico Sir Walter Raleigh fletó una expedición de 117 colonos
al nuevo mundo con el aval de la reina Isabel I. La flotilla se hizo a la
mar en Bideford (Devon) el 8 de mayo y tocó tierra el 22 de julio en la isla
de Roanoke, frente a la costa de Carolina del Norte. El gobernador de la
colonia, John White, regresó poco después a la metrópoli para reunir
refuerzos y provisiones. Su vuelta a Roanoke
se frustró cuando Inglaterra desvió todos sus recursos, incluyendo
los barcos de White, a la guerra contra la Armada Invencible española.
Representación de un poblado indio, basada en la descripción que hizo John
White de lo que observó en Roanoke.JAVIER
YANES
Croatoan
El gobernador no pudo regresar a sus dominios hasta 1590, y lo hizo para
descubrir que su flamante nuevo mundo estaba desierto. Los colonos habían
desaparecido sin signos de lucha ni otra pista más que una palabra grabada en
uno de los postes del fuerte: Croatoan. Este era el nombre de los indios de la
región, y así llamaban también los europeos a la isla donde vivían los nativos
(hoy isla Hatteras). Dado que los colonos se habían amistado con los croatoan,
White dedujo que algún motivo les había empujado a mudarse con sus vecinos. Pero
nunca pudo verificarlo. Tras poner rumbo a Croatoan, un huracán desvió a la
flota de la costa y la condenó a regresar a Inglaterra. Así, la colonia de
Roanoke quedó perdida para siempre.
Varias hipótesis han tratado de reconstruir
los hechos, aún sin una versión definitiva. Pruebas claras son un anillo
inglés de oro del siglo XVI desenterrado en Croatoan y otros artefactos, que se
unen a testimonios históricos sobre nativos de ojos claros batiendo cobre en los
poblados indígenas.
En 2005, un grupo dirigido por la experta en tecnología y genealogía Roberta
Estes fundó en EEUU el Proyecto de ADN de la Colonia Perdida, con el fin de
rastrear genéticamente a los descendientes del grupo de White. Estes detalla a
este diario que ha reunido ya 380 muestras de ADN de cromosoma Y para la línea
paterna "la más importante porque había mayoría de hombres", dice y 196 de ADN
mitocondrial para la línea materna. Todas ellas proceden de voluntarios que, por
sus apellidos, origen o linaje familar, son candidatos a descendientes de los
colonos perdidos. El socio técnico para el procesamiento del ADN es la empresa
de genealogía genética Family Tree DNA, con sede en Houston (Texas).
Al proyecto se une ahora Powell, alcalde de Bideford. La rama británica del
estudio de ADN hará posible vincular a primos lejanos descendientes de colonos a
ambos lados del Atlántico, lo que para Powell sería "el Santo Grial". "El
proyecto está en sus primeros pasos", apunta, y "el problema crítico es la falta
de fondos". Pero el regidor, que pronto publicará un libro sobre los hechos de
Roanoke, es entusiasta: "Si tenemos razón, la historia de EEUU se reescribirá
con un nuevo comienzo, 33 años antes de los Padres Peregrinos".
Fuente:
publico.es, 24-5-10
-Hallado el primero coral de aguas frías
Dos especies de coral dominan el arrecife.IEO
Los
arrecifes de coral son famosos por sus exigentes requisitos ecológicos, ya
que suelen necesitar aguas cálidas, limpias y con gran aporte de luz solar,
típicas de zonas tropicales. No obstante, en un cañón submarino del mar
Cantábrico, un equipo de biólogos del Instituto Español de Oceanografía (IEO)
ha encontrado un arrecife de coral a 800 metros de profundidad.
"Es un gran descubrimiento, ya que es el primero de este tipo que se detecta
en aguas españolas", según afirmó a Público el responsable de la
investigación, Francisco Sánchez.
El equipo estaba inmerso en la investigación del Cañón
submarino de Avilés cuando descubrió la existencia de otros dos
cañones. "Al explorar uno de ellos, nos encontramos con el
arrecife", explica Sánchez. Según el biólogo del IEO, "cada vez se están
descubriendo más formaciones de este tipo por todo el mundo, pero su
exploración es complicada debido a la profundidad a la que se encuentran".
El arrecife tiene una extensión aproximada de 80.000 metros cuadrados y está
compuesto principalmente por las especies Madrepora oculata y
Lophelia pertusa.
Ya se conocía la existencia de corales aislados en aguas
frías, "por lo que lo importante de este descubrimiento es que la agrupación
de corales en forma de arrecife da lugar a un nuevo ecosistema al que se
asocian otras especies, lo que crea un hábitat de gran complejidad",
concluye Sánchez.
Fuente: publico.es, 22-5-10
-La "medusa" que descontamina los ríos
Physalia es el nuevo proyecto de Vincent Callebaut, un buque que pretende cruzar
los cauces fluviales de Europa con exposiciones sobre los entornos naturales,
mientras purifica el agua a su paso y sirve de laboratorio para la investigación
sobre nuevos métodos de saneamiento.
Plásticos, aguas jabonosas, restos químicos industriales, purines de las
ganaderías, fertilizantes de uso agrícola, disolventes o hidrocarburos. Todo
llega en mayor o menor medida a los cauces de los ríos. No hace falta más
que tirar del álbum de fotos para ver las consecuencias que el progreso
humano ha tenido en el sistema hidrológico; aquellas pozas cercanas donde
acudían las familias a bañarse han desaparecido o ahora son, simplemente,
impracticables. Además, si se miran el botiquín de casa y la colección de
jabones y ungüentos, se descubre que cualquier actividad humana contamina.
Aunque los datos de la ONU son alentadores cuando afirman que el 90 por
ciento de la población mundial bebe y utiliza agua apta para el consumo y
aunque vivimos con la certeza de que en Europa estamos muy lejos de
pertenecer a esos 900 millones de personas que siguen sin acceso al agua
potable, la gestión del agua, su saneamiento y su análisis siguen siendo de
interés prioritario para la UE, como se destaca en varios de sus informes.
«El aumento de la población y la industrialización, la intensificación de la
agricultura, la canalización (…), el uso recreativo, las sequías y las
inundaciones han aumentado las presiones ejercidas sobre las aguas
continentales europeas», dice el informe sobre aguas continentales de la
Agencia Europea del Medio Ambiente.
La "medusa" en acción
Entre Directivas Marco del Agua y proyectos de análisis institucionales sobre el
estado de las aguas y la concentración de nuevos agentes contaminantes, como las
drogas, aparecen ideas extraoficiales de lo más audaces. Es el caso del Physalia,
un concepto arquitectónico francés, un futurista anfibio diseñado por Vincent
Callebaut y que toma su espectacular forma de la medusa Physalia physalis, más
conocida como la carabela portuguesa. Este experimental buque-ágora pretende
cruzar los cauces fluviales de toda Europa con exposiciones temporales sobre los
entornos naturales, mientras purifica el agua a su paso y sirve de laboratorio
internacional para la investigación sobre nuevos métodos de saneamiento. «El
hombre está en el centro de este proyecto biónico que recomienda el equilibrio
entre las acciones humanas y el respeto del medio ambiente», explican fuentes
del estudio arquitectónico.
Cubierto o al aire libre
Su particular estructura desmontable albergará en su casco una doble membrana
neumática con paneles fotovoltaicos que generarán la energía necesaria para el
funcionamiento de las instalaciones e hidroturbinas en la parte inferior para
utilizar la fuerza de la corriente y moverse por los ríos. Una capa de aluminio
recubre la estructura de acero y además está envuelto por una capa de óxido de
titanio que, al reaccionar con los rayos ultravioletas, limpiaría el agua, al
menos en teoría. «Es como en las depuradoras, donde se irradia el agua para
eliminar las bacterias. Pero si el agua tiene turbidez y no pasa la luz…»,
matiza Iñaki Vadillo, investigador del grupo de Hidrogeología y profesor de la
Universidad de Málaga.
Toda la cubierta se mueve para poner fin al trabajo de los paneles solares y los
jardines superiores, desvelando al mismo tiempo parte de su distribución
interior, programada en torno a cuatro grandes espacios. El jardín del agua
representa la puerta de entrada a la nave y estaría reservada a las exposiciones
temporales.
Mientras el techo está cerrado, su superficie metálica absorbe y refleja la
luminosidad de las aguas, aunque puede desaparecer dando paso a un ambiente
abierto a la brisa fluvial. El área de la Tierra es el corazón de este gran
buque, porque es el centro de la arquitectura y porque en él se desarrollarán
los trabajos de laboratorio de los investigadores. La zona más profunda contaría
con sillones para la relajación, una enorme vitrina central en la que ardería un
fuego en claro contraste con los ojos de buey de la sala para admirar la
panorámica de la fauna y la flora local. Y por último el jardín del aire, un
anfiteatro abierto al ambiente y creado con el fin de ser el foro de discusión y
punto de encuentro de visitantes, investigadores y ciudadanos.
Antidepresivos y cocaína
Un proyecto utópico y optimista que quizá no salga a la luz, pero que es
importante como idea. Aunque no se puede separar el tratamiento del agua
superficial, cuya contaminación es más fácil de detectar y más inmediata, de las
aguas subterráneas, más protegidas por el filtro natural del suelo que impide el
acceso a algunos contaminantes, pero más difíciles de regenerar y que en última
instancia alimentan también a las aguas superficiales. «No sirve para nada
estudiar sólo el río, hay que estudiar todo el ciclo hidrológico», apunta
Vadillo.
Aunque la regulación es clara
respecto a la depuración de aguas de zonas urbanas e industriales antes de su
incorporación a los cauces y a que los agentes contaminantes son conocidos,
medidos y regulados, en los últimos años, los ríos siguen sufriendo las
consecuencias de la vida del hombre y el mejor remedio sigue siendo la
prevención.
Además de que nuevos componentes añaden su toxicidad a las aguas, produciendo
modificaciones en el comportamiento metabólico y que aún deben recorrer un largo
camino en cuanto a detección y regulación se refieren. Son los llamados PPCP e
incluyen analgésicos, antibióticos, antiepilépticos, antidepresivos e incluso
drogas de consumo de fin de semana. Muchos estudios se han ocupado del análisis
de este tipo de sustancias en la aguas urbanas.
El reciente proyecto Aquaterra, liderado en España por el investigador del CSIC,
Damiá Barceló, denunció la presencia en el río Ebro de cocaína en primer lugar,
y de anfetaminas o éxtasis, revelando algo más que la radiografía del consumo
social. «Los fármacos son uno de los agentes contaminantes de las zonas urbanas.
Cada vez se consumen en mayor cantidad con el consiguiente riesgo ambiental»,
explica Barceló.
Fuente: larazon.es, 22-5-10
-Japón se acerca a Venus con una sonda que estudiará su clima
Japón lanzó hoy su primera misión espacial a Venus, una sonda que durante dos
años estudiará el clima y los misteriosos fenómenos atmosféricos del planeta
'gemelo' de la Tierra.
'Akatsuki' ('Aurora'), como se ha bautizado informalmente a
la sonda Planet-C, es una de las grandes apuestas de la Agencia de Exploración
Aeroespacial de Japón (JAXA), que ha invertido en este proyecto 25.200 millones
de yenes (unos 220 millones de euros).
El 'Akatsuki' despegó hoy con éxito del Centro Espacial
de Tanegashima, en el sur de Japón, a las 06.58 hora local (21.58 GMT) a
bordo del cohete lanzadera H2-A, que transportaba otros cinco satélites
secundarios.
Menos de media hora después estaba en órbita y, tras
separarse de la lanzadera, emprendía en solitario un largo viaje de unos
siete meses hacia el más cercano vecino de la Tierra.
Si todo transcurre como se espera, el próximo diciembre 'Akatsuki',
de 500 kilos, comenzará a orbitar a una distancia que variará entre los 300
y los 80.000 kilómetros de la superficie de Venus.
Esta es la primera misión de exploración planetaria de
Japón, la segunda economía mundial, desde 1998, cuando el Instituto de
Ciencia Espacial y Astronáutica del Ministerio de Educación lanzó el cohete
'Nozomi' para explorar Marte.
Aquella misión fracasó y el 'Nozomi' ('Esperanza') se dio
por perdido en el espacio en diciembre de 2003. Según el científico Takeshi
Imamura, uno de los responsables del proyecto, 'Akatsuki' es la primera
sonda espacial 'que merece ser definida como un satélite meteorológico'.
Sobre Venus, a una altitud de unos 60 kilómetros de la superficie, soplan
vientos huracanados a más de 100 metros por segundo, una velocidad 60 veces
mayor que la de la lenta rotación del planeta (un día de Venus corresponde a
243 días terrestres).
''Akatsuki' investigará la causa de este misterioso
fenómeno. Otro objetivo es estudiar la formación de las gruesas nubes de
ácido sulfúrico que envuelven Venus y detectar los relámpagos sobre el
planeta', explica Imamura a través de la web de JAXA.
La sonda está equipada con cinco cámaras, entre ellas una
de infrarrojos capaz de ver más allá de las espesas nubes sulfúricas y
observar la superficie venusiana, normalmente sumida en la oscuridad por la
densa nubosidad. Así, además de elaborar el peculiar parte meteorológico de
Venus, 'Akatsuki' examinará la posible actividad volcánica en este planeta
rocoso, similar a la Tierra en tamaño y masa pero con una presión 90 veces
mayor y una temperatura de más de 400 grados centígrados.
La sonda enviará asimismo imágenes dinámicas en tres dimensiones de los
movimientos atmosféricos de Venus, lo que permitirá realizar el primer mapa
en 3D de la capa gaseosa que lo envuelve. La nave japonesa compartirá la
órbita venusiana con la sonda Venus Express, de la Agencia Espacial Europea
(ESA), que lleva cuatro años explorando en detalle la atmósfera de este
planeta mediante su Espectrómetro de Imagen Infrarroja y Visible (VIRTIS,
siglas en inglés).
La información de las dos sondas se complementará, ya que
mientras Venus Express estudia principalmente la composición química, 'Akatsuki'
se centrará en 'el movimiento de la atmósfera', según JAXA. Junto con su sonda
venusiana, la agencia espacial nipona lanzó hoy cuatro satélites secundarios
desarrollados por estudiantes y empresas privadas, además de un quinto,
bautizado como 'Ikaros', que será propulsado en el espacio por energía solar. El
'Ikaros' ha sido definido como un 'yate espacial', ya que tiene una finísima
vela solar -una membrana de la mitad del grosor de un cabello- de 20 metros
preparada para desplegarse una vez el satélite esté fuera de la atmósfera
terrestre.
Japón se adentró de lleno en la investigación espacial en
2003, cuando decidió unir la Agencia Nacional de Desarrollo espacial y otros dos
centros de investigación para dar lugar al JAXA, que hoy en día mantiene una
estrecha colaboración con agencias como la NASA o la ESA.
Fuente: EFE, 21-5-10
-La ciencia
consigue "vida" artificial
«Esto cambia mi definición de la
vida y mi visión de cómo se desarrolla la vida», asegura el científico.
Dos de las células creadas artificialmente por Craig Venter
En 1995, cuando el biólogo norteamericano John Craig Venter secuenció por
primera vez el genoma de una bacteria, anunció que no pararía ahí. Cuatro años
más tarde impulsó el «Proyecto Genoma», en 2000 se convirtió en «padre» del
genoma humano y en 2002 anunció su intención de crear «una nueva forma de vida»
artificial. Ahora Venter acaba de anunciar que ha conseguido su sueño: ha
logrado controlar una célula bacteriana con un genoma sintético. Algo que, de
acuerdo con el investigador, es tanto como haber «fabricado la primera célula
sintética». Así lo publica en el último número de la revista «Science», donde
asegura también que el hallazgo contribuirá a
solventar problemas «ambientales y de energía», entre otras
aplicaciones.
En concreto, el equipo de investigadores del Instituto Craig Venter en Rockville,
Maryland y San Diego, California (EE UU), ha conseguido sintetizar químicamente
el genoma de la bacteria mycoplasma mycoides. Ya había conseguido el primer
genoma sintético de una bacteria en enero de 2008, pero en esta ocasión
agregaron secuencias de ADN para distinguir ese genoma de uno natural. Después,
implantaron el genoma artificial (compuesto de un único cromosoma) en una célula
bacteriana, de manera que controlaron totalmente la célula con el nuevo genoma.
Una vez hecho público el experimento, surgen nuevas incógnitas. Además de las
posibles aplicaciones, ahora la discusión está en saber si la célula de Venter
se puede considerar una «vida artificial». Para el biólogo está muy claro. «Ésta
es la primera célula sintética que se ha creado, y la llamamos sintética porque
se deriva totalmente de un cromosoma sintético, hecho con cuatro tipos de
sustancias químicas, un sintetizador y empezando con información en un
ordenador». Asimismo, señala que esto será «una herramienta muy poderosa para
definir qué queremos que haga la biología».
Los investigadores también son conscientes de las implicaciones éticas del
proyecto. «Se trata de un paso importante, tanto científica como
filosóficamente. Esto, ciertamente, cambia mi definición de la vida y mi visión
de cómo se desarrolla la vida».
Célula primaria natural
Sin embargo, no está tan claro que la célula de Venter sea una nueva «vida». De
hecho, el propio artículo de «Science» se titula «Primera célula controlada por
un genoma sintético», pues sólo el material genético está creado en el
laboratorio, pero la célula primaria es natural.
César Nombela, catedrático de Microbiología de la Universidad Complutense de
Madrid, considera que «no se trata de una célula artificial». Explica que no
sólo se ha utilizado una célula natural como soporte, sino que, para sintetizar
el ADN de la bacteria y ensamblar las partes del cromosoma se han empleado
materiales naturales, como la levadura.
En cualquier caso, el equipo de Venter ha prometido que el experimento tendrá
utilidades prácticas en el futuro. Algas que capturan el dióxido de carbono,
biocombustibles y mejoras en la producción de vacunas están entre los posibles
usos de esta «vida» de laboratorio.
Sin embargo, otros científicos, como el profesor de Oxford Julian Savulescu,
alertan de que los riesgos irán «en paralelo». Savulescu indicó a la cadena BBC
que habrá que impedir «el mal uso», incluso por parte de terroristas, de esta
tecnología, con la que se podría fabricar «el arma biológica más poderosa».
Recrear la vida en laboratorio
Para su investigación, el equipo de científicos sintetizó el genoma de una
bacteria llamada M. mycoides, a la cual agregaron secuencias de ADN para
distinguir ese genoma de otro
natural. Las colonias azules (en la imagen, arriba) indican que se ha producido
un trasplante del genoma sintético con éxito en una célula bacteriana.
Fuente: larazon.es, 20-5-10
-La
extraña supernova que se metió en nuestros huesos
No todas las
explosiones son iguales. Algo que puede ser tan cierto para los efectos
especiales de las películas como para las estrellas. Hasta ahora, los
científicos sólo habían observado dos tipos básicos de estrellas en explosión,
conocidas como supernovas, pero resulta que hay una más. Investigadores del
Instituto Weizmann de ciencia, en colaboración con colegas de todo el mundo
-entre ellos astrofísicos del instituto Max-Planck de Alemania o del Centro
Harvard-Smithsoniano-, han identificado un tercer tipo de supernova. SN 2005E,
como ha sido bautizada, no sólo es una curiosidad astronómica.
Su existencia puede explicar algunos fenómenos enigmáticos en el Universo,
como la presencia del calcio en el cosmos y hasta en nuestros huesos. El
estudio aparece publicado en la revista Nature.
Los dos primeros tipos de supernovas son gigantes jóvenes y calientes que
salen disparadas con violencia a medida que se colapsan bajo su propio peso,
o son viejas y densas enanas blancas que estallan en una explosión
termonuclear. La nueva supernova apareció en el objetivo de los telescopios
a principios de enero de 2005. Los científicos comenzaron a recoger y
combinar datos con diferentes instrumentos ópticos de todo el mundo,
midiendo la cantidad de material arrojado en la explosión y su composición
química. Pronto descubrieron que el fenómeno no se ajustaba a los parámetros
conocidos.
Una imagen de SN 2005E (sobre la flecha) y su galaxia NGC 4589 tomada por el
telescopio Subaru en 2005 / Subaru Telescope, NAOJ
Una reacción nuclear
Por un lado, la cantidad de material arrojado desde la supernova era demasiado
pequeña para haber venido de una gigantesca explosión. Además, su ubicación,
distante de los centros donde se forman las estrellas, implicaba que era una
estrella más antigua que había tenido tiempo de escapar de su lugar de
nacimiento. Por otro lado, su composición química tampoco coincidía con el
segundo tipo ya conocido, ya que tenía niveles inusualmente altos de calcio y
titanio, productos que suelen encontrarse en una reacción nuclear de helio, en
lugar de carbono y oxígeno. «Nunca antes habíamos visto algo así», admite Paolo
Mazzali, del Instituto Max-Planck. Los investigadores creen que la supernova
puede haberse producido con la relación de dos enanas blancas. Una de ellas le
roba helio a la otra y se produce la explosión. «La estrella donante es
probablemente destruida en su totalidad durante el proceso, pero no estamos muy
seguros sobre el destino de la estrella ladrón», explica otro de los
investigadores, Avishay Gal-Yam, del Instituto Weizmann.
Los científicos creen que otras supernovas observadas anteriormente pueden
encajar en este patrón y explicar algunos fenómenos enigmáticos en el Universo.
Por ejemplo, podría ayudar a explicar la prevalencia del calcio tanto en el
cosmos como en nuestros huesos, y también podría explicar las concentraciones
observadas de los positrones en el centro de nuestra galaxia, unas partículas
idénticas a los electrones pero con carga opuesta que algunos creen responsables
de la misteriosa materia oscura.
Fuente: abc.es,
19-5-10
-El
mayor experimento científico de la historia probará la teoria de Einstein
La NASA y la ESA van a
construir el instrumento científico más grande de la historia, que tratará de
verificar la última pata del conjunto de postulados que Einstein formuló en su
teoría de la Relatividad General. Según el físico, los grandes eventos cósmicos,
como los agujeros negros y la muerte de estrellas, producen unas ondas
gravitatorias que se extienden por el Universo. Se trata de la última pieza de
su teoría que aún no está confirmada y que este instrumento pretende resolver.
Para conseguirlo, la NASA y la ESA, agencias espaciales de EE.UU. y Europa,
respectivamente, se han propuesto lanzar al espacio tres naves que contendrán un
cubo flotante de oro-platino. Estas naves se posicionarán a 5 millones de
kilómetros una de otra, formando un triángulo equilátero. Para que nos hagamos
una idea, eso son 13 veces la distancia de la Tierra a la Luna. Una vez
alcanzada la ubicación exacta, dispararán un láser que deberá coincidir en los
pequeños cubos de 4.6 centímetros de arista. La exactitud de este sistema de
medida alcanza cotas asombrosas, pues llegarán hasta 40 millonésimas de
millonésimas de un metro de precisión. Con ello, podrán verificar la existencia
de las predichas ondas gravitatorias. Absolutamente impresionante.
En fabricación
La Antena Espacial de Interferómetro Láser, o LISA, como es llamada la nueva
misión espacial, será capaz de detectar las ondas gravitatorias de frecuencias
muy bajas por medio de la gran distancia entre las tres naves. Los científicos
ya han empezado a fabricar los instrumentos que serán instalados en la misma
LISA, pero no se espera que se comience antes del 2020.
Está prevista una misión más pequeña de experimentación, llamada LISA Pathfinder,
que está siendo construida por ingenieros británicos en la compañía espacial
Astrium EADS. Se espera su lanzamiento el próximo año, con la finalidad de
preparar el camino de esta tecnología que será usada para detectar las ondas.
Una vez detectadas, las ondas gravitatorias podrían proporcionar información del
Universo que no puede ser vista ni obtenida en la actualidad usando radiación
electromagnética como la luz, las ondas de radio y los rayos-X. Todo un hito que
puede reportarnos un mejor conocimiento de nuesta existencia.
Fuente:
publico.es, 19-5-10
-Los
rayos globulares, un misterio científico sin resolver
Durante cientos de años, se han relatado breves encuentros con rayos
globulares, una especie de esfera luminosa del tamaño de una pelota de tenis
que irrumpe generalmente durante las tormentas. El fenómeno es de lo más
extraño. Aunque los detalles de los testigos pueden variar, la aparición se
ha descrito como un objeto flotante en forma de esfera, de bastón o de
lágrima que se mueve por el aire a diferente velocidad e incluso va
acompañado de un ruido parecido a un silbido o a un crepitar de agua
hirviendo.
Existen miles de informes de testigos e incluso algunas fotografías. Durante
la Segunda Guerra Mundial, los pilotos aliados informaron haber sido
escoltados en muchas ocasiones por este tipo de centellas en la punta de las
alas de sus aviones, un fenómeno al que llamaron «Foo Fighters», un «objeto
volante no identificado» que algunos han querido confundir con señales
llegadas de otros mundos. Dejando de lado las especulaciones más
extravagantes, los científicos nunca se han puesto de acuerdo sobre la causa
de la aparición de estas bolas eléctricas e incluso muchos han creído que se
trata de un mito. Ahora, investigadores de la Universidad de Innsbruck, en
Austria, creen que han encontrado una solución al misterio. Como sucede
durante las tormentas eléctricas, sugieren que la centella es realmente una
alucinación inducida por la estimulación magnética del córtex visual del
cerebro o de la retina del ojo.
Ilustración francesa de un rayo globular / Mary Evans Picture Library, Alamy
Colores y olores
En experimentos anteriores, otros científicos expusieron a voluntarios a unos
cambios bruscos y rápidos del campo magnético utilizando una máquina llamada
estimulador transcraneal magnético (TMS). Los campos magnéticos de la máquina
son lo suficientemente poderosos para inducir corrientes eléctricas en las
células del cerebro humano sin hacerle daño. Cuando el campo magnético se
dirigió al cortex visual del cerebro, los sujetos vieron discos luminosos y
líneas. En su investigación, publicada online en arXiv.org, Joseph Peer y
Alexander Kendl argumentan que los globos oculares podrían tener el mismo efecto
en las personas.
De hecho, los investigadores creen que la mitad de los casos de rayos globulares
son trucos de la mente inducidos por el magnetismo. Sin embargo, no todos los
científicos están de acuerdo. Según explica a la revista National Geographic
John Abrahamson, químico de la Universidad de Canterbury (Nueva Zelanda) y
experto en este fenómeno, «es difícil de creer que la mayoría de imágenes de
estas centellas se deba a una influencia del cerebro». Por un lado, los colores
de la luz vistos por los sujetos del experimento fueron «blanco, gris o tonos
saturados», cuando las centellas se han visto en variedad de colores, desde el
naranja al azul y verde. Además, ¿de dónde salen los sonidos? ¿Se los inventa
también el cerebro? Incluso algunos han asegurado sentir un olor determinado.
Cuando el mismo fenómeno ha sido visto por un grupo, los testigos lo han
observado desde diferentes ángulos, lo que sería muy poco probable si su cerebro
estuviera siendo estimulado por un campo magnético y se produjera una
alucinación.
Algunos investigadores han conseguido recrear episodios similares en
laboratorio, lo que podría ayudar a explicar el enigma en la naturaleza.
-"No nos iremos a Venus de vacaciones, de
momento"
Michio Kaku (San José, California, 1947) es experto en teoría
de cuerdas y catedrático de Física Teórica en la Universidad de Nueva York.
También es uno de los divulgadores científicos más conocidos de su país. Pero,
además, es un gran fan de las películas de ciencia-ficción y asegura que casi
todo lo que se plantea en ellas acabará cumpliéndose. Kaku inauguró ayer el
BDigital Global Congress en Barcelona con una conferencia sobre la Internet del
futuro.
¿Qué nos depara la Red?
Dentro de diez años, los ordenadores estarán en todas
partes y en ninguna al mismo tiempo, como la electricidad, que no la vemos
pero está en cualquier lugar. Internet también estará en todas partes.
Hasta en lentillas, como ha dicho en su charla...
Sí, por ejemplo. Parpadearás y estarás on-line; podrás
ver una película, hablar con gente, abrir documentos, identificar la cara de
las personas, su biografía... Las lentillas nos traducirán idiomas extraños
y podrán recrear el Imperio Romano en su esplendor mientras paseamos por sus
ruinas.
Suena a película. ¿Es creíble?
Hace 20 años nadie creía que habría ordenadores baratos,
y los hicimos y los vendimos.
¿Lo mejor está por llegar?
Sí, por ejemplo, en medicina. Vamos a poder crear órganos
del cuerpo humano a partir de nuestras propias células; dentro de cinco años
tendremos el primer hígado, y eso lo cambiará todo. Será una revolución en
el futuro en la cura de enfermedades como la diabetes.
¿Caminamos hacia el fin de las enfermedades?
Siempre las habrá, porque hay miles de gérmenes más
antiguos que nosotros. La mayoría de enfermedades humanas proviene de los
animales, y siempre va a haber animales.
Michio Kaku, ayer, en el Caixafòrum de Barcelona.josé colón
Pero, ¿iremos al médico, o ya ni siquiera eso?
El médico, en realidad, será un software.
Ha declarado que el 80% de lo que vemos en las
películas de ciencia-ficción se terminará convirtiendo en realidad.
Sí, por ejemplo, la invisibilidad. Los objetos muy pequeños,
de hecho, ya hemos conseguido hacerlos invisibles en laboratorio. Es decir, ya
tenemos los medios para lograr la invisibilidad. Otro ejemplo es viajar a la
velocidad de la luz. Sin embargo, para eso me temo que tardaremos más tiempo.
Otro tema recurrente de la ficción es el viaje en el
tiempo...
No hay ninguna ley de la física que diga que viajar en el
tiempo sea imposible. Por regla general, la ciencia-ficción va mucho más allá,
se adelanta a la ciencia por lo menos en 50 o 60 años.
Parece usted disfrutar de lo que hace.
Sí, me lo paso muy bien con mi trabajo. Pero una de las
claves es transmitirlo y, al hacerlo, detecto que la gente tiene una forma de
ver el futuro un poco distorsionado: cree que vamos a tener vacaciones en Venus.
Y eso no va a ocurrir... Al menos, de momento.
Fuente: publico.es, 18-5-10
-Una extinción masiva de peces primitivos
propició el origen de los vertebrados modernos
Una extinción masiva de peces primitivos hace 360
millones de años está detrás del origen de todos los vertebrados
modernos, incluidos los seres humanos. Así lo aseguran dos investigadores de la
Universidad de Chicago -Lauren Sallan y Michel I. Coates-, que han buceado en
las bases de datos de todos las especies fosilizadas de aquel momento.
El investigador Michael I. Coates, junto a un fósil de un tiburón.| Janson
Smith
Esta catástrofe, cuya causa podría haber sido una
glaciación, se conoce como evento Hangenberg y podría haber
sido mucho más importante de lo que se pensaba hasta ahora porque provocó
un cuello de botella de las especies que existían en ese momento,
justo después de la masiva extinción del Devónico, que tuvo lugar 15
millones de años antes.
Los científicos apuntan que en ese momento desaparecieron
los peces placodermos acorazados, como el 'Dunkleosteus' gigante, uno de los
depredadores marinos más fieros que han existido, y los peces con aletas
pedunculadas, que eran mayoría. Por contra, los tiburones y las rayas, del
grupo de peces cartilagaginosos, eran escasos, así como los tetrápodos o
peces con patas.
"Sin embargo, al final del Devónico, todo esas especies
dominantes fueron reemplazadas. Los jugadores cambiaron y los pocos que
sobrevivieron fueron los que luego se extendieron de forma espectacular",
explica Michael Coates.
De hecho, antes de ese evento Hangenberg, los tetrápodos, de donde proceden
todos los vertebrados terrestres, incluido el ser humanao, habían hecho ya
alguna tentativa de salir del agua a la tierra, como es el caso de
Ichthyostega, uno de los primeros en tener patas y dedos.
Tras la extinción, hubo un periodo en el que casi no
se resgistran fósiles, un agujero paleontológico conocido como Romer's
Gap que traía de cabeza a los expertos.
Ahora, Sallan y Coates defienden que ese boquete de 15
millones de años fue la resaca después del traumático cataclismo de Hangenberg,
debido a la disminución de la biodiversidad general. Poco a poco, los tetrápodos
se recuperaron y se convirtieron en los abuelos ancestrales de los los
animales terrestres vertebrados, desde los mamíferos a los pájaros,
según explican esta semana en la revista 'Proceedings of National Academy of
Science' (PNAS).
Para el paleontólogo José Luis Sanz,
catedrático en la Universidad Autónoma de Madrid, se trata de una investigación
interesante: "Perfila mejor los cuellos de botella por los que pasaron los
vertebrados, lo que es importante porque podría considerarse una sexta extinción
del pasado y ahora estaríamos en la séptima", argumenta.
Las estimaciones anteriores se habían realizado siempre con
fósiles de invertebrados, como moluscos y almejas) que son mucho más comunes,
pero gracias a nuevas técnicas de procesamiento de datos, los
biólogos de Chicago han podido observar los cambios antes y después dde
Hangenberg.
Esta gran extinción, que había pasado bastante inadvertida y que tuvo lugar
en un momento crítico para los vertebrados, según otros estudios coincide con la
formación de un glaciar que hizo bajar el nivel del mar drásticamente.
Sanz recuerda que en esos momentos se produjeron aumento de nutrientes en el
agua y falta de oxígeno en algunos niveles, lo que provocó muchos cambios en la
fauna. Algunos inesperados, como el hecho de que las especies más abundantes no
se recuperaran y si lo hicieran otros grupos que estaban separados y dispersos.
Fuente: elmundo.es, 18-5-10
-El cambio climático podría provocar la extinción del 20%
de las especies de lagartos y lagartijas en el 2080
Una investigación internacional con participación del
Consejo Superior de Investigaciones Científicas (CSIC)
ha calculado que, en 70 años, se extinguirán un 20% de
las especies de lagartos y lagartijas del planeta como
consecuencia del cambio climático. En total, según sus
cálculos, podrían desaparecer unas 1.300 de las 5.100
especies de saurios conocidas a través de la paulatina
extinción del 39% de sus poblaciones locales. Este
fenómeno, según los autores, podría atajarse mediante
la reducción de las emisiones de CO2 pero,
aunque se tomen medidas, las conclusiones del
estudio consideran inevitable que, para 2050, un 6% de
las especies de saurios se haya extinguido.
Imagen 1:
Aún quedan muchas especies de lagartos y
lagartijas por descubrir y un gran número de ellas
puede desaparecer antes incluso de ser conocidas
por el ser humano. En la imagen, un ejemplar de
una especie por clasificar de Lilolaemus en
Bolivia; Imagen 2: Furcifer lateralis,
especie que puede encontrar en Madagascar, uno de
los puntos más amenazados por la extinción a gran
escala que predice la investigación; Imagen 3:
Otra de las especies encontradas en Madagascar y
en peligro de extinción es Phelsuma
quadriocellata; Imagen 4: Ejemplares de
Lacerta schreiberi; Imagen 5: El
investigador del CSIC Ignacio De La Riva;
Imagen 6: Uno de los hábitats donde se pueden
encontrar lagartos, un bosque húmedo en Perú, que
puede verse afectado por el cambio climático.
Crédito de las imágenes: Ignacio De La Riva/CSIC
La previsión establecida en el estudio es fruto de
un modelo matemático de riesgo de extinción que ha
sido validado con trabajos
de campo en cuatro continentes. El estudio, en el
que colaboran 26 científicos de 12 países, ha sido
publicado en el último número de la revista
Science.
Dirigido por el investigador de la Universidad de
California, en Santa Cruz (EEUU), Barry Sinervo,
la investigación cuenta con la participación del
investigador del Museo Nacional de Ciencias
Naturales (CSIC), en Madrid, Ignacio De la Riva.
El biólogo del CSIC ha participado hoy, junto a
Sinervo y al investigador del Centre National
de la Reserche Scientifique Jean Clobert, en
una rueda de prensa convocada por la revista
científica en el marco del congreso Media for
Science Forum organizado por la Fundación
Española para la Ciencia y la Tecnología en
Madrid.
La investigación comenzó con la constatación de
que ciertas poblaciones de lagartija de turbera (Zootoca
vivipara) de Francia se habían extinguido.
Igualmente, miembros del equipo comprobaron, sobre
un total de 48 especies de lagartijas mexicanas
del género Sceloporus, que los animales
habían desparecido en el 12% de las 200
localidades muestreadas, pese a que su hábitat
permanecía aparentemente intacto.
Sendos hallazgos llevaron al grupo a desarrollar
un modelo artificial de lagarto con microchips que
medía la temperatura operativa en diferentes
condiciones durante cuatro meses, tanto en
localidades donde las poblaciones de estos
reptiles habían sobrevivido como en aquellas donde
habían desaparecido. Los resultados de la prueba
fueron concluyentes: en los lugares donde se
habían producido extinciones, los lagartos no
habrían tenido tiempo de alimentarse ni de
reproducirse adecuadamente, ya que las altas
temperaturas les obligarían a permanecer la mayor
parte del tiempo guarecidos en sus refugios.
A partir de esta primera aproximación, los
investigadores elaboraron el mencionado modelo
matemático de riesgo de extinción que contemplaba
las variables climáticas y las variables
fisiológicas relacionadas con la regulación
térmica de los reptiles. Sus resultados fueron
validados en un trabajo de campo posterior
realizado en Francia y en México. De hecho, estas
prospecciones desvelaron que, en ciertos casos,
las extinciones son más rápidas de lo esperado
porque una especie capaz de adaptarse eliminaba
por competencia a la que no lo era.
¿Por qué analizar la temperatura y la fisiología
de los reptiles? Ignacio De la Riva explica que
numerosos lagartos y lagartijas de los cinco
continentes presentan limitaciones fisiológicas
que les impiden responder con celeridad al ritmo
actual del incremento de las temperaturas. Muchos
de ellos no son capaces de introducir variaciones
en su fenología, es decir, en los ritmos y épocas
de sus ciclos vitales, como la reproducción o su
comportamiento.
Según apunta, la estrategia inevitable para eludir los
efectos del calentamiento del clima es que los
animales cambien su distribución geográfica, tanto
altitudinal como latitudinal. “Esto ya se está
observando en la actualidad en numerosas especies
animales y vegetales. Pero esto no bastará para evitar
la extinción de muchas especies de saurios de montaña,
que, sometidas además a la competencia creciente con
las especies de zonas más bajas, a menudo se quedarán
sin hábitat a medida que asciendan en altitud”, señala
el investigador del CSIC.
El último paso fue recopilar datos de las variables
empleadas abarcando el mayor número posible de lugares
y especies, para así poder realizar predicciones
globales. De nuevo, los pronósticos se comprobaron
sobre el terreno en poblaciones de lagartos de cuatro
continentes. En total, se cruzaron datos de 1.216
poblaciones de 587 especies repartidas entre 34
familias de saurios. Los datos globales concluyeron
que Madagascar podría ser ya una de las zonas más
afectadas por el impacto del cambio global, con un 21%
de poblaciones extintas. Además, el estudio prevé que
las especies que ya están experimentando pérdidas de
población a nivel local serán las más proclives a la
desaparición.
Evitar extinciones
Muchas de estas
extinciones, sobre todo las de aquellas especies que
habitan en regiones montañosas tropicales, podrían
evitarse si se tuviera éxito en la reducción de
emisiones globales de CO2 para 2080. “En
cualquier caso, la actual evolución del cambio
climático sugiere que resultará inevitable que, en
2050, el 6% de las especies de saurios se haya
extinguido. El modelo pronostica que para esa fecha
habrá desaparecido el 16% de sus poblaciones locales,
una cifra que llegará al 23% en zonas ecuatoriales”,
concreta el investigador del CSIC.
Como
explica De la Riva, “la pérdida de diversidad de
lagartos y lagartijas tendrá consecuencias en cascada
para toda la cadena alimentaria, dado que estos
reptiles son presa frecuente de un gran número de
depredadores, tanto mamíferos como aves, además de
otros reptiles. Asimismo, los propios lagartos
depredan activamente sobre invertebrados y pequeños
vertebrados”.
El
biólogo destaca que quedan muchas especies de saurios
por descubrir. Lo ejemplifica con la situación de las
lagartijas del género Liolaemus de los Andes
Centrales, a las que ha dedicado parte de su trabajo,
en colaboración con los investigadores del CSIC José
Manuel Padial y Noemí Goicoechea. Este grupo,
representado en la investigación que publica
Science, incluye más de 200 especies descritas
hasta la fecha. Un amplio número de ellas se
caracteriza por gestar a sus hijos en el interior de
sus cuerpos en vez de poner huevos, como adaptación a
las frías temperaturas. “Aún queda multitud de
especies por conocer, pero estos lagartos podrían
estar encarando ya una pérdida importante de su
diversidad. El modelo predice además el doble de
riesgo de extinción para las especies de saurios
vivíparas frente a las ovíparas”, afirma.
Impacto en España
“El
cambio climático modificará la distribución de varias
especies de saurios típicos de la Península Ibérica,
poniéndolas en peligro en muchos casos”, estima De la
Riva. De hecho, el estudio ya reporta extinciones
locales en Europa para una de las lagartijas presentes
en el país, la lagartija de turbera. “Un ejemplo del
impacto podrá verse en una joya endémica peninsular,
el lagarto verdinegro (Lacerta schreiberi), que
presenta ciertas poblaciones ya escasas y restringidas
en el centro de España. Esta especie requiere
temperaturas frescas y humedad y, por ello, las
poblaciones en esas zonas son firmes candidatas a
desparecer”, destaca De la Riva.
La
investigación documenta un nuevo caso de declive y
extinciones a gran escala, que se suma al de los
anfibios. De la Riva, que lleva más de 20 años
estudiando anfibios y reptiles tropicales, puntualiza
que en este segundo caso las desapariciones se deben
principalmente a la expansión de un hongo patógeno que
causa una enfermedad mortal en muchas especies y cuya
relación con el cambio climático es todavía tema de
debate en el seno de la comunidad científica. “También
murciélagos, aves y muchos otros tipos de organismos
terrestres y acuáticos están siendo afectados directa
o indirectamente por el rápido calentamiento global”,
concluye el investigador del CSIC.
Fuente: CSIC, 17-5-10
-La llave de la enzima de la inmortalidad
Sin la proteína TPP1 la enzima telomerasa no se puede unir al
telómero y por tanto no es capaz de actuar. Aunque parezca mentira en un área
tan estudiada que ha merecido el premio Nobel, esta llave de un mecanismo
celular básico no se conocía hasta ahora, cuando la han descubierto científicos
del Centro Nacional de
Investigaciones Oncológicas (CNIO) liderados por María A. Blasco. Algunas de
las estrategias actuales contra el cáncer se centran en impedir la acción de la
telomerasa, una enzima que facilita que las células (incluidas las cancerosas)
se multipliquen indefinidamente y sean inmortales. La telomerasa solo es
efectiva cuando se une al telómero, la estructura que hay al final de los
cromosomas y cuya función es proteger el material genético.
Los telómeros a su vez están protegidos por un grupo de
seis proteínas y el nuevo estudio muestra que una de ellas, TPP1, es el
elemento de unión entre la telomerasa y el telómero. En ausencia de TPP1 la
telomerasa no es capaz de actuar porque no se asocia al telómero.
Para demostrarlo, las investigadoras Agueda M. Tejera y
Martina Stagno, dirigidas por Blasco, crearon un ratón sin esta proteína en
la células epiteliales. Este ratón presentó telómeros dañados y más cortos
de lo habitual debido a que la telomerasa no hacía su función. Debido a esta
alteración, las células madre de los ratones no eran capaces de regenerar
tejidos y estos mostraban patologías degenerativas.
El descubrimiento de que TPP1 es imprescindible para la
función rejuvenecedora de la telomerasa fue confirmado usando técnicas de
reprogramación nuclear. La reprogramación nuclear consiste en crear células
madre embrionarias a partir de células adultas (las denominadas induced
pluripotent stem cells o iPS).
Este proceso requiere el alargarmiento de los telómeros por la telomerasa. "Las
células iPS deficientes en TPP1 no son capaces de alargar sus telómeros durante
la reprogramación celular, al igual que ocurre en ausencia de telomerasa",
apunta Rosa María Marión, investigadora del equipo. Según Blasco, que recibió
recientemente, junto a José María Gatell, los Premios Fundación Lilly de
Investigación Biomédica 2010, este descubrimiento, que se publica en
Developmental Cell, "abre nuevas vías en el tratamiento del cáncer. Hasta
ahora las terapias contra el cáncer buscan eliminar la telomerasa del tumor y
este estudio demuestra que otra opción sería eliminar TPP1".
Fuente: elpais.com, 17-5-10
-Más de 2000 especies de flora insulares
están al borde de la extinción
Entre 2.000 y 2.800 especies de plantas insulares estarían al
borde de la extinción en todo el mundo, y entre 3.500 y 6.800 sufren serias
amenazas para su supervivencia, informó el investigador del Jardín Botánico
Canario 'Viera y Clavijo' de Gran Canaria Juli Caujapé.
Tajinaste del Teide
Así lo demuestra un estudio, coordinado por Caujapé, que
recopila y contrasta datos sobre la biodiversidad terrestre de 53 archipiélagos
del mundo e incluye unas 10.000 especies de plantas endémicas.
La investigación ha detectado trece factores de amenaza en diez archipiélagos,
entre ellos Canarias, algunos de ellos biológicos y otros de tipo
socioeconómico, explicó Caujapé en una entrevista con Efe.
Entre las amenazas biológicas están la fragmentación y la
escasa población de una especie, la falta de cooperación entre individuos de
especies diferentes, la destrucción o alteración de su hábitat, la presencia de
plantas invasoras introducidas, así como vertebrados e invertebrados invasores
foráneos, la contaminación y los cambios en el clima. En cuanto a los
socioeconómicos, destaca el crecimiento económico y demográfico, la falta de
leyes, la escasa educación y conciencia medioambiental, la sobreexplotación y la
inadecuada gestión de los recursos naturales.
En Canarias, unas cien especies de flora endémicas de las islas, de las 610
existentes en el archipiélago, están gravemente amenazadas, al igual que sucede
en otras zonas insulares del mundo. Algunas de las plantas amenazadas son
especies tan conocidas como el Verode, el Drago de Gran Canaria y varios tipos
de Taginaste, Salvia y Siempreviva.
La isla con mayor número de especies endémicas es Tenerife, seguida de
Gran Canaria, La Gomera, La Palma, El Hierro, Fuerteventura y Lanzarote.
Sin embargo, en cuanto a densidad -entendida como ejemplares de plantas
endémicas por metro cuadrado-, destaca La Gomera, indicó Caujapé, biólogo
molecular. Aproximadamente el 35 por ciento de los endemismos canarios tiene su
origen en el Mediterráneo, el 25 por ciento en el oeste de África y otra parte
importante es originaria de la Macaronesia, además de una proporción menor que
proviene de América y del este de África. Con el fin de garantizar la
pervivencia de las especies amenazadas, el Jardín Canario cuenta con un banco de
semillas con más de 3.300 muestras recolectadas en su hábitat natural,
pertenecientes a 450 especies endémicas, procedentes tanto de Canarias como de
otros archipiélagos de la Macaronesia.
El Jardín Canario dispone también de un banco de ADN, creado en 2004, con más de
1.500 muestras de material genético vegetal, que representan a 379 poblaciones
de 203 especies de plantas vasculares canarias o macaronésicas.
Desde su fundación en 1952, el Jardín Botánico Canario 'Viera y Clavijo' es una
institución de referencia en Gran Canaria para la caracterización, investigación
y conservación de la biodiversidad vegetal terrestre del archipiélago y de la
conservación.
Fuente: EFE, 16-5-10
-La NASA sigue adelante con programas
cancelados
La NASA se acerca cada día, un poco más, al caos. Mientras
los nuevos planes trazados por Barack Obama esperan su
complicada aprobación en el Congreso, la agencia sigue adelante con proyectos
antiguos que el presidente de EEUU quiere eliminar.
La
estructura de lanzamiento de los cohetes Ares', que Obama quiere desechar.NASA
La semana pasada, la NASA probó con éxito un sistema de seguridad de las
cápsulas Orión, que deberían llevar astronautas a la Luna en 2020
dentro del programa Constellation. Lo aprobó el anterior inquilino
de la Casa Blanca y Obama quiere ahora acabar con él como parte del "audaz
nuevo rumbo" que ha planeado para la agencia en los próximos 20 años.
Mientras su propuesta no se apruebe en ambas cámaras, los planes antiguos
deben seguir adelante por ley, con lo que la agencia se expone a gastar
millones de dólares en sistemas que podrían no usarse jamás.
Entre tanto, siguen las críticas a los planes del
presidente. "La propuesta no presenta retos, no está centrada;
es un plan para no llegar a lugar alguno", señaló el miércoles el ex
astronauta Gene Cernan, el último hombre que pisó la Luna. Cernan habló ante
un comité del Senado en el que se discutieron los planes de Obama, que
incluyen usar naves rusas y vehículos espaciales privados para alcanzar la
Estación Espacial Internacional (ISS).
"Creo que al presidente le han aconsejado mal",
espetó Neil Armstrong, el primer hombre que pisó la Luna en 1969.
Ante él estaban John Holdren, el principal asesor científico de Obama, y
Charles Bolden, director de la NASA. Holdren volvió a señalar que
Constellation era insostenible y nunca llegaría a su objetivo de pisar
la Luna a tiempo. "Estaba claro que era hora de apretar el botón de
reinicio", señaló. Bolden defendió la colaboración con Rusia y dijo que los
vehículos privados podrían estar listos en tres años. Cernan contestó que
tardarán al menos una década.
Quejas demócratas
Otro ex astronauta de las filas de Obama lidera un proyecto
para dar marcha atrás al plan del presidente. Se trata del senador demócrata
Bill Nelson, que va a proponer conservar los cohetes Ares, cuya
construcción fue aprobada como pilar del Constellation. Se convertirían
ahora en el primer prototipo de vehículo pesado para llegar más allá de la ISS a
partir de 2020. La propuesta, que según Nelson ahorraría cientos de despidos,
cuenta ya con el apoyo de otros senadores republicanos. De salir adelante,
supondría una nueva renuncia del presidente a trazar un plan nuevo. El mes
pasado ya se vio obligado a conservar las cápsulas Orión como vehículo
de emergencia.
El proyecto de Nelson requiere unos 726 millones de dólares
más de lo previsto (558 millones de euros) en un año en el que la crisis ha
obligado a aprestarse el cinturón. Otro informe realizado por el National
Research Council alertaba el martes de que la agencia necesita invertir
2.400 millones de dólares (unos 1.800 millones de euros) para
rehabilitar sus laboratorios, que están en una situación crítica debido a la
falta de dinero. Otra de las grandes apuestas de Obama, un giro hacia la
investigación básica, podría no ser posible sin una mayor inversión ya que,
según el trabajo, la escasez presupuestaria "pone en peligro que la NASA pueda
cumplir sus planes de futuro".
Fuente: publico.es, 15-5-10
-El Atlantis parte en su última misión a la Estación Espacial Internacional
En condiciones meteorológicas óptimas para el lanzamiento, el Atlantis
despegó del Centro Espacial Kennedy, en el sur de Florida, a las 18.20 GMT, en
la que supone su trigésima segunda misión al espacio. Menos de tres minutos
después del despegue se separaron los dos cohetes propulsores de combustible
sólido, y la nave, montada en un enorme tanque cuyos compartimentos estaban
cargados con 2 millones de litros de oxígeno e hidrógeno líquidos, se remontó a
una órbita a unos 400 kilómetros de la Tierra.
La separación de los cohetes marca un momento crucial en la partida de los
transbordadores. En principio, los astronautas adentro de la cabina sienten como
si la nave perdiera velocidad pero, en realidad está acelerando más hasta el
momento en que se encienden los motores de separación. Los astronautas pueden
escuchar la detonación y pueden ver el resplandor a través de las ventanas de la
cabina. Casi nueve minutos después la nave y el tanque, de unos 15 pisos de
altura, se separaron y el transbordador llegó a su órbita.
El astronauta Ken Ham comanda una tripulación en la cual todos son veteranos
del espacio: el piloto Tony Antonelli, y los especialistas de misión Michael
Good, Garrett Reisman, Piers Sellers y Steve Bowen. El domingo el Atlantis se
acoplará en la EEI, un complejo que orbita a 27.000 kilómetros por hora, y los
astronautas empezarán sus trabajos de abastecimiento y construcción que incluyen
tres jornadas de labores extravehiculares o caminatas espaciales.
Estados Unidos inauguró las misiones de transbordadores en abril de 1981 y la
agencia espacial NASA llegó a tener una flotilla de cinco de estas naves que
parten montadas en cohetes y retornan a la Tierra como planeadores.
En 1986 el transbordador Challenger estalló a pocos minutos de su partida en
un accidente en el cual murieron siete astronautas. En 2004, el Columbia, con
siete astronautas a bordo, estalló y se desintegró cuando retornaba a la Tierra.
En el caso del Columbia, la investigación posterior llegó a la conclusión de que
los daños causados en la partida por trozos de espuma aislante desprendidos del
tanque externo y que golpearon las cubiertas térmicas de la nave, permitieron el
ingreso de gases a muy alta temperatura cuando el transbordador ingresó en la
atmósfera.
Desde entonces todas las misiones de transbordadores están rodeadas de mucha
atención de los técnicos que observan vídeos y otros sensores a la búsqueda de
rupturas en los paneles térmicos que protegen la panza, la nariz y los bordes
delanteros de la nave.
La NASA tiene planificadas otras dos misiones de transbordadores: el 16 de
septiembre está programado el lanzamiento del Discovery, y a mediados de
noviembre el Endeavor cerrará este capítulo de la exploración espacial. A partir
de entonces, las labores de avituallamiento de la EEI las realizarán las naves
rusas Soyuz y Progreso.
Durante la misión los seis tripulantes del Atlantis entregarán a la EEI un
compartimiento integrado de carga y un módulo de investigaciones científicas
construido por la agencia espacial rusa. Ese módulo proporcionará espacio
adicional de almacenamiento así como un nuevo punto de acoplamiento para las
naves rusas Soyuz y Progreso. Además de vituallas para los ocupantes de la EEI,
el Atlantis también lleva un conjunto de seis baterías que se utilizarán en la
viga central del complejo, una antena, repuestos para el brazo robótico de la
estación y otros equipos.
Fuente: EFE, 14-5-10
-¿Y si el Big Bang no fue el comienzo de todo?
¿Qué vino antes, el huevo o la gallina? La ciencia todavía no
está segura de tener la respuesta, pero una nueva corriente de físicos cree que,
en todo caso, el 'Big Bang' sólo fue un huevo… que nació de una gallina
universal, que a su vez fue un huevo que nació de otra gallina, y así
indefinidamente.
Sean Carroll es uno de esos físicos. Sus argumentos a favor
de una nueva teoría del tiempo y su excelente capacidad divulgadora le
han catapultado a la fama, al menos en Estados Unidos. Esta semana,
antes de firmar su último libro ante una horda de fans, este cosmólogo del
Caltech (California Institute of
Techonology) dedicó una hora a explicar, ante el atónito público del
Museo de Historia Natural de Nueva York,
la flecha del tiempo, o lo que es lo mismo, la dirección que
sigue el tiempo, el transcurso, lo que hace que sea distinto el ayer del mañana.
Recreación artística del "Big Bang"
En nuestro mundo, explicó, el tiempo sólo sigue
una dirección: de pasado a futuro, y se caracteriza por la
irreversibilidad. En su ejemplo más famoso, siguiendo con las aves de
granja, podemos hacer que un huevo se convierta en tortilla, pero no que una
tortilla se convierta en huevo. ¿Por qué? Por la entropía, el
desorden al que tiende el Universo.
Una habitación se desordenará sola si no hacemos nada por
evitarlo. En cambio, muy a nuestro pesar, requerirá un esfuerzo devolverle
el orden inicial. Este simple ejemplo es atribuible a todo el Universo: cada
vez es más desordenado, hoy más que ayer y ayer más que el día anterior, así
hasta remontarnos hasta sus "inicios", hace 13.500 millones de años, cuando
surgió a través del 'Big Bang' en un estado de muy baja entropía, o mucho
orden.
Hacia el vacío total
¿Y por qué el Universo tenía muy baja entropía en su
nacimiento? No hay una respuesta clara, pero posiblemente fue porque es la
forma más fácil que tiene un Universo de nacer, dice Carroll: un sistema muy
caliente y altamente denso, capaz de albergar 100.000 millones de
galaxias con 100.000 millones de estrellas cada una (como hay
ahora), necesita mucho orden para mantenerse en un "espacio compacto". Desde
entonces, el Universo no para de expandirse. ¿Hacia dónde? Hacia el
infinito. ¿Hasta cuándo? Hasta el infinito. No hay fin.
Los físicos creen que en un gúgol de años (10 elevado a 100),
el Universo se vaciará por completo: todos sus elementos habrán
caído en los agujeros negros, e incluso los agujeros negros se habrán disuelto.
Y aun así, continuará expandiéndose. Sin embargo, los físicos también saben que
incluso el vacío guarda cierta cantidad de energía, la energía oscura, y la
física cuántica nos dice que siempre quedarán partículas pululando.
Suficiente como para que, después de muchísimo tiempo, un pequeño espacio del
Universo vacío se desprenda como una gota: puede ser independiente, o
puede estar contenido dentro del Universo materno, pero será el nacimiento de un
nuevo Universo. Un Big Bang, que por leyes naturales tendrá muy baja entropía y
empezará a enfriarse y a expandirse hasta vaciarse, para dar lugar, mucho tiempo
después, a un nuevo Universo, y así sucesivamente, hasta el infinito.
Flechas simétricas del tiempo
Para Carroll el vacío es, en realidad, el estado
natural de las cosas, y nosotros somos una excepción nacida de las
fluctuaciones aleatorias de la energía. Si de algo dispone el Universo, o los
universos o multiversos, es de tiempo. Con suficiente tiempo se pueden obtener
todo tipo de combinaciones posibles. Incluso que una tortilla pueda volver a ser
huevo. Pero se necesitaría mucho más tiempo del que lleva existiendo nuestro
Universo.
¿Y cómo es el tiempo en un Universo vacío? El tiempo
existe aunque no haya nadie ni nada para experimentarlo. Es una
coordenada, como lo es el espacio. Y a este respecto, las leyes físicas no hacen
distinción entre pasado y futuro; no hay flecha del tiempo en las leyes
fundamentales de la naturaleza. Las cosas podrían ocurrir
simultáneamente en otro Universo distinto al nuestro, o fuera del
nuestro. Los físicos hablan de equilibrio térmico cuando no hay flecha del
tiempo, cuando la entropía es siempre la misma. Entonces es todo estático, nada
cambia.
Según explica Sean Carroll, del 'Big Bang' para acá
el tiempo ha seguido una dirección: de pasado a futuro. Pero no hay
nada que impida pensar que, del Big Bang para atrás, la flecha del tiempo siguió
la dirección opuesta, o más bien simétrica. Y del mismo modo en que, para
nosotros, todo lo que pudo haber antes del Big Bang es un pasado muy remoto,
nosotros somos un pasado muy remoto para los Universos que nacieron en
dirección opuesta.
'Einstein se equivocó'
"¡No es posible!", le dice mucha gente a Carroll. "¡Einstein
dijo que antes del 'Big Bang' no podía haber nada!". La respuesta de este
popular cosmólogo es muy sencilla: Einstein se equivocó. "La teoría de
la relatividad ha resultado no ser del todo correcta. Por ejemplo, no
es compatible con la física cuántica. Lo que Einstein quiso decir es que más
allá del Big Bang, se acaba nuestra capacidad de comprensión", explicó durante
su brillante charla, aun asumiendo que no hay certidumbres, sino
"aproximaciones honestas" a la realidad del mundo físico. (Como diría
el divulgador británico Simon Singh, sólo las matemáticas son capaces de asentar
teoremas absolutos).
Después de su conferencia, resulta inevitable una sensación
de vértigo ante el abismo que nos espera: un Universo vacío, sin fin, que se
repite constantemente. (Nada indica, sin embargo, que las leyes físicas tengan
que manifestarse de la misma forma en cada uno de los Universos; para nuestra
tranquilidad, no parece que estemos condenados a vivir la misma vida una y otra
vez, eternamente).
Cuando se exponen sus teorías en los medios de comunicación, Carroll
dice recibir muchas cartas de lectores indignados. "Yo no sé si tú
existes, pero yo sí, y no voy a dejar que destruyas el mundo. Creo que tienes
demasiado tiempo libre", le increpó un niño de 10 años en una misiva que el
científico muestra con orgullo.
Fuente: elmundo.es, 14-5-10
-El impacto de un cometa o asteroide sobre Júpiter levantó
una nube del tamaño de Marte
El último cuerpo que se ha observado que chocara con Júpiter
era un asteroide o cometa de menos de un kilómetro de diámetro, creen los
investigadores que han estudiado los efectos, perfectamente visibles, del
impacto, el primero detectado desde el del cometa Shoemaker-Levy 9, justo 15
años antes.
En los dos estudios publicados ahora participa el
grupo de Ciencias
Planetarias de la Universidad del País Vasco, liderado por Agustín
Sánchez Lavega, junto a otros investigadores españoles.
Fue un astrónomo aficionado australiano quien, el pasado
19 de julio, descubrió la presencia de una mancha negra de grandes
dimensiones cerca de la región polar del planeta Júpiter, el mayor del
Sistema Solar. El impacto ocurrió apenas unas tres o cuatro horas antes de
la detección de la mancha, en el lado oscuro (es decir, de noche) de
Júpiter, por lo que no pudo ser observado directamente, y en una latitud muy
alta, cerca del polo Sur del planeta. La trayectoria fue opuesta a la que
siguieron los fragmentos del cometa Shoemaker-Levy 9.
Alertados los grandes observatorios del mundo, entre
ellos el telescopio Hubble, confirmaron en pocas horas que la mancha
era el residuo de cenizas dejado tras el impacto de un cometa o asteroide.
Según los análisis, publicados en Astrophysical
Journal Letters, la mancha principal, una nube muy negra formada por los
residuos del impacto, alcanzó un tamaño de unos 5.000 kilómetros en la
atmósfera de Júpiter, si bien estaba rodeada por un halo producido por la
caída del material expulsado de la atmósfera de hasta 8.000 kilómetros, un
tamaño entre el de Marte y el de la Tierra. "No sabemos si la densa nube de
partículas muy finas (apenas una milésima de milímetro) pero muy negras es
un producto de los residuos del objeto o bien fueron producidas por las
enormes temperaturas generadas en la atmósfera de Júpiter por el impacto",
explica Sánchez Lavega.
Secuencia del impacto en Júpiter de un cometa o
asteroide el 19 de julio de 2009.-
STSCI
En los días siguientes, las cenizas fueron arrastradas por
los vientos de Júpiter -que son suaves en estas latitudes- de manera análoga a
las del volcán islandés actualmente en actividad. Existen dudas sobre si el
astro que impactó en la superficie de Júpiter fue un cometa o un asteroide.
Suponiendo que su naturaleza fuese cometaria -es decir, estuviera formado
fundamentalmente por sustancias heladas-, el tamaño del bólido habría rondado
los 500 metros.
Este segundo impacto detectado con claridad en Júpiter,
después de el del cometa Shoemaker-Levy, indica que, probablemente, la caída de
objetos de tamaños de 0,5 a 1 kilómetros sobre el planeta es más frecuente de lo
que se pensaba: hasta ahora se estimaba en un impacto cada 50 a 250 años como
promedio, pero con los nuevos datos puede resultar que acontecimientos como éste
podrían ocurrir cada 10 o 15 años.
"El estudio de los impactos en los planetas nos ayuda a
entender mejor los que pudieran producirse con la Tierra", concluye Sánchez
Lavega. "Si este objeto hubiese impactado con nuestro planeta hubiera producido
un enorme cataclismo. Afortunadamente cerca de nosotros hay pocos objetos de
este tamaño, y en cierto sentido Júpiter es un paraguas protector, ya que
con su enorme gravedad atrae fuertemente hacia sí los objetos errantes del
Sistema Solar que pasan por sus proximidades".
Fuente: elpais.comm, 14-5-10
-Crean un "lego biológico"
para construir órganos artificiales
De la misma forma que los niños montan edificios con bloques
de Lego, científicos del Instituto Técnico de Massachusets (MIT) han sido
capaces de replicar tejido humano en laboratorio ensamblando unas células con
otras. Por el momento, los investigadores han conseguido crear vasos sanguíneos,
pero la novedosa técnica, bautizada como «micromasonry», puede ir mucho más allá
en el futuro y conseguir reproducir órganos completos. Si logra su último
objetivo, supondría una auténtica revolución en el campo de la medicina. Miles
de personas gravemente enfermas en todo el mundo no tendrían que esperar, en
ocasiones de forma angustiante, al trasplante de un corazón o de un hígado.
Media esfera de cubo de polímero construida por los investigadores del MIT /
Javier Gómez Fernández
Hasta ahora, uno de los principales obstáculos que los investigadores se han
encontrado para «fabricar» órganos artificiales ha sido la posibilidad de
«montarlos» en tres dimensiones en lugar de formar estructuras planas. Se
han conseguido algunos tejidos simples, sí, como piel o cartílago, pero sin
la complejidad de los naturales. Resultaban demasiado pobres. Y esto es lo
que ha resuelto el equipo de la División de Ciencias de la Salud y
Tecnología (HST) de la Harvard-MIT, como si fuera un juego de niños, pero
con células vivas, en un trabajo de microingeniería orgánica digo de
admiración.
Como el cemento
Para construir este «Lego biológico», los investigadores emplearon un
material similar al gel que cuando se ilumina se endurece y une las células,
de la misma forma que el cemento mantiene pegados los ladrillos. Las células
toman forma de cubo cuyos lados van desde 100 hasta 500 millonésimas de
metro de longitud. Después, los cubos se disponen adecuadamente y se unen de
nuevo para crear tejidos artificiales.
Los investigadores han utilizado este método para construir tubos que
podrían funcionar como vasos capilares, lo que podría ayudar a superar uno
de los problemas más persistentes en la fabricación de órganos, la ausencia
de suministro de sangre. «Si construye un órgano, pero no puede
proporcionarle los nutrientes, se va morir», explica Javier Gómez Fernández,
del HST. Un paso más allá, el trabajo podría conducir a una nueva forma de
hacer un hígado artificial o un tejido cardíaco.
Además, el sistema de «legos» tiene la gran ventaja de que no requerir
ningún equipo especial. «Se puede reproducir en cualquier laboratorio, es
muy simple», asegura Gómez. El trabajo ha sido publicado en la revista
online Advanced Materials.
Fuente: abc.es, 14-5-10
-Cuatro estudiantes lanzan una base de datos para
salvaguardar la naturaleza
En la era de la Web 2.0 el paradigma es la participación.
Cada vez más conectados a través de nuevas interfaces tecnológicas móviles,
vivimos rodeados de identidades virtuales que twittean compulsiva e
indiscriminadamente sus pensamientos, fotos o mensajes. Para encontrar una
salida constructiva a toda esta necesidad de compartir información, Yasser
Ansari, Martin Ceperley, Bruno Kruse y Peter Horvath, cuatro estudiantes de la
Universidad de Nueva York han creado NOAH (Networked Organisms and Habitats),
una aplicación para que todos contribuyan de forma activa a la salvaguarda de la
naturaleza y la diversidad medioambiental.
El proyecto NOAH (acrónimo en inglés de Red de Organismos y
Hábitat) pretende crear una base de datos mundial compartida, que reúna la
información sobre todos los organismos vivientes, ya sea flora, fauna u otras
formas de vida. La participación empieza descargando la aplicación gratuita para
el iPhone desde la tienda App Store.
"La aplicación ya ha sido descargada desde 40 países. Ahora
estamos desarrollando una aplicación para Android y, más adelante, la
trasladaremos a otras plataformas, incluida toda clase de teléfonos móviles",
indica Ansari en nombre de los cuatro jóvenes desarrolladores. Mientras tanto,
aquellos que no posean un iPhone y quieran contribuir, pueden hacerlo a través
de una simple cuenta de correo Gmail y la web del proyecto.
El objetivo es que los internautas de todo el mundo dejen
constancia a través sus fotografías de la variedad biológica del entorno en el
que viven, para que esta información sirva de estímulo para conocer mejor y
proteger el medio ambiente.
Toda forma de vida, sean plantas comunes o desconocidas,
bichos raros o animales domésticos, insectos o especímenes varios, se sube a la
web del proyecto, integrándose automáticamente en un mapa interactivo de la
Tierra, de modo que todos los datos resulten rápida y fácilmente visualizables.
El proyecto se probó a finales de febrero y se lanzó
públicamente durante la semana de la tierra (Earth Week), que se celebró del 22
al 29 de abril. "NOAH es nuestro proyecto de graduación del Interactive
Telecommunication Program, un curso de posgrado cuya misión es explorar el uso
imaginativo de las tecnologías de la comunicación y cómo pueden incrementar,
mejorar y enriquecer la calidad de la vida. Sin embargo, después de la
graduación, pensamos dedicarnos a su implementación al 100%", asegura Ansari.
En la primera semana la iniciativa ha recogido alrededor de
2.000 contribuciones. Además de la ubicación y breve descripción del animal o
vegetal recopilado, el internauta está invitado a añadir toda la información
posible.
"En general, queremos contribuir a que la gente preste más
atención a las formas de vida natural que le rodean y aprenda compartiendo sus
hallazgos e involucrándose en los debates del foro. Por lo que se refiere a la
comunidad científica, esperamos que nuestros datos sean útiles y contribuyan a
proteger organismos y ecosistemas amenazados en cualquier parte del mundo",
afirman.
Monitorear las mariquitas
Los autores del proyecto, ya están trabajando con varias
instituciones naturalistas norteamericanas para la protección y el estudio de
mamíferos, insectos, setas y plantas.
Entre otras han colaborado con el Project Squirrel, para
ayudarles a recopilar los avistamientos de ardillas y cartografiar sus
comunidades; y el Lost Ladybug Project, para que la gente fotografíe e informe
sobre la población de mariquitas en Estados Unidos. Ya llevan más de 5.000.
Fuente: elpais.com, 13-5-10
-Una luz invisible revela el conjunto de galaxias más lejano del
universo
Cada vez somos capaces de ver más allá. Un equipo de astrónomos de Japón y
Alemania ha descubierto el cúmulo de galaxias más distante del Universo,
situado nada menos que a 9,6 mil millones de años luz de la Tierra, y lo han
conseguido tras detectar una luz invisible a nuestros ojos. El hallazgo ha
sido publicado en la revista Astrophysical Journal Letters.
Masayuki Tanaka, del Instituto de Física y Matemáticas del Universo (IPMU),
Alexis Finoguenov, del Instituto Max Planck de Física Extraterrestre, y
Yoshihiro Ueda, de la Universidad de Kyoto, han roto un récord. Hasta ahora,
el cúmulo más distante conocido se encontraba a 9,2 mil millones de años
luz, pero el que han logrado observar los investigadores lo supera en nada
menos que 400 millones de años luz.
Según explican los científicos, el Universo es una máquina del tiempo. Es
decir, viajas atrás en el tiempo cuanto más te adentras en sus
profundidades. Los astrónomos han utilizado este principio para buscar los
grupos de galaxias más antiguos, pero la expansión del cosmos empuja a la
galaxias lejanas lejos de la Tierra a gran velocidad, de tal forma que
desaparecen ante las longitudes de onda visibles y sólo es posible
observarlas en longitudes de onda infrarrojas. Este cambio hace que la luz
del Universo lejano sea invisible, lo que ha impedido el progreso en el
estudio de esta materia durante mucho tiempo.
Tanaka y sus colaboradores descubrieron este cúmulo de galaxias en la
constelación de Cetus. La difícil observación fue realizada con un
instrumento denominado MOIRCS (Multi-Object Infrared Camera Spectrograph),
situado en el telescopio Subaru en Hawai. Gracias a otro instrumento, el X
XMM-Newton, fueron capaces de detectar la luz que emiten las altísimas
temperaturas de los cúmulos de galaxias y que no es tan azul que no es
visible para el ojo humano.
Este cúmulo de galaxias es un laboratorio ideal para estudiar la evolución
de otras formaciones semejantes y conocer más sobre el origen del Universo.
El
cúmulo de galaxias descubierto por los científicos / Masayuki Tanaka
Fuente:
abc.es, 13-5-10
-Neandertales y sapiens, aún más separados
El último pariente común entre sapiens y neandertales es el doble de viejo de
lo que se creía, según un trabajo realizado por investigadores del Centro
Nacional de Investigación sobre la Evolución Humana (CENIEH), en Burgos. Los
investigadores lo sitúan hace un millón de años. Mientras, el primer genoma
neandertal publicado la semana pasada lo databa hace unos 350.000 años.
"Estas conclusiones han sido uno de mis
mayores quebraderos de cabeza y yo he sido la primera sorprendida",
explica a Público Aida Gómez, quien ha realizado la investigación
como parte de su tesis doctoral bajo la supervisión de María Martinón,
investigadora de Atapuerca, y José María Bermúdez de Castro, director del
CENIEH. Los datos se desprenden del análisis morfológico de unas 1.500
piezas dentales de toda la familia humana (neandertales, sapiens, erectus,
habilis o antecessor) y de australopitecos de hace hasta cuatro millones de
años, de África, Asia y Europa. Se han analizado con una herramienta
informática que compara puntos en los dientes de las especies y calcula su
divergencia evolutiva.
"La evidencia real de los fósiles nos dice que el
ancestro común de sapiens y neandertales vivió mucho antes de lo que dicen
los genes", explica Martinón.
Guerra de cifras
Martinón dice que los neandertales que vivieron hace
600.000 años en Atapuerca ya eran una especie diferenciada de los sapiens.
Eso hace imposible que su último ancestro
común viviese 300.000 años después, como propone el equipo que ha
obtenido el genoma neandertal. Los dientes de otros homininos de la Gran
Dolina de Atapuerca, de hace 900.000 años, ya presentaban rasgos que los
hacían más neandertales que ancestros del sapiens, añade Gómez.
El ancestro común se ubicaría 100.000 años antes, lo que
demuestra que ninguno de los fósiles encontrados hasta hoy es el del ansiado
ancestro, ya que no hay fósiles de Homo de esa antigüedad, concluye
Martinón.
Aida Gómez, autora del trabajo.A.G
Fuente: publico.es, 13-5-10
-Hacer horas extras en el trabajo es perjudicial para el corazón
Investigadores
de la University College de Londres, en Reino Unido, aseguran que trabajar más
horas de lo debido puede ser perjudicial para el corazón ya que aumenta el
riesgo de padecer eventos cardiovasculares, según los resultados de un estudio
publicados en la revista 'European Heart Journal'.
Dicha investigación se basado en los datos del estudio 'Whitehall II',
realizado con más de 10.000 empleados públicos de la capital británica, y,
según los resultados, los que trabajaron al menos tres horas más en una
jornada de siete horas diarias tenían un 60 por ciento más de riesgo de
padecer un ataque cardiaco, anginas de pecho e incluso de acabar falleciendo
por una de estas causas.
Además, como explica la epidemióloga del Instituto Finlandés de Salud
Ocupacional y autora de este hallazgo, Marianna Virtanen, esta relación
entre horas extras y enfermedades coronarias es "independiente de una serie
de factores de riesgo también analizados, tales como fumar, padecer
sobrepeso o tener alto el colesterol".
El estudio 'Whitehall II' comenzó en 1985 y reclutó a un total de 10.308
trabajadores de entre 35 y 55 años, si bien los datos utilizados en esta
ocasión proceden de la tercera fase del mismo, entre 1991 y 1994, en la que
se preguntaba por la horas que dedicaban diariamente a su trabajo.
De este modo, la cohorte analizada contó finalmente con 6.014 personas,
4.262 hombres y 1.752 mujeres, de entre 39 y 61 años, que fueron seguidos
hasta el periodo de 2002-2004, la fase más reciente de la que se disponen
datos clínicos.
Durante los 11,2 años de media seguimiento, Virtanen y su equipo detectó
hasta 369 casos mortales de enfermedad coronaria, infartos de miocardio o
angina de pecho y, tras comparar estos casos en función de diferentes
patrones, comprobaron que los que pasaban más horas de los debido en su
trabajo, siempre por encima de las tres horas extras, tenían una mayor tasa
de riesgo.
Los investigadores dicen que podría haber diferentes variables para explicar
esta relación, ya que, por ejemplo, hacer horas extras en el trabajo se asocia
con patrones de conducta de personas que tienden a ser agresivas, competitivas,
estar tensas, con una angustia psicológica que se manifiesta en situaciones de
depresión y ansiedad, y posiblemente que no duermen lo suficiente ni descansan
lo que debieran en antes de acostarse.
Estrés laboral
Otras posibles explicaciones son que la presión arterial elevada está
relacionada con el estrés en el trabajo, si bien se oculta "porque no
necesariamente aparecen durante las revisiones médicas", explica esta experta.
Es por ello por lo que los empleados que hacen más horas extras tienen más
probabilidades de trabajar incluso estando enfermos, ignorando sus síntomas de y
resistiéndose a buscar ayuda médica. Además, también puede asociarse a personas
con trabajos con libertad de horario o a la hora de tomar decisiones un menor
riesgo de estas patologías coronarias, a pesar incluso de que trabajen más horas
de las estipuladas en sus contratos.
En cualquier caso, los autores reclaman más investigaciones que contrasten o
rebatan esta relación ya que, además, la cohorte sólo incluye a funcionarios
públicos y, por tanto, "no es generalizable a todas las profesiones", como los
artesanos o trabajadores del sector privado.
Fuente: EP, 12-5-10
-La capa de ozono en la Antártida se
recuperará hacia el 2080
A los científicos y a los ecologistas les gusta especialmente la historia del
llamado agujero de la capa de ozono: en menos de 20 años se predijo el
problema (y después mereció el Nobel), se midió sobre la Antártida y se alcanzó
un acuerdo internacional (Protocolo de Montreal, 1987) para prohibir el uso de
los compuestos químicos que destruyen el ozono. Este mes se cumplen precisamente
25 años del primer anuncio, en mayo de 1985, del adelgazamiento acusado -agujero-
de la capa de ozono sobre el continente blanco. Los científicos han celebrado
una jornada conmemorativa en la Universidad de Cambridge (Reino Unido) y han
explicado que el grosor de la capa de ozono sobre la Antártida recuperará, en
2080, los niveles de 1950. El paralelismo con el cambio climático no ha podido
faltar, pero en este caso teñido de pesimismo, no por falta de conocimiento
científico, sino por falta de un acuerdo político eficaz que ataje el problema.
Joseph Farman, Brian Gardiner y Jonathan Shanklin, del
British Antarctic Survey (BAS) ,
informaron, en mayo de 1985, en la revista Nature, acerca del
descubrimiento del adelgazamiento de la capa de ozono sobre el continente
blanco, en la primavera austral. La revista científica lo recuerda con un
artículo de Shanklin en el que cuenta cómo se produjo aquel hallazgo en la
estación antártica Halley, al constatar que los valores más bajos de ozono a
mediados de octubre (primavera allí) habían caído un 40% entre 1975 y 1984.
"Había ya entonces preocupación acerca de que los CFC [clorofluorocarbonos]
podían destruir la capa de ozono, que está a una altura entre 10 y 35
kilómetros sobre la superficie terrestre y que protege a la humanidad de más
del 90% de la dañina radiación solar ultravioleta", recuerda Shanklin. Los
satélites permitieron constatar que el agujero de la capa de ozono se
extendía sobre todo el continente.
Fueron otros científicos, antes que estos tres expertos
del BAS, quienes hicieron sonar la alarma con sus estudios acerca de la
química atmosférica y la destrucción del ozono por las reacciones de
compuestos como los CFC utilizados en los aerosoles y refrigerantes. Por
aquellos trabajos de los años setenta recibieron el Nobel de Química, en
1995, Paul J. Crutzen, Mario J. Molina y F. Sherwood Rowland.
La capa de ozono es una pantalla natural que filtra la
radiación ultravioleta de la luz solar nociva para los seres vivos, capaz de
provocar en las personas quemaduras de piel, cáncer y cataratas. Una molécula de
ozono está formada por tres átomos de oxígeno y en la estratosfera se concentra
en una banda a una altura de unos 20 kilómetros. Hay una molécula de ozono por
cada 100.000 moléculas de aire, explica el BAS. Se genera ozono cuando la
radiación ultravioleta rompe moléculas de oxígeno, y se destruye por reacciones
químicas del cloro y del bromo, emitidos a la atmósfera en los CFC y los halones.
En los ochenta se emitían 500.000 toneladas de CFC al año,
alcanzándose un valor acumulado de 30 millones de toneladas en la atmósfera, una
sexta parte de las cuales llegaban a la estratosfera, informa la Unidad de
Coordinación de Investigación del Ozono de la UE.
Aunque la destrucción del ozono no se limita a la Antártida,
el agujero antártico se debe a la meteorología allí y al frío extremo
durante el invierno, que reactiva la producción de cloro y bromo a partir de los
gases contaminantes; cuando llega la luz de primavera se acelera la pérdida de
moléculas de ozono. "Hoy comprendemos bien la física y la química que gobiernan
la capa de ozono", dice Shanklin. "Los niveles mínimos de ozono han sido
constantes en los últimos 15 años, en un 70% por debajo de los niveles de
finales de los setenta".
En cuanto a los destructivos CFC -prohibidos desde 2000 por
el Protocolo de Montreal y sustituidos por los compuestos alternativos en sus
usos industriales- su nivel alcanzó el máximo en 2001 y luego empezó a decrecer.
Pero su efecto es duradero y el agujero antártico sigue apareciendo cada
primavera; en 2006 se registró su mayor extensión: 28 millones de kilómetros
cuadrados.
Fuente: elapais.com, 12-5-10
-Los astrónomos pronto encontrarán lunas fuera del sistema
solar y "habitables"
Una científica
del Instituto Tecnológico de Massachusetts (MIT, por sus siglas en inglés) Sara
Seager ha explicado que por el momento se desconoce la existencia de lunas
extrasolares -- fuera del Sistema Solar --, aunque ha destacado que muchos
investigadores no descartan el hallazgo e incluso analizar vida dentro de ellos.
"Va a suceder, es cuestión de tiempo", ha puntualizado la experta.
Titán
En este sentido, ha indicado que por el momento se conocen
cerca de 450 planetas fuera del Sistema Solar, los denominados 'exoplanetas',
orbitando alrededor de otras estrellas y muchos de ellos más masivos que
Saturno, gigantes de gas sin una superficie sobre la que andar.
No obstante, ha señalado que los planetas gigantes del Sistema Solar, como
Júpiter, Saturno, Neptuno o Urano, todos cuentan con múltiples lunas o
satélites planetarios, y muchos de ellos con aspectos que podrían favorecer
la vida, como atmósferas, campos magnéticos o volcanes activos.
Además, ha añadido que los planetas gigantes vagan por las regiones más
frías del Sistema Solar y otros sistemas planetarios muestras planetas
masivos, con órbitas de mayor temperatura donde podría registrarse vida y el
agua podría persistir. Si estos planetas tuvieran satélites, como la
comunidad científica espera, podrían registrar por primera vez vida fuera
del Sistema Solar.
Aunque algunas de las lunas del Sistema Solar están siendo estudiadas ante
posible vida extraterrestre ninguna reúne todas las características para ser
habitable como lo hace la Tierra, ya que orbitan 'a las afueras del Sistema
Solar', de forma que sus temperaturas son más bajas.
El investigador del Penn State Erie, Darren Williams, ha comentado que en otros
sistemas planetarios estos satélites del tamaño de la Tierra podrían ser los
perfectos candidatos para albergar vida. "Algunas podrían formarse propiamente
como lunas y después convertirse en satélites de planetas más masivos, de
acuerdo con algunos estudios que ya existen que apuntan a que Neptuno
captó a Tritón, como satélite.
Fuente: EP, 11-5-10
-Frenazo a los biocarburantes
Los
biocarburantes se perfilaban como la gran promesa de las energías limpias y como
solución a la dependencia del petróleo. A principios de esta década Europa se
fijó ambiciosos objetivos y España prometió situarse en la vanguardia. La
primera fase ha sido introducir hasta un 5% de combustible de origen vegetal a
la gasolina que consumen todos los coches. Prueba superada. Pero la siguiente
fase, que obliga a adaptar los coches para asumir mezclas más verdes,
ofrece más incertidumbre. Ni las estrategias de los fabricantes ni las apuestas
políticas parecen ir ya en la misma dirección. La gran apuesta de la automoción
en Europa es ahora el coche eléctrico. ¿Se han quedado definitivamente atrás los
biocarburantes en la carrera de la energía sostenible?
La generalización de los B20 y B30 (mezclas con un 20% y 30%
de biocarburante, respectivamente) parece más lejana. Las normas que deben fijar
los estándares se retrasan. Algo que inquieta a la industria, ya muy castigada
por las importaciones de EE UU, y la controversia sobre la responsabilidad de
estos carburantes en la deforestación y encarecimiento de los alimentos, que ha
llevado a los científicos a abrir nuevas líneas de investigación en busca de
materias primas que no compitan con la industria alimentaria. Son los
biocarburantes de segunda generación, que aún no han salido de los laboratorios.
La UE se ha marcado el objetivo de que las energías
renovables supongan el 10% de la empleada en el transporte en 2020
-responsabilidad que recae principalmente en los biocarburantes, dada la
escasa presencia del coche eléctrico en las carreteras- y España se ha
impuesto alcanzar un 5,83% ya este año, una meta de difícil cumplimiento en
el marco actual, según algunos expertos. En 2009 se matricularon 952.000
vehículos en España, de los que sólo 900 funcionaban con mezclas etiquetadas
de biocarburantes, según la patronal de fabricantes Anfac. Los coches
flexibles, que aceptan biocarburante o convencional, llevan años en el
mercado pero no alcanzan el 1 por 1.000.
Manuel Bustos, director de la Asociación de Productores
de Energías Renovables (APPA), hace la fotografía de cómo está el sector en
España: "En todas las gasolineras, al poner gasóleo o gasolina hoy, el
consumidor está metiendo biocarburante aunque no lo sepa". Esto se debe a
que no es necesario etiquetar las mezclas hasta el 5% de biodiésel o
bioetanol porque no hay riesgo de daño para el motor. "Desgraciadamente los
biocarburantes en porcentajes superiores no se usan en los niveles
deseables. La inmensa mayoría de las flotas de autobuses de las grandes
ciudades españolas tienen alguno que los utiliza, pero nada más".
Anfac se declara a favor de los biocombustibles pero se remite a la posición de
su homólogo europeo, ACEA. La asociación pide armonizar el marco europeo en lo
fiscal y abogan por un sistema lineal que tenga en cuenta cada gramo de dióxido
de carbono emitido. Asegura que a lo largo de este año, todos los coches podrán
funcionar con mezclas del 10% en etanol y del 7% en biodiésel -como marca la
directiva europea- pero recomienda no ir más allá. Aduce el desafío técnico que
representa, la posibilidad de desequilibrios en los mercados y de que un
combustible de calidad dudosa circule por la UE.
Y es que si la estructura de los proveedores de combustibles
tradicionales era de pocos abastecedores con gran capacidad individual, en el
caso de los biocombustibles, el número de proveedores es mayor y su capacidad de
producción relativamente baja, lo que configura un mercado muy heterogéneo y
hace necesario un control muy riguroso.
José María López, subdirector del Instituto de investigación
del Automóvil de la Universidad Politécnica de Madrid (INSIA), asegura que "no
se progresa por falta de normativa, no porque no se quiera potenciar los
biocombustibles". El hecho de que aún haya problemas para utilizarlos se
relaciona, según explica, con que los motores se homologan según los estándares
para gasóleo o gasolina y sólo garantizan las mezclas hasta el 5%. Algunas
empresas se atreven con mezclas al 20%, pero para llegar al turismo privado, se
necesita legislar, asegura.
La colaboración de los fabricantes deja que desear, según los
productores. "La política de fomento de biocarburantes arrancó en 2003 en la UE
y hoy todavía se venden en España coches con una pegatina de 'no biodiésel en
depósito", se queja Bustos. "Son políticas y liderazgos los que mueven las cosas
y en España hay medidas fiscales importantes, pero no liderazgo para persuadir a
los fabricantes". Esas medidas fiscales son el tipo cero que se aplica a los
biocarburantes hasta el 31 de diciembre de 2012 en la Ley de Impuestos
Especiales para hidrocarburos.
"Así como se lleva a los fabricantes hacia el coche
eléctrico, se les podría presionar hacia los biocarburantes". Y cita
"excepciones", como Ford o General Motors, que hacen vehículos flexibles -con un
chip en el motor que detecta el porcentaje de bioetanol y funciona hasta con el
85%-. Las medidas más efectivas para ganarse el favor de los fabricantes serían
fiscales: "Estos vehículos podrían tener un tipo cero en el impuesto de
matriculación". Muchos fabricantes tienen motores preparados para soportar
porcentajes etiquetados, pero no lo garantizan al comprador, afirma. "No hay
especificaciones técnicas para un B20 porque los fabricantes se han encargado de
retrasarlo en Bruselas".
La experiencia de Ricard Jiménez, del Centro Tecnológico
ASCAMM, apoya esa teoría. Cuenta cómo el anuncio del ministro de Industria puso
las pilas al sector para investigar y trabajar a destajo en el coche eléctrico.
"Hay mucha confusión en torno al coche eléctrico. Los políticos lanzaron un
vamos a ir a la Luna con el anuncio que hizo hace un año el ministro
Sebastián de que habría un millón de coches eléctricos en la calle en 2014. Y el
coche eléctrico no existe, trabajamos para hacer ese mensaje realidad. Pero los
mensajes políticos sacuden el tejido industrial. Antes de ese anuncio la
industria de la automoción no pensaba acelerar tanto este tema, quería explotar
los hidrocarburos y amortizar el I+D empleado. Pero cuando hay ayudas se crea un
reclamo, y hoy se pone fecha a la comercialización del coche eléctrico".
Juan José Coble, del grupo de investigación de Energías
Renovables en la Universidad Antonio de Nebrija, coincide con Jiménez. "Hacen
falta más ayudas del Gobierno al sector, tanto por protección arancelaria como
por una obligación de mezclas etiquetadas en flotas públicas, por ejemplo, así
incentivarían a los fabricantes hacia el coche flexible de forma generalizada. Y
los operadores logísticos deben poner infraestructura para asegurar la demanda",
asevera.
Ahora el transporte de las mezclas etiquetadas de biodiesel y todas las de
bioetanol se hace por carretera porque no pueden compartir los oleoductos que se
utilizan para los carburantes convencionales, ya que podrían alterar la calidad
de otros productos. Por ejemplo, el bioetanol soltaría agua dañando al queroseno
que utilizan los aviones. Por eso, las mezclas etiquetadas de biodiesel y todas
las de bioetanol se mezclan en los camiones que las transportan desde las
plantas de almacenamiento de las operadoras logísticas a las estaciones de
servicio.
CLH es la operadora líder en España. "Cuando se trasponga la directiva, no
habrá problema para que el biodiésel al 7% circule por los oleoductos; el
bioetanol al 10% continuará mezclándose en brazo de carga, igual que ahora, así
como las mezclas etiquetadas de biodiésel", explica Salvador Guillén, su
director comercial. "Francia ha comprobado que se puede transportar biodiésel al
10% en oleoducto. Por eso y por nuestra experiencia con las mezclas al 5%,
sabemos que hasta el 10% no habrá problemas; también que al 100% no podemos
llegar, dónde está el límite, nadie lo sabe", afirma.
El transporte por oleoducto es más eficiente que por carretera. "Ahorra más
de un millón de camiones al año, lo que evita la emisión de 400.000 toneladas de
CO2. Además, no hay viaje de retorno en vacío, que supone el 40% de la energía
que consume el camión". Pero un oleoducto para el bioetanol requeriría uso
exclusivo, algo que "no tiene sentido" atendiendo a la rentabilidad.
En 2008, el valor de comercialización de biocarburantes y
otros combustibles renovables fue del 1,94% en el sector del transporte. Se
superó así el objetivo del 1,9% para ese año que fija ley de 2007. El objetivo
obligatorio marcado por el Gobierno para 2009 era el 3,4%, pero no se sabrá si
se ha cumplido hasta finales de este año. "Los expertos creen que sí se
alcanzará", explica Carlos Alberto Fernández, jefe del Departamento de
biocarburantes de IDAE. "Lo que no está tan claro es que se alcance el 5,83% que
España ha fijado como obligatorio en 2010 -la directiva comunitaria fija un
5,75%- porque la normativa aún está en Consejo de Estado". Se refiere al real
decreto que traspone la directiva de 2009 y que permitirá no etiquetar las
mezclas de biodiésel hasta el 7% ni las de bioetanol hasta el 10%.
En uso de biocarburantes, España está mejor que unos países,
pero peor que otros. "En Suecia es obligatoria la presencia de al menos una
mezcla etiquetada en cada gasolinera. Una manera de fomentar el vehículo
flexible". El objetivo de Francia es llegar al 7% este año y el de Alemania
alcanzar el 6,25%. "Desgraciadamente, en algunos países hay retrocesos. Gran
Bretaña retrasa sus objetivos del 5% de 2012 a 2014". La razón está clara para
Bustos: "La campaña de desprestigio contra los biocarburantes de hace dos años.
Algunos Gobiernos como el español o el francés lo valoraron como acusaciones
infundadas, otros, precipitadamente, plegaron velas". La compañia Morrison
anunció en febrero la retirada de sus combustibles B30 ante la eliminación de la
exención fiscal en Reino Unido, informó The Guardian.
La controversia en torno a la sostenibilidad de los
biocombustibles es otro escollo a salvar. La Directiva de 2009 garantiza, sin
embargo, que no podrán utilizarse en la UE biocarburantes que no disminuyan como
mínimo en un 35% las emisiones de gases de efecto invernadero respecto a los
combustibles fósiles. Por su parte, "la CE se reafirma en que los biocarburantes
son una buena forma de lucha contra el cambio climático y los seguirá apoyando",
indican fuentes de la Comisión Europea.
Pros y contras de los aspirantes al 'coche limpio'
- El coche eléctrico anuncia un futuro sin
combustibles fósiles, pero todavía faltan las infraestructuras que harán
posible su uso. Los primeros vehículos saldrán al mercado el próximo año sin
que se haya resuelto algo tan básico como un enchufe homologado en Europa.
El coche eléctrico puro consume energía eléctrica (que almacena por la
noche, lo que ayuda a equilibrar el sistema y a aprovechar las renovables) y
no emite CO2, salvo el que genere un aumento de la demanda eléctrica. En su
contra, su limitada autonomía, que los hace poco atractivos fuera de las
ciudades. Esto hace prever que los primeros coches eléctricos serán
flotillas de empresas y no para particulares. Los híbridos, ya en el
mercado, son coches con dos motores, eléctrico y convencional, con lo que
reducen las emisiones. El Gobierno tiene previsto instalar 263.000 postes de
recarga en aparcamientos de flotas y sólo 62.000 en domicilios particulares,
12.000 en aparcamientos públicos y 6.200 en la vía.
- Los biocarburantes nacieron como una energía
limpia a partir de materia vegetal, pero su imagen se ha visto golpeada
por las acusaciones -en informes de organismos internacionales y ONG- de que
provocan deforestación y carestía de los alimentos. En 2008, el relator
especial de la ONU para el Derecho a la Alimentación, Jean Ziegler, llegó a
pedir una moratoria en la producción por su impacto en el hambre. En países
como Brasil, que utiliza la caña de azúcar, han demostrado, sin embargo, ser
perfectamente viables. Algunos ven los biocarburantes como una alternativa
para el campo europeo ante un futuro de posible desmantelamiento de la
Política Agraria Común (PAC). Reducen las emisiones, pero sólo parcialmente
porque la base sigue siendo un motor de combustión. El Cemitec, centro
validado por la CE como de referencia en biodiésel, trabaja en el desarrollo
de biocombustibles de segunda generación, producidos a partir de
materias primas que no compiten con la alimentación.
Fuente: elpais.com, 11-5-10
-El ritmo de extinción de
las especies se multiplica por mil
Flamencos en Tablas de Daimiel
"Ya no se trata de salvar un bosque o un lago, sino de mantener los
ecosistemas". Nick Nuttall, portavoz del Programa de Medio Ambiente de la
ONU (UNEP), alertaba así del peligro en que se encuentra la biodiversidad
del planeta en la presentación ayer del tercer informe de la ONU sobre la
situación de la vida (animal y vegetal) en la Tierra.
Los científicos que han participado en la elaboración de este informe,
algunos de los cuales también estaban presentes ayer en su presentación en
el zoo de Londres, coincidieron en que los 192 gobiernos que forman esta
convención deben incrementar sus planes para frenar la pérdida de vida y de
recursos naturales, en un planeta habitado ahora por 6.000 millones de
personas pero que, según sus cálculos, alcanzará los 9.000 millones en 2050.
Zonas húmedas en España
Nuttall aseguró ayer que la velocidad de pérdida de vida
animal y vegetal en la Tierra, debido a la acción humana, "es mil veces
mayor que el ritmo natural del propio sistema en el que las especies también
se extinguen sin la intervención del hombre". De las 44.837 especies
analizadas en 2009, 804 se han extinguido y un 38% están amenazadas de
extinción. La presencia de vertebrados disminuyó en aproximadamente un
tercio entre 1970 y 2006. Y también se han producido pérdidas en el hábitat.
España, por ejemplo, ha perdido en las últimas décadas el 60% de sus zonas
húmedas (lagos, ciénagas, ríos...).
Los científicos destacaron que
los gobiernos no hacen lo suficiente para
conseguir los objetivos marcados en la cumbre de Johannesburgo del
año 2002, que pretendía detener la degradación del medio ambiente para 2010.
Las cinco principales causas de pérdida de vida en el planeta
son los cambios en el hábitat, el exceso de explotación de recursos naturales,
la contaminación, la interferencia de especies invasoras y el cambio climático.
El informe lanza un aviso diciendo que las acciones que se tomen en las dos
próximas décadas determinarán si las generaciones venideras habitarán un planeta
en condiciones estables. La degradación ambiental tendrá también consecuencias
en las economías de los países. "Si queremos
seguir teniendo agua limpia o alimentos debemos contemplar ya a qué precio lo
estamos obteniendo", dijo el portavoz del UNEP.
Fuente: publico.es, 11-5-10
-Científicos avanzan hacia la conquista de la cima cuántica
Un equipo de
científicos financiados con fondos comunitarios y procedentes de la Universidad
de Cardiff (Reino Unido) ha logrado disparar fotones (partículas de luz) a una
torre de pequeñas dimensiones compuesta por un material superconductor.
Su trabajo podría conducir al desarrollo de ordenadores más rápidos. La
investigación es un resultado del proyecto CUSMEQ («Espectroscopía ultrarrápida
coherente y manipulación de qbits»), perteneciente al programa «Personas» del
Séptimo Programa Marco (7PM) y financiado con cerca de 179.000 euros. CUSMEQ
investigó la manipulación y espectroscopía ultrarrápida y coherente de estados
excitónicos contenidos en un punto cuántico semiconductor. Los resultados del
estudio fueron publicados recientemente en la revista Nature Materials.
Los científicos encargados del proyecto, procedentes de la Escuela de Física y
Astronomía de la universidad mencionada, indicaron que un fotón colisiona con un
electrón confinado en una estructura de pequeño tamaño contenida en la torre.
Antes de que las partículas de luz resurjan de la misma, oscilan durante un
pequeño lapso de tiempo entre los estados de luz y materia.
«Emparejar un cuanto de luz con uno de materia es complicado desde el punto de
vista tecnológico y conceptual. Puede lograrse, por ejemplo, mediante la
inclusión de un excitón atrapado en un punto cuántico dentro de una microcavidad
óptica en la que el campo fotónico está confinado en un pequeño volumen de
modo», escriben los autores en su artículo. «En consecuencia, un cuanto de
excitación óptica oscila entre el estado de materia y luz antes de filtrarse
hacia el exterior y disiparse.»
El equipo
realizó este experimento con pares de fotones y con fotones individuales. Según
explican, los pares de fotones aumentaron la frecuencia de la oscilación entre
luz y materia más que los fotones individuales. Los resultados de su estudio
coinciden con predicciones teóricas realizadas hace casi medio siglo.
El equipo de Cardiff utilizó un tubo semiconductor de tan sólo 1,8 micrómetros
(un micrómetro es una milésima de milímetro) de diámetro y mantuvo una
temperatura constante alrededor de los -263°C. Los fotones se atraparon en el
interior del tubo durante diez picosegundos (un picosegundo es la billonésima
parte de un segundo). Las tecnologías de la información y la comunicación (TIC)
se verán beneficiadas por estos descubrimientos. Los investigadores opinan que
están aumentado las posibilidades para construir sistemas lógicos basados en las
interacciones de estas partículas, es decir, ordenadores cuánticos. Un avance
como este supondría un aumento en la eficiencia de los procesadores, pues las
partículas se desplazarían a mucha mayor velocidad y emplearían menos energía
que los componentes electrónicos de un ordenador convencional.
«Esta interacción es capaz de producir una fuente continua de fotones y servir
de base para una lógica de protón único, la cual sólo precisa de una mínima
cantidad de energía para realizar procesos lógicos», explicó el profesor
Wolfgang Langbein, de la Escuela de Física y Astronomía citada. «Las
implicaciones a largo plazo de esta tecnología se extenderían a varias áreas,
como la computación, las telecomunicaciones y los dispositivos criptográficos»,
añadió.
No obstante, quedan varios aspectos técnicos que habrá de resolver el equipo
científico. El profesor Langbein comentó al respecto que «para utilizar esta
tecnología en dispositivos de computación reales habrá que mejorar
considerablemente las propiedades a tan bajas temperaturas, y lo ideal sería
trasladarlas a una temperatura ambiente. Por el momento no está muy claro cómo
conseguirlo, pero no es imposible.»
Fuente: CORDIS, 10-5-10
-Físicos desconfían de la aparición de una partícula de materia
oscura
Hace tan sólo unos meses, científicos de la Universidad de Florida (EE.UU.)
anunciaban el hallazgo de la que podría ser la primera partícula de materia
oscura, la misteriosa sustancia que mantiene «pegado» al Universo. El
detector CDMS (Cryogenic Dark Matter Search), construido en las
profundidades de un mina en Minnesota, había captado dos posibles
candidatos, aunque los investigadores reconocían que aún estaban lejos de
poder confirmar el espectacular descubrimiento. Sus competidores en la
carrera por lograr este hito científico no están dispuestos a cederles el
premio con facilidad. Los científicos de la Universidad de Columbia que
trabajan en el experimento XENON, que se presenta como el detector de
partículas más sensible del mundo, aseguran que los avances de los otros
equipos no son consistentes, ya que su máquina es la más potente y, en
palabras sencillas, si ellos no lo han visto, no ha podido verlo nadie. Es
decir, que la partícula de materia oscura se mantiene escurridiza y
enigmática.
«Las partículas de materia oscura continúan escapándose a nuestros instrumentos,
aunque nos hemos vuelto más inteligentes en nuestra búsqueda y confiamos en que
pronto daremos con ella», asegura la física Elena April, portavoz del
experimento XENON100. April y sus colaboradores, más de tres docenas de físicos
de nueve instituciones de todo el mundo, ofrecerán datos de su trabajo el
próximo verano, pero son realistas: no espera encontrar materia oscura en ese
plazo de tiempo. En su lugar, aseguran que su detector es el mejor en este
campo, ya que es el más eficaz en descartar la radiación de fondo que puede ser
confundida con estas esquivas partículas.
Partículas WIMPS
La materia ordinaria, aquella que da forma a todo lo que podemos ver, desde un
pequeño insecto a una galaxia, sólo suma el 4% del Universo. El inmenso 96%
restante lo forman la materia y energía oscuras, que todavía suponen un enorme
misterio. Por eso, la búsqueda de materia oscura se ha vuelto cada vez más
competitiva. En 1997, un grupo de científicos de la Universidad de Roma se
convirtió en el primero en reclamar el hallazgo y el pasado febrero los del CDMS
anunciaron haber encontrado una señal. Los nuevos resultados de XENON100 ponen
en duda las anteriores investigaciones. Si las primeras señales fueran en
realidad materia oscura, esta máquina habría visto docenas de eventos, a menos
que las propiedades de la materia oscura, las partículas denominadas WIMPS, sean
muy diferentes a las esperadas. El detector consiste en un recipiente de acero
inoxidable lleno de xenón líquido ultra puro colocado entre dos cámaras de alta
sensibilidad. Se encuentra por debajo de los 5.000 metros de roca en el Gran
Sasso Underground Laboratory (LGNS), situado en Italia, en una cámara de plomo y
cobre que, junto a la roca, ayuda a filtrar la radiación de fondo que de otra
forma se puede confundir con WIMPS. «El xenón es un material maravilloso para la
captura y el estudio de estas partículas», asegura Aprile.
Según explican los científicos en la revista Physical Review Letters, en caso de
que una partícula de materia oscura se pusiera en contacto con un átomo de
xenón, se transferiría una pequeña cantidad de energía que daría lugar a la
emisión de un destello de luz ultravioleta. Este aviso sería inmediatamente
recogido por las cámaras. Además, la energía también se manifiesta en una
pequeña cantidad de carga eléctrica más débil que la producida por el paso de
otras partículas conocidas. Si el detector registra esta luz y la carga
energética y puede excluir con certeza que no han sido producidas por otras
fuentes, los científicos podrían brindar con champange.
Fuente: abc.es, 10-5-10
-Estudian las muecas de los ratones para ver cuándo sienten dolor
Científicos de
la Universidad de Montreal (Canadá) han creado una escala para clasificar la
expresión facial de los ratones que permitirá discernir cuándo sienten dolor,
según publica hoy la revista "Nature Methods". Este sistema permitirá calcular
de forma más precisa el dolor que experimentan esos roedores cuando son
sometidos a experimentos en el laboratorio. Los humanos expresan su dolor con
expresiones faciales, gestos que han sido codificados para identificar la
intensidad del dolor en individuos que no son capaces de comunicarse, como los
niños. La posibilidad de hacer una escala similar para determinar la intensidad
del dolor en los ratones era hasta ahora una incógnita ya que las
investigaciones al respecto se habían centrado en modelos que medían la
respuesta de los roedores ante estímulos de calor o presión, aspectos
secundarios en el contexto de dolor crónico.
Para realizar el estudio, los investigadores analizaron cientos de imágenes de
ratones antes y mientras los sometían a estímulos de dolor de intensidad
moderada. De esta manera establecieron cinco rasgos de rigidez facial, hinchazón
de nariz y mejillas, movimientos de las orejas y bigotes que cambian según la
gravedad de los estímulos y que permiten crear una escala de gestos
relacionándolos con la intensidad del dolor. Uno de los objetivos que se
pretende alcanzar con este estudio es detectar en los postoperatorios con una
simple inspección visual si la dosis de analgésicos administrada a los ratones
es insuficiente.
Fuente: larazon.es, 9-5-10
-Más cerca del corazón artificial
Fabricar un corazón artificial a partir de células madre
idealmente del propio paciente para poder reemplazar el miocardio enfermo es una
de las quimeras de la medicina regenerativa. Un equipo español dio el pasado
domingo el primer paso para que ese proyecto sea algún día una realidad. El jefe
de Cardiología del Hospital Gregorio Marañón de Madrid, Francisco García Avilés,
ha preparado, por primera vez en el mundo, la estructura de un corazón humano
para que, una vez vaciada de sus propias células, sea apta para recibir otras
células madre que regenerarían el tejido cardiaco. Cuando se complete la
investigación con esta última fase, se podría hablar del primer corazón
bioartificial humano.
El experimento lo ha autorizado la Organización Nacional de
Traplantes (ONT) que, como confirmaron a Público fuentes de este
organismo, se encargó de garantizar que el corazón manipulado fuera de un
donante de órganos, pero no apto para un
trasplante cardiaco.
La investigación no es sólo española. El equipo de la bióloga
del Centro de Reparación Cardiaca de la Universidad de Minnesota (EEUU) Doris
Taylor ha participado en este avance, que se presentará hoy en el VII Simposio
en Terapia con Células Madre e Innovación Cardiovascular, que se está celebrando
en Madrid. Taylor publicó en enero de 2009 un estudio en Nature Medicine
en el que describía el proceso en una estructura de un
corazón de cerdo que se rellenó de células madre
embrionarias de rata. En el laboratorio, se consiguió que el corazón
bioartificial latiera.
Sustituir a los donantes
Aunque Fernández Avilés destacó que pueden pasar "años" hasta
que se consiga completar el experimento en humanos, una vez que esto se logre se
podría sustituir a los donantes por bancos de órganos "descelularizados",
informa Europa Press.
"Tras despoblar un corazón
humano de células, lo hemos convertido en una matriz", explicó el
cardiólogo del hospital madrileño, que destacó la coordinación existente entre
su laboratorio, el de la universidad estadounidense y la ONT, así como el
Ministerio de Ciencia e Innovación (MICINN).
El trabajo multicéntrico se enmarca en el proyecto de investigación
Estructuras y Órganos Bioartificiales para Trasplante (SABIO, de sus siglas en
inglés), financiado con 700.000 euros por el MICINN a través de la convocatoria
de ayudas del Plan Nacional de I+D+i para la investigación de células madre con
fines terapéuticos en colaboración con grupos de investigación de otros países.
En el mismo simposio
donde se presenta hoy este hallazgo, se difundieron ayer los resultados del
estudio PRECISE, dirigido también por Fernández Avilés. En este trabajo, el
equipo ha conseguido demostrar que las células de grasa obtenida por liposucción
y procesada en busca de sus células madre son un tratamiento seguro y con un
efecto beneficioso para los afectados por cardiopatías graves sin solución
terapéutica.
Fuente:
publico.es, 7-5-10
-Agujeros negros asesinos de galaxias
Tal y como suena. Algunos
agujeros negros son capaces de destruir galaxias enteras, abortando sus
estrellas antes de que nazcan y condenando a las ya existentes a consumirse
en una interminable agonía. Pero el método utilizado por estos monstruos
espaciales no consiste en devorarlas, como parecería lógico dada su
condición de sumideros de materia, sino en bombardear a las galaxias con
energía letal. Eso, por lo menos, es lo que asegura haber descubierto Asa
Bluck, astrofísico de la Universidad inglesa de Nottingham.
A pesar de que los agujeros negros son devoradores insaciables de materia,
este proceso en sí mismo no es suficiente para "asesinar" a una galaxia
entera. De hecho, y a pesar de su voraz apetito, miles de nuevas estrellas
nacen continuamente (en especial en las galaxias más activas) compensando
así las pérdidas de materia.
La Vía Láctea se fundirá con la galaxia Andrómeda dentro de 4.000 millones
de años, y con ellas, sus dos agujeros negros / ABC
Un buen ejemplo es la
Vía Láctea, nuestro propio hogar en el espacio, que lleva miles de millones de
años perdiendo ingentes cantidades de material a manos de su gran agujero negro
central, y volviéndola a crear, gracias a la generación estelar, en un gran
número de "semilleros" en cuyo interior las estrellas se forman en una cantidad
suficiente como para mantenerla estable.
Sin embargo, y ahí está el quid de la cuestión, la materia que es absorbida por
el agujero negro no cae en su interior de forma abrupta, sino que gira a su
alrededor, formando un disco de acreción cuya temperatura aumenta a medida que
se va comprimiendo y que es capaz de radiar grandes cantidades de energía. Monstruos gigantescos
Y ahora pensemos lo que este proceso implica para las galaxias más grandes y
masivas, en cuyo centro anidan agujeros negros gigantes, con masas que pueden
ser hasta miles de millones de veces la de nuestro Sol. Para comprobar el
impacto que tienen estos auténticos monstruos, un grupo de astrónomos, liderados
por Asa Bluck, han utilizado dos de los mejores instrumentos de observación que
existen: los telescopios espaciales Hubble y Chandra que operan en los rangos de
la luz visible y en el de los rayos X respectivamente.
Con ellos han buscado galaxias con emisiones muy altas de rayos X, lo que suele
ser un indicio de la presencia de un gran agujero negro central "alimentándose"
del material de la galaxia, especialmente de polvo y gas. Los investigadores
descubrieron que, por lo menos en una de cada tres galaxias estudiadas, los
discos de acreción eran lo suficientemente grandes como para oscurecer el brillo
de los miles de millones de estrellas de la propia galaxia.
Y vieron también que la cantidad de energía emitida por estos discos era más que
suficiente para despojar a las galaxias de las grandes nubes de gas que son la
materia prima para la formación de nuevas estrellas. De hecho, toda esta
cantidad de radiación barre, literalmente, las reservas de polvo y gas de la
galaxia, privándola así de los ingredientes que necesita para regenerarse. Las
estrellas que ya existen, por su parte, envejecerán en solitario, hasta
consumirse por completo. Y cuando eso ocurra ya no habrá nuevas generaciones de
estrellas para relevarlas.
"Nos encontramos con este espeluznante retrato en la historia de las galaxias
masivas, en las que la enorme violencia desencadenada por ese gran torrente de
radiación generada por la materia que cae en el agujero negro lleva a la propia
galaxia a la muerte", asegura Asa Bluck. "Los agujeros negros se forman en el
interior de sus galaxias huéspedes y crecen en proporción a ellas, formando
discos de acreción que pueden llegar a destruirlas".
Una de cada mil
No todas las galaxias, sin embargo, corren esta trágica suerte. Bluck ha
comprobado que este final está reservado sólo a los ejemplares más grandes, es
decir, a cerca de una galaxia de cada mil. La mayoría de las restantes, afirma
Bluck, "serían demasiado pequeñas para albergar en su interior agujeros negros
super masivos, por lo que es poco probable que sus discos de acreción emitan
energía en cantidad suficiente como para llevarlas a la muerte".
Por lo que respecta a nuestro propio futuro lejano, Bluck predice que a nuestra
galaxia le quedan varios miles de millones de años de tranquilidad. De hecho, el
agujero negro central de la Vía Láctea parece estar aletargado, si comparamos su
actividad con la que exhiben los "inquilinos" de otras galaxias. Pero dentro de
unos 4.000 millones de años nuestra galaxia se fundirá con su vecina, Andrómeda
(en la imagen), lo cual supondrá el nacimiento de una auténtica "supergalaxia"
y, probablemente, la fusión de sus dos agujeros negros centrales en uno solo,
mucho más grande y activo.
"Pero no hay que preocuparse", añade el científico. Para entonces nuestro Sol ya
habrá desaparecido hace mucho tiempo, y con él, todos nosotros.
Fuente: abc.es,
7-5-10
-¿Humanos contra robots en 2015?
Kitano Hiroaki por ser el inventor del perro robot Aibo y uno de los
directores del Sony Computer Science Lab en Tokio.
A principios de los años noventa, Kitano Hiroaki soñaba con
crear robots bípedos con habilidades superiores a las de un ser humano.
Ambicioso, pero a la vez realista, empezó con el desarrollo del perro robot de
cuatro patas Aibo, que llegó a venderse en las tiendas, y continuó con el
desarrollo de QRIO también de Sony, el primer robot bípedo de la historia capaz
de correr.
El sueño de Kitano Hiroaki era y es conseguir crear un robot
humanoide que supere en habilidades motrices a un ser humano antes de 2050.
No es un problema sencillo de resolver; no se puede
solucionar en solitario. A Kitano Hiroaki y a sus colegas del Sony Computer
Science Lab se les ocurrió una idea fabulosa para que todo el mundo pueda
participar y mantenerse motivado al cien por cien durante el proceso de
desarrollo de robots potentes. Decidieron crear una competición mundial de
fútbol en la que los jugadores, en vez de humanos, serían robots. El objetivo
final sería crear un equipo formado por futbolistas robóticos totalmente
autónomos capaz de ganar al mejor equipo de fútbol en el año 2050.
La primera edición de Robocup, la competición mundial de
robots, se celebró en Japón en 1997 y participaron 40 equipos, casi todos ellos
de universidades y empresas japonesas. El año pasado fueron ya más de 400
equipos de más de 40 países. En Japón es un evento conocido por casi todo el
mundo, con seguimiento en los medios; algunos de los partidos más interesantes
son televisados.
Los robots participantes en la Robocup son totalmente
autónomos. Durante el partido no se permite que humano alguno intervenga
remotamente en la marcha del juego. Los robots deciden por sí mismos en tiempo
real los movimientos en el campo de fútbol. Programar una buena inteligencia
artificial, y además colectiva, es algo clave, más importante incluso que tener
robots con habilidades motrices avanzadas.
Para conseguir ganar en la Robocup los miembros humanos de
los equipos deben saber mucho sobre muchas disciplinas: inteligencia artificial
en general, programación, matemáticas, física, mecánica, visión artificial,
electrónica, anatomía humana, etcétera.
"En principio pensé en el fútbol porque es un juego que lo
entiende casi todo el mundo y a la vez es lo suficientemente complicado como
para ser un problema desafiante", explicó Hiroaki recordando cómo nació la idea
del Robocup. Aunque pueda parecer que la competición es un mero juego, una
afición cara de científicos de todo el mundo, y aunque el objetivo de competir
contra humanos pueda sonar un poco ingenuo, el verdadero propósito del torneo es
incrementar la motivación para crear cada vez mejor tecnología a la que se le
puedan buscar aplicaciones prácticas. Por ejemplo, en la Universidad de Tokio
están desarrollando un robot cirujano cuya tecnología está basada en robots
humanoides que fueron creados para la Robocup del año 2007.
En las universidades de Waseda y Keio han creado varios
robots de rescate para los bomberos, cuyos primeros prototipos fueron
desarrollados para competiciones Robocup. Son algunos de los ejemplos de entre
los centenares de avances que se han llevado a cabo en universidades de todo el
mundo gracias a la Robocup.
¿Conseguirán 11 montones de latas derrotar al campeón mundial
de los humanos en 2050? Por ahora van por buen camino y aún faltan 40 años para
que llegue la fecha del enfrentamiento final. La próxima cita de la Robocup se
celebrará en junio en Singapur, con la participación de varios equipos españoles
que, a diferencia del torneo de Suráfrica, no salen como favoritos.
Fuente: elpais.com, 6-5-10
-Herschel capta una "estrella" imposible
que desafía a la ciencia
La burbuja galáctica RCW 120 / ESA
El observatorio espacial de la Agencia Espacial Europea (ESA) en la banda
del infrarrojo, Herschel, ha desvelado aspectos hasta ahora desconocidos del
proceso de formación de las estrellas durante su primer año de operaciones.
Sus imágenes revelan la frenética formación de estrellas en lejanas galaxias
y las impresionantes nubes de polvo y gas que se extienden a lo largo de la
Vía Láctea, en el interior de las que nacen las nuevas estrellas de nuestra
galaxia. Una de las imágenes ha capturado una estrella «imposible» en plena
formación. «Imposible» porque promete convertirse en algo tan grande que los
científicos jamás hubieran imaginado.
Los primeros resultados científicos obtenidos con Herschel han sido
presentados hoy en el Centro Europeo de Investigación y Tecnología Espacial
(ESTEC) de la ESA. Estas primeras conclusiones desafían a las teorías
actuales sobre la formación de las estrellas y proponen nuevos caminos para
futuras investigaciones.
Las observaciones realizadas con Herschel de la nube de formación de
estrellas RCW 120 han desvelado una estrella embrionaria que podría
convertirse en una de las estrellas más grandes y más brillantes de nuestra
Galaxia en los próximos cientos de miles de años. Actualmente ya cuenta con
una masa unas ocho o diez veces superior a la de nuestro Sol, y continúa
rodeada por una nube de gas y polvo de unas 2000 masas solares de la que
podrá seguir alimentándose durante los próximos miles de años.
«Esta estrella sólo puede seguir creciendo», comenta Annie Zavagno, del
Laboratorio de Astrofísica de Marsella. Las estrellas masivas son poco
frecuentes y su vida es relativamente corta. El poder observar una de ellas
durante su proceso de formación representa una oportunidad única para
intentar resolver una de las grandes paradojas de la astronomía. “Según las
teorías actuales, no es posible la formación de estrellas con una masa
superior a ocho veces la de nuestro Sol”, aclara la Doctora Zavagno.
Esto es debido a que la intensa luz emitida por las estrellas
de este tamaño debería dispersar las nubes que las rodean antes de ser capaces
de acumular más masa. Pero por algún motivo todavía desconocido, estas estrellas
existen. Actualmente se conocen varios ejemplos de estas estrellas ‘imposibles’,
algunas con una masa de hasta 150 veces la de nuestro Sol, pero ahora que
Herschel ha descubierto una de ellas en plena formación, los astrónomos tienen
la oportunidad de analizar dónde fallan sus teorías. El comienzo del Universo
Herschel, que
fue lanzado el 14 de mayo de 2009 junto con el satélite Planck, es un gran
telescopio espacial en la banda del infrarrojo lejano diseñado para estudiar
algunos de los objetos más fríos del espacio, en una región del espectro
electromagnético prácticamente inexplorada. Concretamente, cuenta con 7, 5
metros de altura y cuatro metros de ancho y es el telescopio de infrarrojo más
grande jamás lanzado. La superficie extremadamente pulida de su espejo primario
de 3, 5 metros de diámetro - hecho de carburo de silicio ligero-- es casi vez y
media mayor que el del Hubble, y seis veces más grande que el espejo de su
predecesor ISO, lanzado por la ESA en 1995.
Con su gran capacidad para captar luz y con sus sofisticados
detectores enfriados hasta cerca del cero absoluto por más de 2.000 litros de
helio superfluido, Herschel será capaz de observar las fuentes de luz infrarroja
más débiles y lejanas del Universo, y de analizar las hasta ahora inexploradas
regiones del infrarrojo lejano y de la radiación submilimétrica del espectro
electromagnético.
También puede ver a través de la opacidad del polvo y el gas cósmico y observar
estructuras y sucesos lejanos que datan de los comienzos del Universo - tales
como el nacimiento y la evolución de las primeras estrellas y galaxias - hace
diez mil millones de años, intentando determinar exactamente cómo comenzó todo.
En la Vía Láctea también puede observar objetos extremadamente fríos, tales como
las nubes de polvo y el gas interestelar a partir del cual se forman las
estrellas y los planetas, e incluso la atmósfera que rodea a los cometas, a los
planetas y a sus lunas dentro del Sistema Solar.
Fuente: abc.es, 6-5-10
-Francisco J. Ayala, dice que "religión y ciencia son dos ventanas para mirar
al mundo"
La religión y la ciencia son 'dos ventanas para mirar al mundo, que es el
mismo, y sólo son contradictorias si una se empeña en pisarle el terreno a la
otra', afirma el biólogo evolucionista español Francisco J. Ayala, galardonado
con el premio Templeton.
Ayala, que recibió hoy el premio, dotado con un millón de
libras (1,2 millones de euros), de manos del duque de Edimburgo, explicó a Efe
que el dinero lo destinará íntegramente a la Universidad de California en Irvine
(EEUU), donde enseña, por lo que 'los estudiantes serán los primeros
beneficiados'. El premio, instituido en 1973 y ligeramente mayor en dotación que
el Nobel, distingue anualmente a 'una persona viva que haya hecho una
contribución excepcional a afirmar la dimensión espiritual de la vida, ya sea a
través de una idea, un descubrimiento o una acción concreta' y entre los
premiados figuran la madre Teresa de Calcula, la primera en recibirlo, y el
escritor ruso Aleksandr Solzhenitsyn.
Francisco Ayala
Su fundador, el empresario John Templeton, estableció
que, aunque el anuncio se hace en Washington, se entregase oficialmente al
ganador en el Palacio de Buckingham, de Londres, de manos del Duque de
Edimburgo, el esposo de Isabel II, algo que ocurrió también hoy. En
declaraciones a Efe antes de recibir el galardón, el biólogo español explicó
que la nueva variante del creacionismo, el llamado 'diseño inteligente' no
tiene tampoco validez científica y al igual que aquél se explica sólo por la
fuerza que tiene todavía en EEUU el 'literalismo bíblico'.
El propio Ayala ayudó ya en 1987 a preparar el resumen
Amicus de la Academia Nacional de Ciencias de EEUU en oposición a una ley
del estado de Luisiana que imponía la enseñanza simultánea del creacionismo
y la evolución en las escuelas públicas, ley que el Tribunal de Justicia
declaró inconstitucional por su intención de promover una visión religiosa
específica.
Ayala preparó con ayuda de abogados y expertos en la
Primera Enmienda de la Constitución de EEUU el trabajo 'Ciencia, Evolución,
Creación', un opúsculo que va ya por su tercera edición y que sostiene que
el diseño inteligente no es ciencia y no puede por tanto enseñarse en las
escuelas. Pero, según Ayala, otros científicos como el biólogo británico
Richard Dawkins 'se van al extremo opuesto al afirmar que religión y ciencia
son incompatibles y negar tajantemente la existencia de Dios, algo que no
sostienen, por el contrario, la Academia Nacional de Ciencias de EEUU ni
tampoco muchos teólogos'.
Al margen de sus trabajos sobre la evolución, a la que ha
dedicado varios libros, Ayala ha llevado a cabo importantes investigaciones
sobre los protozoos parásitos y en especial la malaria, que afecta cada año
a más de 400 millones de personas sólo en África y de la que mueren millón y
medio de niños.
'Hasta hace dos o tres años sólo disponíamos de una estirpe
del plasmodium del chimpancé y para compararlo con el de la malaria maligna, el
llamado plasmodium falciparum, necesitábamos más muestras, que logramos obtener
analizando el ADN de los parásitos en las heces de gorilas y chimpancés y monos
antropoides', dijo.
'El año pasado conseguimos demostrar que el falciparum se
deriva del plasmodium reichenowi, que éste es su antepasado, y se deriva de él
además en un tiempo relativamente reciente de la evolución y que su expansión se
produjo en cuestión de cinco a seis milenios y asociada a la agricultura en
África', añadió.
'Hemos coleccionado muchas más muestras de especies de esos
antropoides y hemos visto que en varios casos están infectados por el falciparum,
lo cual es un problema serio porque si se consigue extirpar la malaria en los
humanos, quedaría ese repositorio en los monos', indicó el biólogo.
'Los chimpancés y gorilas no sufren la malaria maligna, pero
los parásitos están en su sangre', explicó Ayala.
'Hay tres o cuatro especies de plasmodios que no se conocían
antes, y la semana pasada envié otro trabajo a la Academia Nacional de Ciencias
de EEUU sobre una nueva especie de falciparum que puede llegar a ser un
problema', dijo Ayala.
En ese trabajo demostramos que el falciparium y los parásitos
de los monos antropoides no tienen relación evolutiva alguna con los otros
parásitos humanos ni con los de los monos, sino que se derivan de un parásito
anterior distinto', señaló el científico.
El mayor consuelo en cualquier caso es que en los antropoides
el falciparum no se multiplica con la rapidez que en los humanos y además su
ciclo vital atraviesa varios estadios, que hacen difícil su transmisión.
Ayala trabaja además actualmente en otras graves enfermedades
del mundo en desarrollo, de origen parasitario, como la de Chagas, que afecta
también a millones de personas en las zonas tropicales, la leishmaniasis o la
llamada enfermedad del sueño africana, causada por el trypanosoma brucei.
Sobre el estado de la ciencia en España, Ayala afirmó que el
país 'produce muy buenos científicos', pero son luego otros, como EEUU, quienes
luego los contratan ya que los españoles no pueden seguir su carrera en su
propia tierra al no encontrar puestos de trabajo en la investigación.
'Ahora mismo tengo en el departamento de Ecología y Evolución
a un joven científico, José María Ranz, que es biznieto intelectual mío',
explicó Ayala, quien agregó que en su departamento tiene también otros dos
españoles en espera de conseguir puestos en otras universidades norteamericanas.
España invierte poco más del 1 por ciento de su Producto
Interior Bruto (PIB) en investigación científica frente a un promedio europeo
del 2 por ciento y un 3 por ciento en Estados Unidos, critica Ayala, según el
cual en el país ibérico parecen no haber comprendido la relación directa entre
investigación científica y expansión económica.
Fuente: EFE, 5-5-10
-El final de los
transbordadores se aplaza por un experimento
En plena campaña de clausura del programa
del transbordador espacial, la NASA ha tenido que cambiar sus planes debido a la
decisión del equipo del gran detector de antimateria Alpha Magnetic Spectrometer
(AMS) de hacer cambios estructurales en el instrumento. El último vuelo del
transbordador será ahora el que lleve el AMS a la Estación Espacial
Internacional, siempre que los científicos de 14 países que participan en el
caro y largo proyecto sean capaces de tener listo para noviembre el detector
tras el cambio de su imán criogénico avanzado por otro convencional. El vuelo
del Endeavour, previsto para julio, queda así retrasado para noviembre
(sin fecha concreta), y se convierte en el último previsto, en vez del
Discovery en septiembre. Más de 6.000 trabajadores a punto del despido
disfrutarán de un breve respiro.
El AMS espera encontrar, una vez instalado en la
estación, nuevas partículas de antimateria y pistas de la misteriosa materia
oscura del universo. "Es, con mucho, el proyecto científico más importante
de los actualmente planeados para la estación", dice el físico teórico John
Ellis, del CERN, donde se ha desarrollado el AMS. Sin embargo, otros
científicos no creen tanto en el proyecto.
"Desde luego no estamos en una situación confortable",
dice Manuel Aguilar, del Ciemat, principal organismo español en el proyecto
AMS. "El calendario que tenemos ahora es bastante ajustado". Los
responsables de AMS han argumentado estos días que la decisión de cambiar el
imán superconductor por el imán convencional que se utilizó en el prototipo
de 1998 se debe, principalmente, a que la NASA ahora ha aumentado el periodo
de utilización de la estación de 2015 a 2020. En realidad, el imán
superconductor, cuya electrónica ha sido aportada por los españoles, tiene
un problema grave, ya que consume entre un 30% y un 40% más del helio
refrigerante previsto, lo que reduciría su tiempo de funcionamiento de los
tres años programados a menos de dos.
Ilustración del
detector de antimateria AMS instalado en la Estación Espacial Internacional.-
NASA
Algunos críticos han señalado a la revista Nature que
con el imán antiguo, además de hacer falta más acopio de datos, sólo se podrá
trabajar en un rango de energía menor. Además, creen que hacer un cambio tan
grande puede ser fatal para el proyecto. "Las pruebas y verificaciones
constituyen un proceso muy meticuloso que no se debería acelerar", señala Bob
O'Dell, antiguo director científico del telescopio espacial Hubble.
"Para la parte del experimento de búsqueda de antimateria,
hasta un teraelectronvoltio de energía, el espectrómetro reconfigurado tiene las
mismas prestaciones en 10 años que el imán superconductor en tres, e incluso
puede ser más competitivo porque lo que cuenta es la acumulación de datos",
argumenta Aguilar. "También en la búsqueda de materia oscura prima la
acumulación de datos, pero hay una parte del experimento que nos interesaba
bastante que se degrada con el imán convencional y es el estudio de isótopos
nucleares".
El AMS está ya en el CERN, donde fue ensamblado, de vuelta
desde el centro científico y tecnológico de la ESA en Holanda, donde el aparato
ha pasado pruebas de condiciones de vuelo. Se empezará a desmontar ahora y el
próximo día 15 llegará de Alemania el imán convencional, que habrá que montar,
así como reestructurar el equipo. Si se quiere volar en noviembre, el conjunto
debe estar en el Centro Espacial Kennedy en septiembre.
El proyecto cuesta 1.500 millones de euros y lleva 15 años en
preparación, liderado por el Ministerio de Energía de Estados Unidos. Su
director científico es el premio Nobel Samuel Ting. España participa con 8
millones.
Fuente: elpais.com, 5-5-10
-La auténtica máquina
del tiempo
Uno de los grandes objetivos de astrónomos y científicos es conocer los primeros
momentos de la existencia del Universo, el tiempo que llegó inmediatamente
después de aquel primer instante. La NASA e investigadores universitarios han
comenzado la construcción de un instrumento diseñado para conocer ese minuto
uno, una auténtica «máquina del tiempo» que nos permitirá viajar al pasado más
remoto que nunca ha existido, hace 13.700 años. Se trata de un nuevo telescopio
terrestre, un rastreador cosmológico a escala de gran angular (CLASS, por sus
siglas en inglés) que comienza a tomar forma en el Centro de Vuelo Espacial
Goddard, situado en Greenbelt, Maryland (EE.UU). Si todo va como los
investigadores esperan, el rastreador estará listo en 2014. Entonces, se
instalará en el desierto de Atacama, en el norte de Chile, desde donde
escudriñará el cielo con detectores sensibles a las frecuencias de las
microondas, la única forma de «ver» el pasado.
La
construcción del ingenio está dirigida por el ex científico de la NASA Chuck
Bennett, ahora un astrofísico de la Universidad Johns Hopkins (JHU) en Baltimore
(Maryland), con la ayuda económica de la Fundación Nacional de Ciencia. El
objetivo final es probar la teoría inflacionaria de origen del Universo.
Considerada una idea asombrosa hace 30 años, la teoría de la inflación postula
que el Universo se expandió mucho más rápido que la velocidad de la luz y creció
exponencialmente casi un instante después del Big Bang. Para ello, el telescopio
buscará un patrón en el fondo cósmico de microondas, algo así como la remanente
de la creación del Universo que impregna el cielo en todas las direcciones.
Debido al tamaño del cosmos, los científicos sólo pueden estudiar esa luz con
instrumentos sensibles a las frecuencias de las microondas.
Ondas delatoras
Si esto sucedió realmente, si el universo estalló a toda velocidad como un
pastel que ha pasado demasiado tiempo en el horno, los científicos creen que
pueden existir ondas grativatorias, perturbaciones del espacio tiempo que
todavía siguen en alguna parte y que el nuevo telescopio se encargará de buscar.
El equipo completará el instrumento en 2014 y lo enviará al desierto de Atacama
en Chile, donde observará grandes franjas del cielo en microondas.
De momento, los científicos del Goddard han descubierto pistas de que la
inflación sucedió, pequeñas diferencias de temperatura detectadas en el fondo de
radiación cósmica. De todas formas, CLASS no es el único esfuerzo dirigido a
encontrar la misma evidencia. Otro equipo de Goddard construye un instrumento
para ser lanzado en globo, llamado Primordial Inflation Polarization Exploration
(PIPER) que será lanzado en 2012, en busca de la misma señal pero con otro tipo
de tecnología.
Fuente: abc.es, 4-5-10
-Europa quiere acortar distancias con Estados Unidos en política espacial
El hecho de que la UE se haya dotado de nuevas competencias
en materia espacial contribuiría a acortar las distancias entre Europa y EEUU a
partir de 2014, han subrayado hoy fuentes del Centro para el Desarrollo
Tecnológico e Industrial (CDTI).
Una conferencia que se celebra hoy en La Granja (Segovia)
trata de determinar el alcance y ámbito de actuación de la Agencia Espacial
Europea (ESA) y la UE, tras las nuevas competencias en el ámbito espacial
fijadas con la entrada en vigor del Tratado de Lisboa.
Según ha informado el CDTI, que organiza la conferencia
dentro de la Presidencia española de la UE, uno de los temas que centran los
debates es el uso del espacio como factor para incrementar la productividad
y promover la innovación.Asimismo se habla del potencial del espacio como
elemento aglutinador de la cooperación internacional y su uso como
herramienta para garantizar el desarrollo sostenible.
En la actualidad, la ESA gestiona un presupuesto anual
superior a los 3.500 millones de euros que ha permitido situar a Europa como
segunda potencia espacial del mundo tras los Estados Unidos. En los últimos
años, la UE se ha interesado en el ámbito espacial mediante su participación
en los programas espaciales de la ESA Galileo, de navegación, y GMES (Global
Monitoring for Environment and Security), para la vigilancia mundial del
medio ambiente y la seguridad, de observación de la tierra.
Ahora deberá presentar para su aprobación durante el
próximo año, una propuesta oficial de Programa Espacial susceptible de
garantizar las aspiraciones europeas.
La conferencia sobre gobierno de los programas espaciales
ha sido inaugurada, esta mañana, por el alcalde de La Granja, José Luis
Vázquez, junto con el director de Aeronáutica, Espacio y Retornos
Tecnológicos del CDTI, Juan Carlos Cortés, y el jefe de la oficina política
del director general de la ESA, Giuseppe Morsillo.
Este evento, que supone una continuación del encuentro sobre
Espacio y Seguridad que tuvo lugar en Madrid durante el pasado mes de marzo,
culminará con la celebración de un Consejo Europeo de Espacio a nivel
ministerial durante la próxima presidencia belga. De acuerdo con el CDTI, en el
encuentro se habla de diversos procedimientos para llevar a cabo la colaboración
entre la ESA y la UE, en lo que respecta a los ámbitos de actuación del Programa
Espacial Europeo. Asisten, a puerta cerrada, representantes de la Comisión
Europea, la ESA y las delegaciones de sus correspondientes Estados miembros.
Entre otros participantes se encuentran el director para el
Sector Aeroespacial, GMES, Seguridad y Defensa de la Comisión Europea, Paul
Weissenberg, y el jefe de Estrategia y Relaciones Nacionales e Internacionales
de la Agencia Espacial Italiana, Augusto Cramarossa. Según el CDTI, en función
de las nuevas competencias, la Comisión Europea está elaborando una propuesta
para definir sus actividades espaciales dentro de la envolvente presupuestaria
de la UE para el período 2014-2020.
Fuente: EFE,
4-5-10
-Cuando la voluntad
supera al ADN
En los últimos años, la ciencia ha
identificado varias mutaciones genéticas relacionadas con la obesidad. Estas
pequeñas alteraciones escritas en el ADN inciden directamente en nuestras
posibilidades de engordar, nos hacen más propensos al sobrepeso. Sin embargo, no
tienen 'la última palabra' sobre nuestro organismo. Tal como acaba de poner de
manifiesto una investigación con participación española, el ejercicio puede
'desactivar' su poder.
Este trabajo, que se publica en las páginas de la revista
'Archives of Pediatrics
and Adolescent Medicine', evaluó a 752 adolescentes de 10 países europeos
que portaban una alteración en el
gen FTO, uno de los relacionados con la obesidad. Concretamente, estos
jóvenes presentaban una variante conocida como rs9939609, que
se ha asociado con un aumento significativo del peso y la grasa corporal en
diferentes poblaciones.
Además de medir su talla, peso y circunferencia abdominal,
entre otras variables, los autores de esta investigación analizaron la cantidad
de ejercicio que los participantes realizaban al día a través de un
acelerómetro, un aparato capaz de registrar la cantidad e intensidad de
los movimientos.
"Las recomendaciones generales de actividad física para los
niños y adolescentes dicen que éstos deberían hacer al menos 60 minutos de
actividad física todos los días de la semana [...] Queríamos saber si seguir las
recomendaciones podía atenuar el efecto de la mutación genética", comentan los
investigadores en su trabajo.
Los resultados de su análisis confirmaron esta hipótesis.
Según sus datos, en aquellos adolescentes que realizaban más de una hora diaria
de ejercicio –de moderado a intenso-, "la presencia del genotipo de
riesgo no se asociaba con un mayor índice de masa corporal, porcentaje
de grasa o circunferencia abdominal". Por el contrario, para los jóvenes más
sedentarios, la existencia de la alteración genética sí resultaba determinante.
Cumplir las recomendaciones
En sus conclusiones, los investigadores subrayan que sus
hallazgos tienen implicaciones fundamentales para la salud pública ya que
indican que "cumplir con las recomendaciones de actividad física puede
contrarrestar una predisposición genética al sobrepeso y la obesidad en
adolescentes".
"Existe la creencia popular de que no se puede hacer nada
contra lo que predetermina la genética. Nuestros datos demuestran que esto no es
así y que modificando el estilo de vida se puede atenuar e incluso hacer
desaparecer los efectos negativos de un gen", comenta Jonatan Ruiz,
investigador de la Universidad de Granada y principal firmante del trabajo, que
ha diseñado también como miembro de la Unidad de Nutrición Preventiva del
Instituto Karolinska de Estocolmo (Suecia), donde disfruta de una beca
post-doctoral.
"Estos resultados transmiten un mensaje de optimismo.
Nos muestran que, aunque estemos predestinados al sobrepeso, podemos combatirlo
con medidas sencillas como la actividad física", apunta Luis Moreno, profesor de
la facultad de Ciencias de la Salud de la Universidad de Zaragoza, quien destaca
la sólida metodología empleada en la elaboración del trabajo.
Tanto Moreno como Ruiz coinciden en señalar que "para un
joven es muy fácil cumplir con las recomendaciones. Basta con jugar al fútbol,
al baloncesto o realizar determinadas actividades extraescolares". Sin embargo,
Ruiz lamenta que "gran parte de los adolescentes analizados en nuestra
investigación no practicaban suficiente ejercicio".
Según explica, el siguiente paso en la investigación será
realizar estudios de intervención para comprobar si llevar a
cabo un programa de ejercicio en niños con la citada mutación genética tiene
efectos beneficiosos sobre el riesgo de desarrollar sobrepeso u obesidad.
Además, según explica Moreno, también tratarán de averiguar
qué otros factores podrían, de forma combinada, atenuar aún más la
predisposición al sobrepeso marcada en los genes.
Fuente elmundo.es, 3-5-10
-El presidente de Estados Unidos alertó hoy de un potencial desastre sin
precedentes en el Golfo
El presidente de Estados Unidos, Barack Obama, alertó hoy
durante una visita al estado de Luisiana que el vertido incontrolado de crudo en
el Golfo de México podría provocar un desastre ecológico 'potencialmente enorme
y sin precedentes'.
'Creo que el pueblo estadounidense es consciente ahora,
ciertamente los habitantes aquí del Golfo lo son, de que estamos afrontando un
desastre ecológico potencialmente enorme y sin precedentes', afirmó Obama desde
Venice, al sur de Luisiana.
'El petróleo que fluye del pozo podría dañar seriamente la
economía y el medioambiente de nuestros estados del Golfo', afirmó en unas
breves declaraciones a la prensa.
Añadió que las repercusiones podrían durar 'mucho tiempo' y
amenazar los medios de vida de miles de estadounidenses que consideran 'este
lugar su hogar'.
Aseguró, por lo demás, que 'podrían ser necesarios muchos
días para detener' el derrame que comenzó el pasado 20 de abril a raíz de la
explosión y posterior hundimiento de una plataforma petrolífera operada por
British Petroleum (BP). El presidente respondió también a los críticos que
aducen que su Gobierno no ha actuado con la suficiente celeridad en el caso.
'Nos preparamos y planeamos para lo peor desde el primer
día, aunque esperamos lo mejor', insistió y recordó que su administración
lanzó una investigación 'inmediatamente' después de la explosión para
aclarar lo sucedido.
Añadió, además, que su Gobierno lleva a cabo un esfuerzo
'implacable' para hacer frente al derrame y dijo que no se dará por
satisfecho hasta lograr contenerlo. Los críticos sostienen que la Casa
Blanca no ha actuado con suficiente rapidez frente al derrame y dicen que
podría convertirse en el 'Katrina' de Obama, en referencia al huracán que
golpeó Nueva Orleans en el año 2005 y que lastró la popularidad del
presidente George W. Bush por la lentitud oficial ante la tragedia. Al igual
que Obama, la secretaria de Seguridad Nacional, Janet Napolitano, restó hoy
legitimidad a esas críticas al afirmar que el Gobierno ha estado alerta
desde el primer momento.
'La respuesta física sobre el terreno ha sido desde el
primer día como si este pudiese ser un fallo catastrófico', afirmó hoy
Napolitano, quien dijo que el Gobierno está utilizando todos los recursos a
su alcance para minimizar el impacto del vertido.
Las últimas estimaciones indican que el derrame ronda los
800.000 litros de petróleo diarios, aunque Lamar McKay, presidente de
British Petroleum en EE.UU., concesionaria de la plataforma hundida, dijo
hoy que es imposible predecir la magnitud.
El ejecutivo insistió en que un fallo técnico del mecanismo que debería de
haberse activado para sellar el pozo explica que el petróleo siga fluyendo
libremente.
Varios brazos robóticos son controlados por hombres en el fondo marino para
intentar cerrar el pozo.
McKay adelantó, por lo demás, que la gigantesca estructura que construyen los
ingenieros de la firma para contener el derrame podría estar instalada en el
plazo de 'seis a ocho días'.
La citada estructura es una especie de cúpula gigante que se colocaría sobre
las fugas en el oleoducto a través de las que se vierte el petróleo, que se
acumularía dentro de la cúpula y se bombearía fuera de ella evitando así el
derrame directo en el mar. A la espera de los resultados de esa iniciativa, el secretario del Interior
de EE.UU., Ken Salazar, dijo hoy que para lograr una 'solución definitiva'
podrían ser necesarios tres meses. Esa solución implica la construcción de un pozo alternativo a través del que
se inyectaría un líquido más pesado que el petróleo que actuaría como una
especie de tapón e impediría que el crudo siga fluyendo a la superficie. Hasta que eso se logre, explicó hoy Salazar, 'podría seguir fluyendo un
montón de petróleo'.