-Un paso más cerca de conocer la anatomía del
cerebro
Neguémonos a aceptar
que ese órgano gris y uniforme, que estamos habituados a ver a través del
escáner, es el verdadero cerebro". Con esta máxima, Van Wedeen, experto del
Hospital General de Massachusetts (EEUU), ha sido capaz de obtener imágenes en
color y 3D de las fibras nerviosas responsables de las distintas funciones del
cuerpo humano: vista, olfato, movimiento... Todo un entramado de carreteras que
se entrecruzan y que presentan una geometría nada casual.
El trabajo de este especialista en
Imagen Biomédica, y recogido en revistas como
'Brain' y
'Neuroimage', se basa en
la resonancia magnética y las técnicas de difusión (DSI, sus siglas en inglés),
también conocidas como tractografía.
"Nos basamos en la difusión del
agua y el patrón que ésta sigue. Es nuestro trazador para conocer las
características de las fibras cerebrales", explica a elmundo.es y añade que su
objetivo es "ver la verdadera anatomía del cerebro y no sólo su superficie".
Este mismo método es el que usaron los
autores de un trabajo publicado hace cuatro meses en
'PLoS Biology' y en el
que se dio a conocer lo existencia de un
'kilómetro cero' en el
cerebro, el punto del que salen las distintas autopistas que lo recorren. Las
aportaciones de Wedeen a este estudio suponen un paso más allá: "No nos
centramos en las direcciones más probables sino que analizamos todas las
posibles conexiones".
Fibras que se superponen
La utilización del DSI resultó básica
para poder identificar la superposición de las fibras nerviosas. "Hasta ahora,
no se había tenido en cuenta que se montan las unas sobre las otras y es algo
omnipresente en el cerebro. Eso sí, el que ahora podamos verlas no supone el
final de la historia sino solamente el principio. Tenemos que aceptar que, en
realidad, se sabe muy poco de las conexiones cerebrales", aclara este profesor
de Radiología en la Escuela Médica Harvard.
El lugar en el que se aloja nuestra
mente está compuesto por cerca de "400 pequeños órganos neuronales, cada
uno conectado con otros cinco o seis". Por tanto, todas estas
conexiones dentro de un órgano de tamaño relativamente reducido no pueden sino
entrecruzarse. "En una misma área puedes encontrarte con 10 estructuras que
ocupan el mismo nivel".
Por eso, diseccionar el cerebro y
mirarlo bajo un microscopio tampoco es una solución realista ni eficaz.
"Necesitaríamos una verdadera tecnología en tres dimensiones, hacer cortes de
todas las zonas y luego ser capaces de manejar la ingente cantidad de
información que obtendríamos", apunta Wedeen. Bajo los escáneres del Centro de
Imagen Biomédica Martinos, dependiente del mencionado centro sanitario de
Massachusetts, ha pasado toda clase de especies animales:
ratas, ratones, gatos, macacos y también humanos. "Hemos detectado que los
roedores presentan un desarrollo muy importante de las áreas relacionadas con la
memoria y el olfato. Algo similar ocurre con los gatos, pero en las
localizaciones asociadas con el movimiento".
Ensayos con humanos
Si la técnica está en sus inicios, lo
está aún más en cuanto a conocimiento del cerebro de las personas. "Por ejemplo,
si queremos escanear el cerebro de un cadáver de mono podemos hacerlo durante 48
horas seguidas y analizar la información resultante". Sin embargo, esto no puede
llevarse a cabo con las personas. El equipo de Massachusetts ha estudiado a
algunos humanos, pero sin que el paciente superase los 50 minutos bajo el
escáner. A la hora de analizar el cerebro de un fallecido, aunque en ese caso no
tendría por qué haber límite de tiempo, las máquinas actuales no están
suficientemente preparadas para estudiar eficazmente una masa tan
grande.
"Esperamos que la técnica mejore en los
próximos cinco ó 10 años, cuando se construyan escáneres especialmente
indicados para estas técnicas de difusión. La tractografía va a suponer
una revolución, igual que ocurrió cuando comenzó a utilizarse la resonancia
magnética tradicional", asegura Van Wedeen.
Además de saber más sobre los
trastornos relacionados con las conexiones neuronales (esquizofrenia o
esclerosis múltiple, por ejemplo), este tipo de 'mapas cerebrales' pueden tener
infinitas aplicaciones: conocer cómo se desarrolla la mente con
la edad; identificar las diferencias entre un zurdo y un diestro; establecer el
daño provocado por un trauma cerebral; o, trazar las zonas afectadas por un
tumor y ayudar en la cirugía.
"Nos encontramos ante un nivel de
detalle estructural que nunca se había pensado. Lo principal es que nos permite
detectar las 'huellas dactilares' de las distintas formas cerebrales y
visualizar su bella y característica geometría. Cada conexión es un órgano con
una estructura que expresa su función", concluye el científico.
Fuente: elmundo.es, 31 de Octubre de 2008
-"Phoenix" en estado latente
Phoenix se comunicó con la sonda MRO el
jueves. La nave estaba en modo de precaución debido a la baja energía de la que
dispone. Los ingenieros de la misión están haciendo análisis para volver a poner
a los trabajos científicos. El lander no respondió a los intentos de
comunicación de un orbitador el miércoles por la noche y el jueves por la
mañana. El estado en el que entró sólo le permitía mantener comunicaciones
en un intervalo de tiempo de dos horas al día, después del cual "Phoenix" vuelve
a su estado de latencia. Recordemos que el lander ha estado funcionando dos
meses más de lo que inicialmente se había proyectado. Las tormentas de
arena y el descenso de las horas de sol ha hecho que las baterías no tengan
mucha energía.
Imagen de la zona en la "Phoenix" se encuentra
Fuente: NASA, 30 de Octubre de 2008
-Un estudio revela el legado de los fenicios en el
Mediterráneo
Uno de cada 17 habitantes de la región del
Mediterráneo tiene probablemente raíces fenicias, según revela una
investigación genética publicada hoy por la revista
American Journal of Human
Genetics". Se trata de una investigación que forma parte del
Proyecto Genographic, cuyos responsables aseguran que esta civilización no
sólo legó al mundo su alfabeto, sino también muchos de sus genes.
Chris Tyler-Smith, del Instituto
Wellcome Trust Sanger y
científico de Genographic, ha indicado que al comenzar el estudio no se sabía
nada de la genética de los fenicios. "Todo lo que teníamos para guiarnos era
la historia: sabíamos dónde se habían establecido y adónde no habían llegado".
Sin embargo, con la ayuda de la genética moderna, se ha logrado ubicar a los
descendientes de "ese pueblo extinguido".
Considerados los primeros "capitalistas globales", los fenicios controlaron
durante casi un milenio el comercio en toda la región del Mediterráneo,
incluyendo España y el norte de África, donde fundaron Cartago, que fue su
centro de operaciones. Su apogeo duró hasta el siglo II A.C., cuando cayeron
bajo el imperio romano. En los siglos siguientes mucho de lo que quedó de ese
pueblo se perdió o fue destruido.
Descendientes directos
El nuevo método analítico ha buscado características genéticas en hombres
modernos a través del cromosoma Y que se presenta exclusivamente en los
varones. Esas características han resultado ser más comunes en regiones que
fueron fenicias que en otras cercanas donde esos comerciantes de la antigüedad
nunca vivieron.
El estudio ha incluido a habitantes desde las costas del Líbano hasta las
de España, incluyendo las de Túnez y las riberas italianas. Daniel Platt, del
Centro IBM de Biología Informática en el Centro T. J. Watson de
Investigaciones, señala que los resultados muestran que los asentamientos
fenicios están marcados por una característica genética diferente a la que
hubiesen dejado otros grupos.
La consideración de las características en su conjunto sugiere que los
fenicios contribuyeron al menos en un 6% a las poblaciones modernas, con lo
que un niño en cada escuela, desde Chipre a Túnez, puede ser un descendiente
directo de los comerciantes fenicios, indica el estudio. "Esto demuestra que
estos asentamientos, algunos de los cuales sobrevivieron centenares de años,
dejaron un legado genético que persiste en los tiempos modernos", señalan los
científicos.
Según Pierre Zallua, investigador de Genographic para Oriente Medio y el
Norte de África, el estudio saca a la luz "una magnífica parte del legado de
nuestra población que había sido enterrado u olvidado". Es "un baluarte clave
contra la incomprensión o los conceptos equivocados de nuestra historia", ha
añadido.
Fuente: EFE, 30 de Octubre de 2008
-"El hombre de los hielos" perteneció a
un grupo genético humano que ha desaparecido
Ötzi, el 'hombre de los hielos', que vivió en Europa hace
unos 5.000 años, no tendría hoy parientes en el continente porque perteneció
a un sublinaje humano que ha desaparecido, o que es muy extraño en la
actualidad. Un equipo de científicos italianos y británicos ha logrado
secuenciar completamente su genoma mitocondrial, que es el ADN que sólo
se transmite por vía materna, y ha descubierto que su rama genética acabó
extinguiéndose con el paso del tiempo, un fenómeno que, por otro lado, no es
excepcional en caso de linajes muy minoritarios.
Los investigadadores han publicado setos resultados en la
revista científica 'Current Biology'. La historia que rodea a Ötzi,
probablemente la momia natural más estudiada del mundo, aumenta el interés
por todo lo que tiene que ver con su vida. Fue localizada por dos turistas
alemanes en 1991 en los Alpes italianos, a pocos metros de la frontera con
Austria. Los científicos determinaron desde un primer momento que había sido
el frío perenne en esa zona el factor que hizo posible la
conservación de todos los tejidos finos de su organismo e incluso de sus
órganos internos. Todo ello ha sido exhaustivamente analizado.
Ya
en el año 2000, los investigadores descongelaron parte de sus intestinos
para secuenciar un fragmento de su ADN mitocondrial (mt), que determinó que
pertenecía a un linaje conocido como el haplogrupo K, al que pertenecen el
8% de los originarios de Europa. Ahora se ha averiguado que el hombre de los
hielos era de una de las ramas del sublinaje K1 (también existe el K2). «La
sorpresa fue descubrir que no pertenecía a ninguna de las tres
variantes genéticas conocidas del K1», ha señalado el profesor
italiano Franco Rollo, de la Univesidad de Camerino. Su equipo ha bautizado
esta variante genética como la rama Ötzi.
Rollo deja claro que «eso no significa que este individuo, que
murió asesinado por una flecha, tuviera un ADN que le hacía
diferente, pero sí que en el pasado hubo un grupo de hombres y mujeres que
tenían su ADN mitocondrial y que ahora ese grupo o ha desaparecido o es muy
raro».
Carles Lalueza, investigador español del Instituto de Investigación sobre
Evolución Biológica (CSIC), «no resulta sorprendente que un linaje humano
desaparezca porque para ello basta que una mujer no tenga hijas, así que es
un asunto en el que interviene mucho el azar».
El 'hombre de los hielos', en el laboratorio donde se ha analizado su ADN.
Fuente: elmundo.es, 30 de Octubre de 2008
-Donde nace el odio en el cerebro
Científicos británicos descubrieron el mecanismo del
cerebro humano que produce que odiemos a alguien. Y la zona donde se
inicia esta poderosa emoción está íntimamente relacionada al área cerebral donde
se produce el amor, afirmó la investigación llevada a cabo en la Universidad de
Londres. El estudio -publicado en la revista de la Biblioteca Pública de
Ciencia, PLoS One- analizó a varios voluntarios que miraran fotografías
de alguien a quien odiaban. Descubrieron que se activaban una serie de
circuitos cerebrales en un área del cerebro que comparte ciertas estructuras
asociadas al amor romántico.
El odio comparte estructuras cerebrales que
también se activan con el amor.
El circuito del odio está en la corteza
(F), el putamen (P) y la ínsula (I).
Pasión "interesante"
"El odio a menudo es considerado una pasión malvada que
debe ser reprimida, controlada y erradicada" explicó el profesor Semir Zeki, del
Laboratorio Wellcome de Neurobiología de la Universidad de Londres y quien
dirigió el estudio.
"Pero para los neurobiólogos el odio es
una pasión tan interesante como el amor".
"Porque igual que el amor, el odio a
menudo parece ser irracional y puede conducir al individuo a conductas heroicas
o malvadas. ¿Cómo es posible que dos sentimientos tan opuestos conduzcan al
mismo comportamiento?".
Esa es la pregunta que se planteó el
profesor Zeki al iniciar este estudio, que es la continuación de otras
investigaciones previas en su laboratorio sobre los mecanismos cerebrales del
amor romántico y el amor maternal. En el nuevo estudio Zeki y su equipo se
concentraron específicamente en el odio que siente el ser humano hacia otro
individuo. En la investigación participaron 17 voluntarios, tanto hombres
como mujeres, elegidos porque dijeron sentir profundo odio hacia otra persona.
Los científicos llevaron a cabo escáneres cerebrales mientras los participantes
miraban tanto la fotografía de la persona odiada, como fotografías de rostros
"neutrales" que les eran familiares.
"Cuando miraban el rostro de la persona
odiada -señalaron los autores- se produjo actividad en zonas cerebrales que
puede ser consideradas el "circuito del odio".
Este circuito del odio incluye
estructuras en la corteza y la subcorteza cerebral y tiene componentes que
también se activan cuando se genera una conducta agresiva. El cerebro
funciona traduciendo estas señales de los circuitos cerebrales en acciones, como
la planeación de movimientos del cuerpo. Y el circuito del odio también
está ubicado en una parte de la corteza frontal que se cree es muy importante en
la predicción de las acciones de los demás.
Quizás, explican los científicos, esto
es lo que nos hace actuar cuando nos enfrentamos a una persona odiada.
Odio crítico
Pero lo que más sorprendió a los
investigadores fue descubrir que el circuito del odio también produce
actividad en dos estructuras de la subcorteza cerebral: el putamen y la
ínsula.
Según el profesor Zeki "es muy
interesante que el putamen y la ínsula también se activan con el amor
romántico".
"Pero no es tan sorprendente
considerando que el putamen también podría estar involucrado en actos
agresivos en un contexto romántico, como en situaciones donde un rival
presenta una amenaza".
Los investigadores también
descubrieron una diferencia importante en la actividad cortical que producen
tanto el odio como el amor.
"Mientras que en el amor grandes
partes de la corteza asociadas al juicio y razonamiento se desactivan, con el
odio sólo se desactiva una pequeña zona", explicaron los autores.
Los investigadores creen que esto es
sorprendente si consideramos que el odio también es, como el amor, una pasión
que nos consume totalmente. Pero mientras que en el amor romántico el
amante pocas veces es crítico o juzga a la persona amada, en el contexto del
odio, el que odia utiliza su criterio y es calculador para hacer daño, herir o
vengarse de la persona odiada. Otra diferencia es que el amor romántico
está dirigido a una sola persona, pero el odio puede ser experimentado contra
varios individuos o grupos, como en el caso del odio racial, político o
sexual. El profesor Zaki y su equipo planean ahora centrar sus
investigaciones en estas diferentes variedades del odio.
Fuente: BBC Mundo, 29 de Octubre de
2008
-La sonda MRO detecta nuevos indicios de
minerales en Marte
Imagen captada por la 'Mars Reconnaisance Oribiter' de la región de Marte
donde se han hallado
los nuevos minerales. (Foto: NASA/AP)
La sonda
Mars Reconnaissance
Orbiter ha descubierto sobre Marte nuevos tipos de minerales que
sugieren la presencia de agua en el planeta durante mucho más tiempo de lo
que se creía.
Según ha informado el Laboratorio de Propulsión a Chorro
(JPL, por sus siglas en
inglés) de la agencia espacial estadounidense, esos minerales también
indican la importancia que tuvo el líquido en la topografía marciana así
como en la posible creación de vida. Las imágenes captadas por el
espectrómetro de la sonda de esos yacimientos demuestran la presencia de
silicio hidratado, más conocido como opal, los cuales son
los indicios fundamentales de la presencia de agua en el antiguo Marte.
"Este es un importante descubrimiento porque extiende
el tiempo en que hubo agua líquida en Marte y (señala) los lugares
donde pudo haber respaldado la vida", indicó Scott Murchie, investigador a cargo
del espectrómetro en el Laboratorio de Ciencias Aplicadas de la Universidad
Johns Hopkins.
"La identificación del silicio opalino nos revela que es
posible que haya habido agua hasta hace unos 2.000 millones de años",
indicó. Hasta ahora, el orbitador del planeta sólo había detectado la presencia
de filosilicatos y sulfatos hidratados que se formaron hace más de 3.500
millones de años.
Según el comunicado de JPL, los nuevos minerales detectados
se formaron cuando el agua alteró materiales creados por la actividad
volcánica o por el impacto de un meteorito.
"Hemos visto numerosos promontorios de materiales opalinos en
capas delgadas que se extienden sobre largas distancias en
torno a los bordes del Valles Marineris así como dentro de esa misma quebrada",
indicó Ralph Milliken, científico de JPL.
En algunos lugares las formaciones de minerales opalinos se
encuentran en el cauce seco o alrededor de lo que aparentemente fueron
corrientes similares a un río. Según indicó el comunicado de JPL, eso
indica que hubo agua en la superficie de Marte durante mucho más tiempo que el
líquido que ayudó en la formación de los minerales opalinos.
"Lo más importante es que mientras más tiempo haya existido el agua en Marte
más tiempo hubo para la presencia de vida", indicó.
Fuente: elmundo.es, 29 de Octubre de 2008
-El hombre necesitará dos planetas si mantiene el gasto de
recursos naturales
La Tierra ha perdido en poco más de un cuarto de siglo casi
la tercera parte de su riqueza biológica y recursos, y al ritmo actual la
Humanidad necesitará dos planetas en 2030 para mantener su estilo de vida,
advirtió hoy el Fondo Mundial de la Naturaleza (WWF).
Y es que la demanda de la Humanidad excede en cerca de un 30
por ciento la capacidad regeneradora de la Tierra, señaló el Informe Planeta
Vivo 2008, que difunde esta organización ecologista cada dos años acerca de la
situación ambiental de los ecosistemas del planeta.
"El mundo está luchando actualmente con las consecuencias de
haber sobrevalorado sus activos financieros. Pero una crisis mucho más grave
sigue adelante: un desastre ecológico causado por infravalorar nuestros recursos
medioambientales, que son la base de toda vida y prosperidad", señaló el
director general de WWF, James Leape, al comentar el informe.
El estudio muestra que más de las tres cuartas partes de la
población mundial vive actualmente en países que son "deudores ecológicos", pues
el consumo nacional ha superado a su capacidad biológica de regeneración.
"La mayoría de nosotros seguimos alimentando nuestro estilo
de vida y nuestro crecimiento económico extrayendo cada vez más el capital
ecológico de otras partes del mundo", señaló Leape.
Demanda creciente
"Si las demandas en nuestro planeta siguen creciendo al mismo
ritmo, para mediados de los años 30 necesitaremos el equivalente a dos planetas
para mantener nuestro estilo de vida", agregó.
El informe, que se elabora cada dos años desde 1998, señala
que el Índice Planeta Vivo (IPV) ha descendido casi un 30 por ciento desde 1970,
es decir, que se han reducido en esa proporción unas 5.000 poblaciones naturales
de unas 1.686 especies, una tasa superior a la del 25 por ciento del informe de
2006.
Estas pérdidas se deben, en primer lugar a la deforestación y
la reconversión de tierras en los trópicos (un 50 por ciento de descenso), pero
también a factores como la polución, la sobrepesca y el impacto de diques y del
cambio climático.
"Estamos actuando ecológicamente como lo han hecho las
instituciones financieras económicamente, buscando la gratificación inmediata
sin mirar las consecuencias", lamentó el codirector de la Sociedad Zoológica de
Londres, Jonathan Loh, una de las instituciones que ha contribuido al informe.
Según el estudio, que ha medido la "huella ecológica de la
humanidad", o el deterioro que las actividades humanas producen en los sistemas
naturales, éstas han utilizado una media de 2,7 hectáreas globales por persona,
mientras que la biocapacidad de los sistemas -o su capacidad de absorber el
impacto- sólo llega a 2,1 hectáreas de media por persona.
Estados Unidos y China, las mayores huellas
Estados Unidos y China cuentan con las mayores huellas
ecológicas nacionales, cada una un 21 por ciento de la biocapacidad global, pero
ambos países "consumen" una parte mucho mayor de los recursos. Así, cada
ciudadano de EEUU requiere una media de 9,4 hectáreas globales, mientras que los
chinos usan una media de 2,1 hectáreas. Ocho naciones -EEUU, Brasil, Rusia,
China, India, Canadá, Argentina y Australia- contienen más de la mitad de la
biocapacidad global. Pero tres de ellos -EEUU, China e India- debido a sus
poblaciones y a sus hábitos de consumo son "deudores ecológicos", con huellas
ecológicas superiores a sus capacidades, pues la exceden, respectivamente, 1,8
veces, 2,3 veces, y 2,2 veces.
Estos datos contrastan con un país como Congo, con una
biocapacidad de casi 14 hectáreas globales por persona y que sólo utiliza 0,5
por persona, pero que afronta un futuro de degradación medioambiental por la
deforestación y las crecientes demandas de una población en aumento y presiones
exportadoras.
Fuente: EFE, 29 de Octubre de 2008
--Una ONG
crea una campaña para que Al Gore le ayude a paliar la desnutrición infantil
La organización no gubernamental
Acción contra el Hambre (ACF, por sus siglas en francés)) ha presentado una
campaña, llamada No Hunger, para alertar sobre la desnutrición aguda.
La campaña tiene como objetivo hacer una
petición a nivel mundial a Al Gore, premio Nobel de la Paz en 2007, para que
protagonice un documental y así utilice todo su poder mediático para llamar la
atención sobre este tema. La campaña, denominada No Hunger y desarrollada
por la agencia Shackleton, pretende conseguir que se haga una petición a nivel
mundial para que Al Gore protagonice una película-documental sobre la
desnutrición aguda infantil bajo este mismo título. La ONG Acción contra el
Hambre ha decidido que,
tras el éxito de
Una verdad incómoda, el
documental sobre el cambio climático que logró alertar al mundo sobre este grave
problema y que protagonizó el vicepresidente de Clinton,
se puede utilizar su tirón mediático para
concienciar a la población mundial sobre otro gran problema como es la
desnutrición infantil.
Movilización internacional
"Para lograr que se realice la película es necesaria la
movilización de toda la sociedad civil", por eso la campaña se va a lanzar
progresivamente en todos los países donde la organización tiene sede: Estados
Unidos, Inglaterra, Francia y Canadá.
A través de su eje central, la página web
www.pideseloaalgore.com, además de encontrar información sobre la
desnutrición aguda y su solución, cualquiera podrá dar su apoyo y firmar para
pedir que el documental se lleve a cabo.
"Con esta iniciativa queremos que todo el mundo sepa que el
fin de la desnutrición aguda ya no es una utopía, sino una realidad que depende
de todos y cada uno de nosotros", afirma Olivier Longue, director general de
Acción contra el Hambre
La desnutrición aguda es una enfermedad devastadora. En el
mundo, 55 millones de niños menores de 5 años
sufren desnutrición global y 19 millones la padecen de forma aguda severa,
el estadio más grave. De ellos, 5 millones no superan la enfermedad cada año,
según los datos que maneja ACF. Tras muchos años de trabajo de las ONGs para
afrontar este problema, se han desarrollado tratamientos nutricionales que
logran recuperar a un niño desnutrido en apenas un mes. La clave de todo es el
RUTF (Ready to Use Therapeutic Food), un
alimento terapéutico a base de pasta de cacahuete, con un alto contenido
energético, que puede administrarse desde casa, ya que no necesita cocción y
soporta condiciones y temperaturas extremas.
"Con este tratamiento, que tiene un coste total de 40 euros, logramos curar
al 80% de los niños severamente desnutridos que atendemos. Los resultados son
muy positivos y su eficacia está ya más que demostrada" explica Amador Gómez,
director técnico de Acción contra el Hambre.
Para paliar la desnutrición en los 19 millones de niños que la sufren al año
haría falta una inversión de 3.000 millones de
euros, financiación que, organizada por el conjunto de los países
industrializados sería económicamente factible, según la campaña.
Fuente: publico.es, 28 de Octubre de 2008
-El tiranosaurio tenía el mejor olfato del
Jurásico
El Tyrannosaurus rex fue el dinosaurio con mejor
olfato entre todos sus congéneres carnívoros, un descubrimiento que relega su
reputación de carroñero a un segundo plano. Es la conclusión a la que han
llegado los investigadores Darla Zelenitsky de la Universidad de Calgary
(Canadá) y François Therrien del Museo Royal Tyrrell en Alberta (Canadá) tras
determinar el volumen y la forma del bulbo olfativo de una gran variedad de
dinosaurios bípedos (los terópodos) que habitaron la Tierra en el Jurásico,
hace entre 200 y 145 millones de años. Además del T. rex, entre los
terópodos examinados se han incluido raptores, ornitomimosaurios (los lagartos
imitadores de aves, parecidos a las avestruces) y el primitivo pájaro
Archaeopteryx, que evolucionó a partir de los terópodos carnívoros de
menor tamaño.
La investigadora de la Universidad de Calgary,
Darla Zelenitsky,
posa con el cráneo de un 'Tyrannosaurus
rex'.
Análisis craneal
El bulbo olfativo es la parte del cerebro asociada
con el sentido del olfato -se encuentra, de hecho, al final de las fosas
nasales-. Naturalmente, el cerebro no se conserva pero, gracias a la
tecnología TAC (tomografía axial computarizada), hoy es posible analizar el
cráneo -si está en buen estado- e inferir cómo era. Zelenitsky, autora
principal del estudio, explica que la fama de carroñero del T. rex proviene de
su agudo olfato rastreador, algo que no se corresponde con lo que puede
observarse en los animales actuales.
"Los bulbos olfatorios de gran tamaño se hallan en
pájaros y mamíferos actuales que dependen en gran parte de su olfato para
encontrar carne, en animales que son activos durante la noche y en aquellos
que patrullan áreas extensas", aclara la paleontóloga.
Olfato para cazar
Así que el rey de los
dinosaurios carnívoros debió usar su aguzada nariz para dar con sus
presas, aunque no por ello habría renunciado a darse un banquete de carne
muerta gratis. Además de estas pistas sobre la biología y el comportamiento
del Tyrannosaurus, el estudio ha permitido saber que el Archaeopteryx, el
ancestro de los pájaros modernos, tenía un bulbo olfativo de un tamaño
comparable al resto de terópodos y, por lo tanto, también un buen olfato. Una
característica que no conservan los pájaros modernos, que en general ven muy
bien pero tienen un sentido olfativo muy pobre. Este descubrimiento, dice
Therrien, reconduce la idea de que el olfato en los pájaros perdió importancia
respecto a la vista en los primeros ancestros, ya que se tuvo que producir "en
algún punto de la evolución de los pájaros más avanzada que el Archaeopteryx".
El estudio lo publica hoy la revista británica Proceedings of the Royal
Society B.
Fuente: adn.es, 28 de Octubre
de 2008
-Un cambio climático similar al financiero ocurrirá si no se actúa ya
El economista y académico británico Nicholas Stern
auguró hoy en Hong Kong una situación climática similar a la actual crisis
financiera mundial si los mandatarios de China y Estados Unidos,
principalmente, no acuerdan liderar el descenso de emisiones de dióxido de
carbono (CO2).
"Es necesario aprender que ser negligente con los riesgos
genera zarpazos, y cuanto más negligente se es mayor es el zarpazo que
recibimos, como ha ocurrido con la actual crisis financiera", dijo el
académico, autor del Informe Stern sobre la economía del cambio
climático (2006) durante una conferencia en la Universidad de Hong
Kong.
El británico, que subrayó la necesidad de que haya reguladores de CO2 como
los hay financieros, subrayó que "controlar las emisiones con antelación será
siempre más barato que hacerlo precipitadamente urgidos por la necesidad", o
que adaptarse al cambio climático.
Confianza en el sucesor de Bush
En un nuevo paralelismo con la actual situación financiera, el economista
afirmó que "se ha puesto dinero en los bancos no porque guste, sino porque era
crucial hacerlo", de modo que con el medioambiente hay que actuar de forma
similar.
Stern se mostró positivo y confió en que el sucesor de George W. Bush, ya
sea John McCain o Barack Obama, ponga más interés en el problema del cambio
climático, que, de no actuar con celeridad, "redibujará la actual geografía" y
traerá, entre otros, "grandes movimientos de población y los consiguientes
grandes conflictos que éstos pueden generar".
Fuente: EFE, 27 de Octubre de 2008
-Navegar por internet mejora el funcionamiento del cerebro
Internet está cambiando no sólo cómo vive la gente, sino también cómo
funciona el cerebro, y un neurocientífico asegura que se trata de un cambio
evolutivo que pondrá los conocimientos en tecnología al frente del nuevo orden
social.
Gary Small, un neurocientífico de la UCLA en California que está
especializado en el funcionamiento del cerebro, ha descubierto mediante estudios
que buscar en Internet y mandar mensajes de texto ha hecho a los
cerebros más avezados a la hora de filtrar información y tomar decisiones
rápidas. Small, en cualquier caso, alega que la gente que estará al
frente en la próxima generación será la que tenga una mezcla de
habilidades tecnológicas y sociales
"Estamos viendo un cambio evolutivo. La gente en la próxima generación que
realmente va a destacar son los que dominan la tecnología y también las
habilidades del cara a cara", dijo Small. "Sabrán cuándo la mejor respuesta a un
email o a un mensaje instantáneo es hablar en lugar de sentarse y seguir
enviando correos electrónicos".
En su recién lanzado cuarto libro iCerebro: Sobrevivir a la alteración
tecnológica de la mente moderna, Small se fija en cómo la tecnología ha
alterado cómo se desarrollan, funcionan e interpretan información las mentes
jóvenes. Small, director del Centro de Investigación de Memoria y el
Envejecimiento en el Instituto Semel para Neurociencia y el Comportamiento
Humano y el Centro sobre Envejecimiento en la UCLA, dijo que el cerebro
era muy sensible a los cambios en el entorno como los que traía la tecnología.
Señaló que un estudio de adultos mientras utilizaban Internet descubrió que
los internautas experimentados duplicaban la actividad en áreas del
cerebro que controlan la toma de decisiones y el razonamiento complejo
que los novatos.
"El cerebro está muy especializado en su sistema de circuitos y si repites
tareas mentales una y otra vez reforzará ciertos circuitos neurales e ignorará
otros", declaró Small.
"Estamos cambiando el entorno. El joven medio pasa ahora nueve horas al día
exponiendo su cerebro a la tecnología. La evolución es una mejora de un momento
a otro y lo que vemos es cómo la tecnología afecta a nuestra evolución".
Fuente: publico.es, 27 de Octubre de 2008
-El primer dinosaurio vegetariano
El examen de un pequeño cráneo fósil de un joven heterodontosaurio del
Jurásico explica cómo y cuándo los dinosaurios abandonaron la dieta carnívora y
empezaron a comer plantas. El cráneo fósil del animal, que vivió durante el
Jurásico temprano -hace unos 190 millones de años- en el territorio que hoy
ocupa Sudáfrica, fue encontrado durante las excavaciones realizadas en los años
60 en ese país, y está en el Museo Sudafricano Iziko, en Ciudad del Cabo. Tiene
sólo cuatro centímetros y medio de largo, y debió pertenecer a un
heterodontosaurio muy joven de no más de 200 gramos -los adultos eran del tamaño
de un pavo de unos dos kilos y medio-.
Laura
Porro, estudiante de postdoctorado de la Universidad de Chicago,
posa
con un cráneo de heterodontosaurio.
Cambio de dieta
Explica la doctora Laura Porro, investigadora de la Universidad de Chicago (EEUU)
y coautora del estudio, que probablemente los ancestros de todos los dinosaurios
eran carnívoros y que los heterodontosaurios, que se encuentran entre los
primeros dinosaurios adaptados al consumo de plantas, podrían representar la
transición entre una y otra dieta. Los heterodontosaurios pertenecen al gran
grupo de dinosaurios herbívoros, los Ornistisquios, pero su extraña composición
de dientes -largos caninos para desgarrar y molares para triturar- había
suscitado entre los paleontólogos cierta discusión acerca de lo que comían.
Algunos científicos pensaban que incluían pequeños animales en su dieta
normalmente vegetariana, mientras que otros sostenían que comían sólo plantas y
que los colmillos eran sólo un rasgo que distinguía a los machos -un dimorfismo
sexual-, como ocurre en los jabalíes. El estudio que publica hoy la revista "Journal
of Vertebrate Paleontology" y que desvela la presencia de dientes caninos en la
mandíbula del recién hallado joven heterodontosaurio, apunta hacia la primera
hipótesis.
Según el doctor Richard Butler, autor principal del estudio e investigador
del Museo de Historia Natural en Londres, la presencia de estas piezas en un
estadio del crecimiento tan temprano "sugiere que no se trata de un dimorfismo
sexual, porque estos caracteres aparecen más tarde".
Los dientes, para defenderse
Los científicos sospechan que los heterodontosaurios usaban los caninos,
largos como colmillos, para defenderse de los depredadores, o para cazar algún
insecto o algún pequeño mamífero o reptil. Es decir, eran seguramente omnívoros
ocasionales. Lo sorprendente del estudio, y que abre una nueva incógnita, es que
no han encontrado ni rastro de las piezas de reemplazo. Así que, a diferencia de
la mayor parte de los reptiles, los heterodontosaurios no debían cambiar
constantemente los dientes a lo largo de sus vidas.
Al parecer, se parecían más a la mayoría de mamíferos que, como nosotros,
cambiamos los dientes sólo una vez. Sólo que debían aparecer más tarde, durante
el crecimiento, apuntan los autores. Con un desarrollo de la dentición más
lento, explican, se consigue que las piezas dentales encajen mejor las unas con
las otras y el mordisco sea más preciso. En el estudio también han participado
investigadores de la Universidad de Cambridge (Reino Unido).
Fuente: adn.es, 25 de Octubre de 2008
-El microscopio más avanzado
El instrumento acaba de ser instalado en el nuevo Centro
Canadiense para Microscopía Electrónica de la Universidad de McMaster.
Según sus creadores, el Titán 80-300 Cubed tiene una resolución equivalente a la
del telescopio espacial Hubble. Pero en lugar de ver a las estrellas y los
astros, escrutará átomos en la Tierra.
El
Titán está en cuatro especialmente diseñado para
evitar mínimas vibraciones.
"Somos la primera universidad del mundo que cuenta con un
microscopio de este alto calibre" afirmó Gianluigi Botton, director del Centro
Canadiense.
"Con este microscopio podremos ahora identificar fácilmente
átomos, medir su estado químico e incluso analizar los electrones que los unen",
señaló.
Alta sensibilidad
El Titán 80-300 Cubed fue instalado en un cuarto estable
especialmente diseñado, capaz de soportar vibraciones ultrabajas, los sonidos
más débiles, y fluctuaciones mínimas de temperatura. Debido a que este
microscopio es el último límite de lo que la física nos permite ver -expresó
Botton- incluso la respiración cerca del aparato puede afectar los resultados".
El instrumento será operado desde un cuarto separado para asegurar que los
resultados son de la mejor calidad. Los científicos creen que la capacidad
del Titán para analizar la estructura de materiales sólidos a nivel atómico
tendrá un impacto en el desarrollo de nuevas tecnologías, desde biomedicina
hasta energía. En principio, afirmaron los investigadores, el instrumento
podrá examinar a nivel "nano" cientos de productos que usamos en la vida diaria.
El objetivo será entender, manipular y mejorar su eficiencia. Por ejemplo se le
podrá usar para producir luz más eficiente y mejores celdas solares.
Investigación de materiales
Un ejemplo es la foto de la derecha, que muestra lo que se ve en la lente del
microscopio con una muestra de aleación de aluminio como la utilizada en las
latas de bebidas.
Lo que se observa es una ampliación de 14 millones de veces, la escala es
de un nanómetro, o el equivalente de la milmillonésima parte de un cabello
humano. Se espera que el Titán sirva también para estudiar proteínas y
materiales para suministro de fármacos para combatir tumores cancerosos de
manera más precisa. Y también para crear materiales más ligeros y
resistentes e instrumentos de almacenamiento de memoria con mayor densidad.
Tal como señalan los expertos, el campo de la microscopía está avanzando a un
ritmo acelerado. Así que quizás no será de extrañar que en los próximos
meses veamos la presentación de un aparato más avanzado que éste.
El Titán fue construido en Holanda por la Compañía FEI con un costo de
US$15 millones. Y el proyecto fue financiado por la Fundación Canadiense
para la Innovación, el Ministerio de Investigación e Innovación de Ontario, la
compañía FEI y la Universidad McMaster.
Fuente: BBC Mundo, 24 de Octubre de 2008
-El nuevo coche de la
NASA: grandes distancias sin incómodos trajes
La NASA ha revelado un nuevo vehículo lunar que busca
transformar la exploración espacial, al permitir que los astronautas recorran
grandes distancias sin incómodos trajes cuando regresen a la Luna en el 2020.
Un equipo de científicos está probando el vehículo de exploración
presurizado, que se parece a un pequeño coche futurista de
recreación montado en seis pares de ruedas, 12 en total, en un
rocoso sector del norte de Arizona, escogido por su similitud con la superficie
de la Luna.
"Esta es la próxima generación de exploración lunar", dijo Doug Craig,
director de programa de la NASA, mientras un astronauta entraba al vehículo para
dar una vuelta sobre un campo de lava rodeado por montañas escarpadas.
El explorador funciona a batería y viaja a una velocidad de hasta 10
kilómetros por hora. Es parte de varios sistemas y equipos que están siendo
desarrollados por la agencia espacial para su regreso programado a la Luna
durante la próxima década. La NASA espera construir una base
permanente ocupada por personas en la superficie de la Luna, antes de sus
siguientes misiones de exploración a Marte. El nuevo explorador presurizado es
la continuación de vehículos utilizados por el programa Apolo
de la década de 1970, cuando los astronautas en trajes espaciales usaban
vehículos que parecían no tener carrocería para realizar pequeños recorridos
para reunir rocas.
El nuevo prototipo tiene una cabina presurizada y está
equipado con asientos de cuero y literas. Permite a una
tripulación de dos astronautas realizar viajes de exploración prolongados de
hasta dos semanas, cubriendo distancias de hasta 1.000 kilómetros, dijo Craig.
La tripulación no usará trajes espaciales mientras esté en el vehículo, que
está equipado con grandes ventanas que ofrecen una amplia vista
del terreno, pero para salir tendrán que ponerse los trajes en escotillas
especiales, dijeron funcionarios.
"Sólo usas el traje espacial cuando necesitas estar en la superficie para
recoger rocas", dijo el astronauta Mike Gernhardt, un veterano que ha
participado en cuatro misiones del transbordador y en una caminata espacial,
mientras llevó a periodistas a dar un recorrido en el vehículo.
Imagen del prototipo del nuevo vehículo
lunar. (Foto: REUTERS)
"Así que todo el tiempo que estás realizando observaciones, puedes estar
dentro de un ambiente presurizado con una cómoda y cálida camiseta
en lugar de en un traje espacial", agregó".
Además de su mayor rango, Gernhardt dijo que el vehículo es mucho más seguro
y más cómodo que exploradores anteriores que fueron llevados a la luna durante
el programa Apolo.
"Realmente permite mucha más exploración, mucha más productividad, y
francamente es mucho más seguro que lo que teníamos cuando fuimos en el programa
Apolo", afirmó. "Este es el futuro", concluyó.
Fuente: elmundo.es, 24 de Octubre de 2008
-No hay agua en un cráter de la Luna
La sonda japonesa
Kaguya
(Selene)
ha vertido un jarro de agua fría sobre las esperanzas de la exploración lunar.
Sólo que en este jarro lo que falta es, precisamente, el agua. No existen
depósitos superficiales de hielo en el cráter Shackleton del polo sur de la
Luna, un enclave en sombra permanente donde los científicos confiaban en
encontrar una fuente de recursos hídricos que pudiese abastecer a los futuros
exploradores del satélite. Irónicamente, el cráter ostenta el nombre del
explorador irlandés de la Antártida que protagonizó una epopeya de supervivencia
entre los hielos.
La posible presencia de hielo en los polos lunares se
planteó en 1998, cuando la sonda de la NASA
Lunar Prospector detectó altas concentraciones de hidrógeno en aquellas
regiones gélidas y oscuras. Según un trabajo publicado entonces en
Science, los modelos más plausibles
sugerían que entre un 20% y un 50% del vapor de agua depositado en la Luna por
cometas y asteroides podía permanecer allí en forma de hielo durante miles de
millones de años, gracias a las bajas temperaturas.
Uno de los mejores candidatos para albergar estos
depósitos es el cráter Shackleton, en el polo sur, más umbrío que el norte. Su
pared circular de 10,5 kilómetros de radio encierra un lecho a gran profundidad,
4.200 metros, en sombra permanente y a una temperatura máxima estimada de -185ºC.
Luz de verano
Los responsables de la misión nipona, lanzada en
septiembre de 2007, aprovecharon el verano en el polo sur lunar, entre octubre y
diciembre del pasado año, para fotografiar el fondo del cráter, apoyándose en la
luz dispersada por la cresta del circo, siempre débil pero máxima en esta época.
Con las imágenes tomadas por Kaguya (Selene)
a una resolución de 10 metros, elaboraron una reconstrucción digital del terreno
en 3D.
Según el estudio, dirigido por el investigador de la
agencia japonesa del espacio (JAXA) Junichi Haruyama y publicado hoy en
Science, “no hay depósitos expuestos de
agua helada pura que ocupen un área mayor que la resolución de la cámara”.
¿Dónde está entonces el hidrógeno? Una posibilidad,
prosiguen los científicos, es que el suelo esconda bolsas de hielo bajo la
superficie, algo que ya insinuaban los datos del Lunar Prospector. Otra
opción, concluye el estudio, es que el hielo esté sucio, diseminado y mezclado
con el polvo en baja proporción.
Fuente: publico.es, 24 de Octubre de 2008
-Aldrin defiende establecer
colonias en Marte
Aldrin en la presentación de
"Fly me to the moon "
Primero llegarían los suministros y los sistemas de
soporte vital a bordo de varias avanzadillas robóticas. Después se posaría
en Marte el primer contingente humano, formado por media docena de pioneros,
a los que se unirían otros en vuelos sucesivos hasta completar una colonia
de unas 30 personas.
Es el escenario de colonización marciana que propone el
ex astronauta Edwin Buzz Aldrin, el
segundo hombre sobre la Luna.
A sus 78 años, y 39 después de su momento de gloria,
Aldrin no ha colgado el impulso aventurero de los primeros astronautas, que
con tecnologías contemporáneas del tocadiscos y la televisión en color
alcanzaron metas nunca superadas.
Ataviado con una chaqueta bordada con el escudo de la
misión Apolo 11, Aldrin asistió esta
semana a la presentación en París de la película de animación en 3D
Fly me to the moon (Llévame a la
Luna).
Aldrin continúa siendo un entusiasta de la exploración
espacial al viejo estilo, más preocupado por el reto de llegar más allá que
por la rentabilidad de las misiones.
Para un perfil como el suyo, los programas actuales son
decepcionantes: “El shuttle no ha satisfecho las expectativas, como tampoco
lo ha hecho la Estación Espacial Internacional”, declaraba a AFP durante el
acto.
Como alternativa a estas misiones casi domésticas, Buzz
propone un plan más ambicioso que permita “hacer cosas innovadoras, nuevas,
pioneras”. Y el lugar adecuado, dice, es el más similar a la Tierra,
rebosante de reservas de agua y minerales: Marte.
Pioneros en el nuevo mundo
El entusiasmo de Aldrin por el desafío interplanetario no
está vacío de argumentos. Frente a los ocho días que duró su travesía a la
Luna, un viaje de ida y vuelta a Marte no se cubriría en menos de un año y
medio. El astronauta expone: “Si vamos a llevar a algunas personas allí y
asegurarnos de su protección, ¿nos tomaríamos todas esas molestias para
traerlos de vuelta de inmediato?”.
Y responde a su pregunta: “Deberíamos enviarlos allí de
forma permanente. Si no estamos dispuestos a hacerlo así, no creo que
debamos afrontar ese gasto para luego detenernos”.
Aldrin postula como premisa para los candidatos una
“psicología del colono”, la del que piensa que no regresará, y cita como
ejemplo los pioneros europeos en América. “A los 30 años, se les da la
oportunidad. Si aceptan, los entrenamos y, a los 35, los enviamos. A los 65,
quién sabe qué avances se habrán producido. Pueden jubilarse allí o quizá
podamos traerlos de vuelta”.
Aldrin
no es la
primera voz que propone un esquema de misiones marcianas sin retorno.
Pero, hasta ahora, los planes que las agencias espaciales de EEUU y Europa
esbozan para viajar a Marte en las próximas décadas no incluyen este
planteamiento.
Fuente: publico.es, 24 de
octubre de 2008
-Un satélite para viajar al centro de las estrellas
Ilustración del satélite ‘CoRoT’. - CNES
Viajar al interior de una estrella parece imposible, pero
los astrónomos lo han logrado gracias a la astrosismología. Esta técnica es
similar a la que emplean los geólogos para conocer el interior de la Tierra.
Observando las vibraciones que se producen en la superficie de las
estrellas, es posible conocer las condiciones físicas de su interior. Esta
forma de observación se había empleado, sobre todo, con el Sol, pero ahora,
un estudio con información recogida por el satélite europeo CoRoT, muestra
que también es posible realizar astrosismología con gran precisión para
conocer otras estrellas. “Los astrónomos no podemos realizar nuestros
estudios en un laboratorio y tenemos que inventar formas ingeniosas para
estudiar unos objetos que no podemos manipular. En este caso, creo que es
bastante sorprendente que sólo con los fotones que nos mandan estas
estrellas seamos capaces de estudiar su interior”, explica Ignasi Ribas,
investigador del Instituto de Ciencias del Espacio (CSIC) y coautor del
estudio, que hoy se publica en Science. El satélite ha
permitido observar astros distintos del Sol con una precisión que hasta
ahora sólo era posible alcanzar con nuestra estrella. Esto permitirá
realizar comparaciones y conocer mejor cambios en el Sol, como los
relacionados con las tormentas solares o los que pueden influir en los
cambios del clima en la Tierra.
En la superficie de las estrellas se
producen oscilaciones, similares a los terremotos que tienen lugar en la
Tierra, que están siendo útiles para que los astrónomos averiguen qué
esconden en el interior estos lejanos astros. Detectar y analizar estos
cambios es la misión del satélite europeo CoRoT, cuyos resultados se
publican esta semana en la revista 'Science'.
Ha sido un consorcio internacional, en el que
participan varias instituciones científicas españolas, el
responsable de medir estas oscilaciones en tres estrellas cercanas al
Sistema Solar.
Rafael Garrido, investigador del Instituto de Astrofísica
de Andalucía (CSIC) y coordinador de equipo español, explica que el objetivo
es el mismo que en la Tierra: "En nuestro planeta sabemos lo que hay dentro
porque se estudian las ondas que lo atraviesan y se observan las diferentes
zonas por la que pasan en función de la densidad. Es lo mismo que ocurre en
las estrellas. En su superficie hay ondas, producidas por cambios en
las temperaturas. Nosotros medimos las variaciones en la luz y
podemos averiguar cómo es el interior".
El satélite CoRoT, situado en órbita a 800 kilómetros y
que gira en torno al planeta, ha logrado medir con gran precisión estas
ondas en tres estrellas y ha visto que estas variaciones son 1,56
veces más vigorosas que las que se producen en el Sol y que su
granulación (que son las burbujas que forman los gases que hierven en el
interior) es tres veces más fina.
"Son como ollas en ebullición en las que las ondas se
propagan y se amortiguan continuamente. Así podemos saber qué hay en el
interior de estas estrellas, que de momento siguen las mismas pautas que
hemos observado en nuestro Sol", añade el experto granadino.
Garrido explica que el objetivo, además de la curiosidad
de continuar desvelando misterios del Universo, es observar qué ocurre en
otras estrellas, que pueden ser mucho más antiguas que el Sol, para
saber por adelantado cuál será el comportamiento de nuestro 'astro rey' en
el futuro.
Participación española
La misión, que comenzó en diciembre de 2006 con el
lanzamiento del satélite, está financiada en un 80% por la agencia espacial
francesa CNES, pero ha contado con una importante colaboración tecnológica
española: la empresa GMV ha sido la responsable del software de mantenimiento
del satélite. El satélite CoRoT cuenta con un pequeño telescopio dedicado a la
medición de la luz con una precisión asombrosa: es capaz de detectar variaciones
de una parte por millón, es decir, podría observar un millón de
bombillas y distinguir el parpadeo de una sola de ellas. Estas
mediciones no sólo desvelan el comportamiento de cada una de las estrellas, sino
que podrían ayudar a la búsqueda de planetas similares a la Tierra
en torno a estrellas que puedan ser similares al Sol. También puede cambiar la
actual clasificación estelar.
Los astrónomos españoles, precisamente, han contribuido a la
hora de decidir cuales eran las estrellas más interesantes de observar, gracias
al trabajo de los telescopios instalados en Canarias y en Andalucía. Entre las
instituciones españolas participantes se encuentran también el Instituto de
Ciencias del Espacio (CSIC), el Instituto de Astrofísica de Canarias, la
Universidad de Valencia, el Laboratorio de AStrofísica y Física Fundamental de
Madrid y la empresa GME.
Fuente: publico.es, elmundo.es, 23 de Octubre de 2008
-El dinosaurio que usaba plumas para aparearse
Epidexipteryx carecía de plumas de
contorno- NATURE
El dinosaurio Epidexipteryx escribe hoy "un nuevo
capítulo en la historia temprana de los pájaros", según los editores de la
revista Nature, donde se presenta el hallazgo. Del tamaño de una
paloma y unos 160 gramos de peso, Epidexipteryx tenía el cuerpo
cubierto de plumas, incluidas cuatro de cola muy largas, parecidas a cintas.
Pero no podía volar, porque sus alas carecen de las plumas de contorno para
el vuelo típicas de las aves.
Esto lo distingue de otros dinosaurios parecidos a
pájaros descubiertos previamente, como Microrraptor. Y desde luego
del popular Archaeopteryx, visto antiguamente como un eslabón entre
los dinosaurios y las aves, pero considerado hoy más bien como un pájaro de
pleno derecho. El fósil está tan bien conservado que ha permitido a los
científicos observar todas estas características de modo fiable.
El dinosaurio emplumado vivió en el jurásico
medio-tardío, hace unos 160 millones de años, en la actual Mongolia
interior. Fucheng Zhang y sus colegas de la Academia China de Ciencias, en
Pekín, que lo presentan hoy en Nature, lo han bautizado
Epidexipteryx hui. La primera palabra puede traducirse como alarde de
plumas, y la segunda es un homenaje a Yaoming Hu, un paleontólogo chino
muerto de forma prematura.
Las plumas de cola alongadas son un componente normal del
plumaje ornamental de las aves actuales. Se usan para mandar señales
visuales, sobre todo durante los rituales de apareamiento. "Es muy probable
que Epidexipteryx usara sus plumas de cola para el apareamiento, y no
para el vuelo o para protegerse del frío", dicen los científicos chinos.
"Esto indica que las plumas aparecieron antes como ornamento que como
instrumento de aislamiento o de vuelo durante la evolución de las aves".
-Un grupo de científicos logra borrar la
memoria a los ratones
Un equipo de investigadores del Colegio Médico de Georgia
(EE UU) ha conseguido borrar selectivamente y bajo control una serie de
recuerdos del cerebro de los ratones. Saber cómo aprendemos cosas,
consolidamos y almacenamos esa información y, finalmente, podemos recordarla,
son las cuatro cuestiones que los neurobiólogos persiguen desde hace décadas.
Son nada más y nada menos que los cuatro pilares de la memoria.
La revista Neuron, del grupo Cell Press, publica la
descripción del método que el equipo del doctor Joe Z. Tsien ha desarrollado.
Este neurobiólogo saltó a la palestra en 1999, cuando consiguió unos ratones
transgénicos -los Doodies- que aprendían y recordaban más que sus congéneres
normales. Esos ratones producían más receptores NMDA, unos complejos situados
en la membrana de las neuronas cuya activación desencadena el impulso
nervioso. En esta ocasión, el equipo de Tsien ha manipulado genéticamente a
los ratones para que produzcan, en la parte anterior del cerebro, más cantidad
de enzima CaMKII, a la que denominan la "molécula de la memoria", y además lo
hagan en el momento deseado.
"Usamos un compuesto para encender y apagar
específicamente esta enzima (la CaMKII) en el momento que se recupera el
recuerdo. Este compuesto puede atravesar la barrera hematoencefálica, pero
sólo funciona sobre el transgén que hemos introducido en el ratón. Se conoce
como un inhibidor sensibilizado genéticamente, que no tiene efecto alguno
sobre ninguna proteína natural del cuerpo", explica Tsien.
Borrado del recuerdo
Sorprendentemente, dice el investigador, lo que
descubrieron es que activar la producción de la CaMKII en el momento de evocar
conduce al "borrado inmediato del recuerdo en particular que se esté
recuperando, mientras que el resto de recuerdos que no se traen a la memoria
quedan intactos".
En el estudio, los investigadores han puesto a prueba la
memoria de los roedores para recordar objetos nuevos y algunas experiencias
que les dan miedo, a corto y largo plazo. Se sabe que con estas tres pruebas
se ponen en marcha tres partes distintas del cerebro, por lo que, según Tsien,
el hecho de que puedan eliminar cualquiera de esos recuerdos sugiere que el
mecanismo molecular es común y las aplicaciones podrían ser generales. Con el
apoyo de los análisis fisiológicos que han realizado, Tsien cree que la
producción de la CaMKII en el preciso instante en que los ratones recuerdan
algo debilita rápidamente las conexiones sinápticas -entre las neuronas- que
en un primer se encargaron de formar el recuerdo, lo que explicaría ese
"formateado" selectivo.
No en humanos
Este método, sin embargo, está lejos de poder aplicarse en
humanos, al menos tal como lo han hecho en los animales. Tendrían que buscar
otras moléculas que pudieran servir de diana para un posible fármaco, y Tsien
opina que, "dada la complejidad de nuestros cerebros", no es posible. Al menos
de momento, porque añade que si en el transcurso de su vida eso ocurriera
"tampoco se sorprendería".
Además, todos los recuerdos, incluidos los dolorosos,
subraya el neurobiólogo, tienen una función. "De esos recuerdos aprendemos
lecciones para evitar que repitamos los mismos errores y ayudarnos a
adaptarnos al entorno y las situaciones. La naturaleza se asegura así que el
cerebro no olvide fácilmente esos recuerdos".
Y opina que "si uno tiene una mala relación con otra persona, desear tener
una píldora para eliminar el recuerdo de esa persona o esa relación no
es la solución". Además, les podría pasar como a los protagonistas de la
película Eternal Sunshine of the Spotless Mind (¡Olvídate de mí!)
y arrepentirse de haberlo hecho.
Fuente: adn.es, 22 de Octubre de 2008
-Nace una plataforma para desarrollar la captura y
almacenamiento del dióxido de carbono
Capturar
y almacenar dióxido de carbono emitido por la industria hasta absorber el 90
por ciento de emisiones a partir de 2020 es el objetivo de la Plataforma
Tecnológica Española del CO2 (PTECO2), una iniciativa presentada hoy en el
Consejo Superior de Investigaciones Científicas (CSIC).
El nacimiento de esta plataforma, presidida por Santiago
Sabugal, está respaldado por 70 entidades tanto públicas como privadas y su
coordinación está auspiciada por tres ministerios: Ciencia e Innovación,
Medio Ambiente e Industria. Sabugal, quien ha señalado que PTECO2 ha sido
más "una iniciativa ciudadana que de la administración", ha concretado el
objetivo de la plataforma en "apoyar el cumplimiento de los compromisos
adquiridos por España en cuanto a reducción de emisiones de dióxido de
carbono".
En este sentido, el grupo ha presentado una serie de
catorce propuestas con el fin de optimizar las tecnologías de Captura y
Almacenamiento de CO2 bajo el epígrafe de "Documento de Despliegue
Estratégico", un plan de actuaciones para el que la plataforma calcula un
coste en inversiones de unos 304 millones de euros.
La captura y almacenamiento de CO2 está considerada en el
Protocolo de Kioto como "una tecnología eficaz, viable y segura" para lograr
reducir unas emisiones que para el Panel Intergubernamental de Cambio
Climático de la ONU son culpables del 64 por ciento del calentamiento global
causado por el hombre.
Ciudad de la Energía
El proyecto angular de esta nueva plataforma está basado
en la construcción y explotación de una Ciudad de la Energía (CIUDEN) en
Ponferrada (León), en cuyo interior planean instalar una planta piloto de
oxicombustión con captura, transporte y almacenamiento geológico de CO2.
"El conocimiento para ejecutar esta tecnología existe
ya", ha indicado Sabugal, para quien el principal reto está en reducir los
costes, ya que actualmente cuesta entre 30 y 60 euros capturar una tonelada
de CO2 para evitar su emisión a la atmósfera.
Uno de los objetivos del VII Programa Marco de la Unión
Europea es que este coste baje de los 15 euros por tonelada en 2020, lo que
permitiría a esta plataforma recoger más del 90 por ciento del CO2 emitido
para inyectarlo bajo tierra.
La plataforma ha anunciado también proyectos como
CENIT-CO2 (para investigar e incrementar la eficiencia en la captura,
almacenamiento y valorización del gas) o PSE-CO2 (para separar CO2 en
precombustión con coproducción de hidrógeno) que complementarán el trabajo
realizado en la citada planta del Bierzo.
Fuente: adn.es, 21 de Octubre de 2008
-Inaugurada la máquina del "Big Bang"
pese a la avería que la mantendrá apagada hasta el 2009
El Laboratorio Europeo de Física de
Partículas (CERN) ha inaugurado oficialmente el mayor acelerador de partículas
del mundo, su proyecto estrella, pese a la
avería que le mantendrá parado el LHC hasta la primavera de 2009. Los
responsables del CERN así como los principales representantes de Estados
miembros quitaron importancia al contratiempo del Gran Colisionador de Hadrones
(LHC), y aseguraron que eso no cambia las grandes perspectivas
que se abren con este proyecto que ha costado 4.000 millones de euros y con el
que se quiere desentrañar los misterios del Universo.
De izquierda a derecha, en primera fila, el presidente de Suiza, Pascal
Couchepin, el director del CERN, Robert Aymar, y el primer ministro francés,
Francois Fillon, en la ceremonia de inauguración del LHC. (Foto: REUTERS)
"El LHC es un proyecto audaz, que ha necesitado más de 20
años de planificación y que nos permitirá investigar el 96 por ciento del
universo que nos es desconocido, y aunque hoy es una fiesta, no
puedo negar que siento decepción por el incidente que ha obligado a
parar la máquina", dijo el director general del CERN, Robert Aymar, en sus
palabras de inauguración.
Pero, tras agradecer a los estados miembros sus esfuerzos
y contribuciones, Aymar aseguró que "tenemos el equipo y los medios
para repararlo y para garantizar que algo así no vuelva a ocurrir".
Unos 1.500 invitados asistieron al evento, pero sólo
Suiza estuvo representado por su jefe de Estado, Pascal Couchepin, mientras
que por Francia -el otro país en cuyo territorio se extiende el CERN-
asistió el primer ministro, Francois Fillon, quien expresó el total
apoyo de París al proyecto.
"Hace años, algunos calificaban el proyecto del
acelerador de sueño irrealizable, pero hoy existe y es
espectacular...Entramos en una etapa decisiva y fantástica...
y no es sorprendente que haya imprevistos técnicos. Hay que aceptarlos y hay
que superarlos, pero la confianza de mi gobierno en el proyecto es total",
afirmó Fillon en su discurso. Para el primer ministro francés, igual que la
crisis financiera mundial es un mal ejemplo de la globalización, el trabajo
del CERN lo es de la colaboración internacional en busca de
los misterios de la materia. Los demás países europeos miembros del CERN
enviaron a sus ministros de Ciencia o viceministros, así como otros estados
que han participado en este proyecto multinacional. España estuvo
representada por el secretario de Estado para la investigación,Carlos
Martínez.
Fuga de helio
La avería que mantiene parado el acelerador tuvo lugar sólo
diez días después de su espectacular
puesta en marcha el 10 de septiembre, cuando los científicos del laboratorio
lograron que el primer haz de protones circulara y diera una vuelta completa por
el gigantesco túnel de 27 kilómetros de circunferencia donde se halla el
acelerador, bajo la frontera suizo-francesa, a las afueras de Ginebra. El
problema se debió a una importante fuga de helio en el sector 3-4 del túnel, uno
de los 8 que lo conforman, y el CERN ha confirmado que se debió a una
conexión eléctrica defectuosa entre dos imanes del acelerador.
Pero los trabajos de reparación requerirán meses, puesto que
la propia complejidad de la máquina ha obligado a calentarla a
temperatura ambiente, desde los 271 grados bajo cero y habrá que volver
a enfriarla después para poder hacer circular protones y colisionarlos a la
velocidad de la luz.
"Cuando te compras un coche de fórmula 1, pasas un cierto
tiempo poniéndole a punto y como lo hemos celebrado antes de que el coche
estuviese a punto, no es nada raro que tengamos problemas, eso
se podía esperar, pero los resolveremos", comentó el físico español Alvaro de
Rújula, acerca de que la celebración se haga con el acelerador paralizado.
El lado más lúdico de la ceremonia fue un concierto
audiovisual, "Orígenes", con música de Philip Glass, interpretada por la
Orquesta de la Suiza Romanda. Y el broche de oro y "plato fuerte", el
buffet de "gastronomía molecular" servido por el cocinero italiano
Ettore Bocchia, que combina la alta gastronomía y la ciencia física.
Otro chef experimental, el catalán Ferran Adria,
se encargó del café servido después de la cena, con su innovador'Èspesso' creado
para una conocida marca de café italiana y que es el único café del mundo que se
toma con cuchara por su textura sólida.
Fuente: EFE, 21 de Octubre de 2008
-India se suma a la
carrera hacia la Luna
Todo está listo para el lanzamiento del
Chandrayaan-1, la sonda que añadirá a
India al club de los países con presencia en el satélite natural de la Tierra.
El director adjunto del Centro Espacial de Satish Dhawan, M. Y. S. Prasad,
informó hoy de que la cuenta atrás ha comenzado y de que todo va “perfectamente,
según lo planeado”.
El lanzamiento tendrá lugar a las 2:50 de la madrugada
del miércoles (hora peninsular española) desde el centro Dhawan, en
Sriharikota, a 80 kilómetros de Chennai, en la costa suroriental del país.
Con un coste de 80 millones de dólares,
Chandrayaan-1 orbitará a 100
kilómetros de la Luna durante dos años, tomando imágenes para elaborar mapas
geológicos y topográficos. Dispone además de un segundo módulo que
descenderá a la superficie. En total, está equipada con 11 instrumentos
procedentes de India, EEUU y Europa. La sonda se elevará a bordo de
una versión modificada del cohete indio
Polar Satellite Launch Vehicle (PSLV), que ha lanzado 29 satélites en
15 años. La misión es un paso de gigante en el programa de la
Organización India de
Investigación Espacial (ISRO), que busca recortar distancias con las
principales potencias espaciales del continente asiático, Japón y China.
Ambos cuentan ya con satélites orbitando la Luna desde el pasado año, el
chino Chang’e-1 y el japonés
Selene (Kaguya),
la segunda sonda lunar nipona. Además, el lanzamiento del
Shenzou-7 a la órbita terrestre el
mes pasado convirtió a China en el tercer país, después de EEUU y de la
extinta URSS, en completar un paseo espacial organizado por una sola nación.
Ciencia y negocio
Pero como en el caso de sus competidores en el espacio, los
fines de India trascienden el ámbito puramente científico. Este país envió su
primer satélite a la órbita en 1980, inicialmente para mejorar sus
comunicaciones, pero los objetivos comerciales se han expandido en los últimos
años con el lanzamiento de varios satélites para clientes extranjeros. El
último PSLV hasta hoy, que despegó en abril, cargaba en su interior 10 aparatos
pertenecientes a seis países distintos. India quiere ampliar su cuota de mercado
en el creciente negocio espacial, para lo cual prepara una constelación de siete
satélites de comunicaciones que se desplegará en los próximos años hasta 2012.
Al contrario que China, que se muestra ambigua con sus planes
de enviar un hombre a la Luna, India no tiene dudas. Según el ex director de
ISRO, G. K. Menon, “el siguiente paso será una misión tripulada a la Luna, cuyas
pruebas ya han comenzado”.
Japón también ha declarado intenciones de pisar el suelo
lunar en 2020, el mismo año en que China planea disponer de su propia estación
espacial.
Fuente: publico.es, 20 de Octubre de 2008
-Los volcanes originaron la vida en la
Tierra
Fue tan sencillo como convincente. El experimento que un
científico de la Universidad de Chicago llamado Stanley Miller reprodujo
una y otra vez en el laboratorio hace más de medio siglo sigue explicando hoy
los posibles orígenes de la vida en la Tierra. Un ya histórico estudio publicado
en 'Science' en 1953 demostraba
cómo a partir de los componentes de la atmósfera terrestre inicial podían surgir
los aminoácidos, clave para la formación de la vida. No había
ingredientes más conocidos y accesibles para la "sopa primigenia" -como la
descrita por Darwin-: metano, hidrógeno, amoniaco, agua y electricidad.
Imagen de la lava del volcán hawaiano Kilauea, en Hawai. (Foto: EFE)
El experimento de Miller, hoy común en las clases de química de los
institutos, consistió en juntar todos estos ingredientes y descargar
electricidad, simulando así el océano, la atmósfera y los rayos de hace
4.500 millones de años. El resultado fue una sopa de aminoácidos.
Un simple experimento había logrado crear 13 de los 21 aminoácidos
necesarios para la vida. El célebre astrofísico Carl Sagan lo consideró
"el paso más significativo para convencer a los científicos de que la vida puede
ser abundante en el cosmos".
Cincuenta y cinco años después, la misma revista
'Science' publica una revisión del
experimento. Jeffrey Bada, de la
Institución
Scripps de Oceanografía en la Universidad de California en San Diego, y
colegas han reinterpretado el análisis de Miller para concluir
que los principales componentes de la vida pudieron surgir de las
erupciones volcánicas.
Más aminoácidos
Durante estas décadas, varias evidencias han cuestionado la validez de la
atmósfera recreada por Miller (existen dudas de que ésta fuese tan reductora, es
decir, pobre en oxígeno). Sin embargo, el nuevo experimento llevado a cabo por
Bada sugiere que "incluso si la atmósfera en su conjunto no era tan reductora,
podría haberse dado una síntesis prebiótica localizada" en sistemas
volcánicos, dice el estudio. Se cree que la Tierra, en sus orígenes,
era un planeta convulso, sacudido por la actividad volcánica. El estudio actual
sugiere que los rayos y las emisiones de gases resultantes de las
erupciones volcánicas pudieron producir los componentes químicos necesarios para
la vida. Al volver a realizar el experimento con técnicas
contemporáneas, los investigadores han logrado crear un total de... ¡22
aminoácidos!
Tras una de las pruebas, los autores del estudio publicado hoy describen que
"el vapor [expulsado por los volcanes] inyectado en la chispa [eléctrica] puede
haber generado con radicales hidroxilados que reaccionaron o bien con los
precursores de los aminoácidos o con los propios aminoácidos".
Tras la muerte de Miller en 2007, Bada, ya veterano, y sus colegas rescataron
las muestras químicas originales de aquella "sopa primigenia". "Estábamos
seguros de que aún quedaban cosas por descubrir en el experimento original de
Miller", dice Bada, coautor del estudio. "Nos dimos cuenta de que una versión
moderna" de las pruebas con sistemas volcánicos "produce una variedad más amplia
de componentes".
Fuente: elmundo.es, 20 de Octubre de 2008
-La radiación del "Big-Bang" pierde intensidad
al atravesar supercúmulos de galaxias
Astrónomos del Instituto de Astrofísica de Canarias (IAC)
y de las universidades de Mánchester y Cambridge han encontrado la primera
evidencia de que la radiación del Big Bang es alterada al atravesar
supercúmulos de galaxias, las mayores estructuras del Universo. Este
descubrimiento sugiere la presencia de gran cantidad de materia en forma de
plasma en los supercúmulos, han explicado en una entrevista con la Agencia
EFE los astrónomos del IAC Rafael Rebolo, José Alberto Rubiño y Ricardo
Génova. El hallazgo se ha hecho cuando estos investigadores estudiaban la
radiación del fondo cósmico de microondas, que es el resto fósil de la Gran
Explosión (o Big Bang) que dio origen al Universo. Al observar dicho fondo
de microondas en la dirección del supercúmulo de galaxias de la Corona
Boreal, encontraron un notable decremento en la intensidad de esta
radiación. Este decremento es cuatro veces más débil que la intensidad
típica del fondo de microondas en cualquier otra dirección del cielo.
Imagen
de la galaxia NCG 3077 tomada por el telescopio
espacial 'Hubble'. (Foto: NASA-ESA
Rafael Rebolo, José Alberto Rubiño y Ricardo Génova explicaron que dicha
observación constituye una evidencia indirecta de que en los supercúmulos de
galaxias hay gran cantidad de gas caliente, con temperaturas próximas al millón
de grados centígrados. A estas temperaturas, la materia se encuentra en un
estado de plasma, siendo su componente principal los electrones. El proceso
físico que origina dicho rasgo en el fondo de microondas, que fue predicho por
los astrofísicos rusos Sunyaev y Zel'dovich en 1970, es el resultado de la
interacción de la radiación del fondo de microondas con materia en forma de
plasma. Se manifiesta en forma de variaciones de intensidad en el fondo de
microondas similares a la detectada.
Escalas mucho mayores
Este efecto había sido detectado hasta ahora en cúmulos de galaxias, donde se
sabía con certeza que debía producirse, debido a la gran cantidad de gas
caliente que se encuentra en el interior de estas estructuras. Sin embargo,
predicciones basadas en cálculos teóricos desarrollados en los más grandes
superordenadores establecen que mucha de la materia ordinaria del Universo no
estaría en estrellas, galaxias o cúmulos de galaxias, sino distribuida en
escalas mucho mayores en forma de un plasma difuso de temperatura muy alta,
posiblemente en el interior de supercúmulos de galaxias.
De acuerdo con estos estudios teóricos, esta materia de los supercúmulos, que
son las mayores estructuras que se conocen en el Universo, debería generar
también un efecto Sunyaev-Zel'dovich detectable. Estas observaciones confirman
la predicción, y suponen de hecho la primera detección, del efecto Sunyaev-Zel'dovich
en supercúmulos, y con ello la primera evidencia directa basada en medidas del
fondo de microondas de la existencia de esta materia en su interior. Otra
posible explicación a este descubrimiento, mucho más especulativa pero también
interesante, es que en el Big Bang se produjesen anomalías como la que se ha
detectado, algo muy improbable en la teoría actual y que llevaría a revisar los
modelos básicos del origen del Universo. Los astrofísicos del IAC no descartan
esta explicación pero la creen menos probable.
La evidencia de que hay gran cantidad de gas en el supercúmulo de la Corona
Boreal se ha llevado a cabo con el experimento VSA (Very Small Array) instalado
en el Observatorio del Teide (Tenerife). El VSA está formado por 14 antenas que
funcionan a una frecuencia de 33 GHz y que apuntan de forma simultánea a una
misma región del cielo para obtener una señal que luego se combina
electrónicamente por medio de un procedimiento denominado interferometría. Con
este interferómetro se estudia el fondo de radiación emitido unos 380.000 años
después de la gran explosión que se cree que dio origen al Universo. El
descubrimiento será publicado en la revista 'MNRAS', de la Real Sociedad
Astronómica del Reino Unido.
Fuente: elmundo.es, 19 de Octubre de 2008
-La vida y obra de Nikolas Tesla, el
hombre que iluminó el mundo
Pasó a la historia como el mago de la luz,
el hombre que iluminó el mundo, pero murió prácticamente solo, alimentando a las
palomas desde la ventana de un hotel. Antes, en su larga e intensa vida,
patentó 170 inventos, entre ellos la corriente alterna, la radio o los Rayos X.
Ahora, la Universidad Politécnica de Madrid, le rinde un homenaje con una
muestra y un ciclo de conferencias.
La exposición, abierta al público en la Escuela
Técnica Superior de Ingenieros Industriales (C/ José Gutiérrez
Abascal, 2, de Madrid) lleva viajando por el mundo desde hace dos años,
cuando la ONU declaró el año dedicado a Nikola Tesla (1956-1943). Consiste
en 10 paneles y tres pantallas multimedia que sirven para acercarse a la
vida de este prolífico inventor, del que también se pueden ver dos
artefactos: el famoso Huevo de Colón de Tesla, que presento en la Exposición
Universal de 1893, y una bobina que puede llegar a generar tres millones de
voltios. "Queremos que sea una muestra interactiva y educativa,
que la gente se acerque al personaje y recuerde cómo nos ha mejorado la
vida", explicaba a elmundo.es Matea Brstilo Resetar, del Museo de Historia
Natural de Croacia.
Brstilo recuerda que Tesla "es un orgullo, un hombre sin
el que, quizás, el mundo hubiera sido más oscuro". "Tuvo tal capacidad de
invención que algunos de sus descubrimientos se aplicaron sólo
después de su muerte y otros aún no están en uso, como la
transmisión de electricidad inalámbrica", añade. También tuvo mala suerte:
un incendio en su laboratorio le hizo perder muchos de sus trabajos, como
los relacionados con el hallazgo de los electrones o el microscopio
electrónico.
Desde luego, si algo se desprende de la visita a la
exposición (abierta hasta el 12 de diciembre) es que era
polifacético y controvertido. Nació en la pequeña localidad de
Smiljan, un pueblo donde,irónicamente, la electricidad llegó hace sólo dos
años. Enfermó de cólera muy joven, por lo que quedó descartado como futuro
militar: ésta fue la razón por la que sus padres le permitieron seguir sus
estudios, primero en Granz y luego en varias ciudades europeas antes de
aterrizar en Estados Unidos.
Torre para la transmisión de electricidad de Tesla. (Foto: Museo de Historia
de Croacia).
Enfrentamiento
con Thomas Edison
Para entonces ya trabajaba en la compañía de Edison, con
quien pronto entró en conflicto: "Él era un lobo solitario, no formaba grandes
equipos. Desde joven le fascinaron los fenómenos naturales, los truenos y los
relámpagos. Más de una vez dijo que necesitaba vivir 100 años para crear
todo lo que llevaba dentro, y casi lo consigue", añade Renato Filipin,
del Museo Técnico de Zagreb. El primer problema surgió porque Edison
defendía la corriente continua, frente a la alterna de Tesla, que es la
que finalmente se utiliza universalmente. Según explica Brstilo, "el primero
inició una guerra sucia contra el croata. Pero lo cierto es que él podía
iluminar un barrio y con el sistema de Tesla se daba luz a una ciudad", añade su
compatriota.
No fue el único enfrentamiento que tuvo a lo largo de su
vida. Con Marconi le pasó lo mismo, puesto que fue Tesla el primero en
transmitir un mensaje oral de forma inalámbrica, es decir, la radio, un invento
cuya patente EE. UU. sólo le reconoció después de muerto. Durante la
presentación en la Escuela de Industriales, el embajador de Croacia, Filip Vucak,
recordaba que Tesla llegó a registrar 700 inventos, pese a lo
cual "siempre dijo que no le importaba la fama y las riquezas de este mundo, que
sólo encontraba satisfacción en el trabajo".
El rector de la Politécnica, Javier Uceda, también hizo mención de algunas
afirmaciones de Tesla a mediados del siglo pasado: "Fue el primero que
adivinó que un día leeríamos los diarios por una conexión inalámbrica en casa".
Las conferencias sobre sus aportaciones tendrán lugar los próximos días 5 de
noviembre (Tesla en Nueva York) y 12 de noviembre (Nikola Testa, de la infancia
al hotel New Yorker). Las visitas a la exposición serán guiadas (incluidos
sábados y domingos).
Fuente: elmundo.es, 19 de Octubre de 2008
-Base lunar construida con el hormigón hecho
en el satélite
Un grupo de científicos de EEUU ha propuesto construir una base lunar con
hormigón sin agua hecho con polvo recogido en el satélite. Llevar a la Luna las
cantidades de material para construir una base sería extremadamente caro. El
precio de transportar un kilo podría llegar a alcanzar los 100.000 dólares. Por
ese motivo, resultaría interesante encontrar la forma de edificar con material
autóctono. El hormigón lunar se elaboraría a partir de polvo lunar aglutinado
con azufre purificado extraído también en el satélite. Las pruebas realizadas
por ingenieros de la NASA han permitido comprobar que el material hecho así
llegó a resistir una presión equivalente a 170 atmósferas. Peter Chen, otro
científico de la NASA, elaboró este año un tipo de hormigón sin agua empleando
el epoxi como aglutinante. En este caso, el epoxi debería enviarse en cohetes a
la Luna, pero se reduciría significativamente la cantidad de material
transportado.
Hormigonera lunar
Además, una vez en la superficie del satélite, elaborar el hormigón con su
técnica sería más sencillo que empleando el azufre como aglutinante. Otro
problema que habría que solucionar en caso de elaborar el hormigón en la Luna
sería la fuente de energía para hacer la mezcla. Sin embargo, los científicos
que proponen esta solución creen que los costes serían mucho menores que el
transporte de material desde la Tierra.
Fuente: publico.es, 19 de Octubre de 2008
-La nanobiotecnología y la implicación
de la opinión pública
La nanobiotecnología tiene el potencial de transformar
radicalmente la sociedad; no obstante, en demasiadas ocasiones el debate en
torno a esta ciencia está protagonizado por el miedo que han engendrado algunas
novelas como «Presa», de Michael Crichton, y los medios informativos con
titulares que presagian una pesadilla del tipo de la «plaga gris» (Grey Goo).
Ahora un nuevo informe, elaborado en el marco del proyecto NanoBio-RAISE,
financiado con fondos comunitarios, concluye que para disipar esos temores hay
que tener más en cuenta a la opinión pública. El informe se presentó
recientemente en el congreso EuroBIO2008 celebrado en París (Francia). El
proyecto NanoBio-RAISE fue financiado por la Unión Europea con 553.845 euros
mediante el área de actividad «Ciencia y Sociedad» del Sexto Programa Marco
(6PM).
Se trata de un proyecto que combina la divulgación de la ciencia con la
investigación ética en la nanobiotecnología y que pretende anticiparse a
cualquier problema de tipo ético o social que pueda surgir. En el
transcurso de una serie de talleres, expertos en bioética de Estados Unidos y
Europa recopilaron información e investigaron las repercusiones de la
nanobiotecnología en los ámbitos de la alimentación y la medicina así como en el
novedoso campo de la potenciación humana (human enhancement). En el último
taller se sopesaron distintos métodos para implicar a la opinión pública en un
debate con conocimiento de causa en torno a cuestiones concretas.
Con respecto a la cuestión de la potenciación humana, el informe llama la
atención sobre las distintas actitudes que se observan en Estados Unidos y la
UE. En Europa, la potenciación humana se centra en la medicina regenerativa y
las enfermedades neurodegenerativas; en Estados Unidos, el interés se centra en
aplicaciones militares, principalmente en la creación de «soldados biónicos». En
aquella nación el debate incluye también la cuestión de la naturaleza de la
condición humana y las formas de potenciar (y no simplemente de reparar) nuestro
estado físico y mental.
Los temores actuales relacionados con la nanobiotecnología guardan relación
principalmente con la tecnología nanoalimentaria, que suele asociarse a los
alimentos transgénicos. En las conversaciones sobre el tema tampoco falta cierta
dosis de ciencia ficción, por ejemplo la idea de que se construyan máquinas
expendedoras capaces de fabricar sus propios productos. La percepción general de
la nanomedicina es mucho más positiva; se considera un gran logro todo adelanto
que contribuya a mejorar el diagnóstico, tratamiento y seguimiento de los
pacientes, sobre todo en los terrenos del cáncer y las enfermedades
cardiovasculares y neurodegenerativas.
A la vista de estas conclusiones, el coordinador de NanoBio-RAISE, el Dr. David
Bennett, y sus colaboradores han hecho un llamamiento a movilizarse para
transmitir confianza a la opinión pública acerca del potencial de la
nanobiotecnología.
«Hay una demanda generalizada de que se produzca un debate más abierto y se
implique más a la sociedad que hasta ahora en la formulación de políticas
relativas a la ciencia y la tecnología. La nanobiotecnología es uno de los
nuevos campos en los que se debe satisfacer dicha demanda y, en nuestra opinión,
es uno de los casos más acuciantes. Consideramos que la UE debe desempeñar un
papel destacado por lo que concierne a trabajar con la comunidad investigadora,
la industria y otros grupos interesados para poner en marcha programas y
actividades innovadoras y eficaces orientadas a todos los sectores de la
sociedad», afirmó.
Fuente: CORDIS, 17 de Octubre de 2008
-50 años matando marcianitos
Los organizadores no daban crédito:
centenares de personas hacían cola para jugar con un cacharro que un científico
había colocado entre los aparatos de investigación que, como cada año,
exhibía el Laboratorio Nacional Brookhaven (un centro de investigación nuclear
de EEUU) en su día de puertas abiertas. Era el 18 de octubre de 1958, inicio de
la era de los videojuegos.
El ocurrente científico fue
William Higinbotham.
Este antiguo miembro del ‘Proyecto
Manhattan' (donde se creó la bomba atómica) era responsable de la División
de Instrumentación del Brookhaven. Para dar vida a la aburrida exposición de
cachivaches de todos los años, decidió hacer algo diferente.
Cogió un osciloscopio y lo convirtió en un juego
de tenis en el que dos personas podían controlar y lanzar un punto luminoso
verde a modo de pelota. Tardó dos horas en diseñarlo y, junto a Bob
Dvorak, tres semanas en reunir todas las piezas y fabricarlo
Bautizado como ‘Tennis for Two', era
un pequeño ordenador analógico. Cuatro amplificadores creaban el movimiento de
la bola y otros seis sentían cuándo golpeaba en el suelo o en la red. Un miembro
de la actual División de Instrumentación del Laboratorio Brookhaven, Peter
Takacs, explica la importancia entonces del germanio: "Usó los transistores para
fabricar un circuito de rápidos interruptores que tomaba las tres salidas del
ordenador y las desplegaba en la pantalla del osciloscopio a la ‘impresionante'
velocidad de 36 hercios".
¿El primer videojuego?
Aunque la mayoría de los libros y páginas dedicadas a los videojuegos
consideran a la creación de Higinbotham como el primer juego electrónico, hay
tres antecedentes que quieren disputarle el honor. Pero tanto la patente del
‘Dispositivo de Entretenimiento de Tubo de Rayos Catódicos' (1948), como el
juego de estratégica ‘Nim', ideado para el ordenador británico Nimrod (1951) e,
incluso el ‘OXO', una especie de ‘Tres en Raya', del año siguiente, carecían de
algunos elementos. Así, el primero exigía poner imágenes de papel sobre la
pantalla. El segundo se hizo para comprobar la potencia de un procesador. Y el
tercero, un juego de único jugador, pretendía estudiar la interacción entre
máquina y hombre.
Solo ‘Tennis for Two' nació para divertir. Aunque en 1959 se le aumentó la
pantalla hasta las 17 pulgadas, el videojuego nunca fue comercializado.
Higinbotham, que había usado material del Gobierno federal para fabricarlo, ni
siquiera lo patentó. De haberlo hecho, quizás podría haber participado del
fabuloso negocio que nació hace 50 años. Un negocio que, sólo en España, generó
el año pasado 1.454 millones de euros.
Fuente: publico.es, 17 de Octubre de 2008
-Usando medios digitales para hacer
avanzar la ciencia
Cuando me fui de España, hace dos años ya, confieso
que no tenía mucha experiencia en el campo de la divulgación científica. Pero
un colega curtido en batallas se me quejaba de que, en ocasiones, en algunos
de los seminarios para comunicadores científicos a los que asistía todavía se
planteaban preguntas tan básicas y “demodé” como “¿pueden científicos y
periodistas comunicarse?” Al pobre le ponían de los nervios.
Luego, cuando estuve estudiando mi postgrado en una universidad de Estados
Unidos (donde los periodistas científicos ya saben que sí, se pueden comunicar
con los investigadores), fui testigo una y otra vez de otro tipo de quejas de
los profesionales del sector, que lloraban la progresiva pérdida de espacio
dedicado a las noticias de ciencia en los periódicos, y se entristecían por la
batalla (perdida de antemano) de los medios tradicionales frente a los
digitales.
“La profesión anda de capa caída”, nos decían a mis compañeros de clase y a
mí. “No quiero desanimaros, pero no son buenos tiempos para empezar a trabajar
en este campo”.
La verdad, nunca acabé de creerme que la cosa estuviera tan mal. Pero aun así,
fue alentador asistir la semana pasada a un seminario que, en vez de quejarse
por los cambios del sector, se centraba en explicar a periodistas, educadores
y científicos cómo sacar el máximo provecho de las nuevas oportunidades que se
presentan con el avance de los medios digitales.
El seminario, “New Digital Media and Public Engagement With Science” (“Nuevos
medios digitales y participación del público en la ciencia”), estaba
organizado por el
Exploratorium
(el museo de la ciencia de San Francisco, que con su página web fue uno de los
pioneros en el campo de la comunicación científica en Internet) y avalado por
la National Science Foundation. Durante la
presentación, el director ejecutivo del Exploratorium, Rob Semper, habló de
cómo las particularidades de Internet presentan retos tanto a científicos como
a educadores y periodistas especializados en ciencia. En Internet, la
audiencia tiene una capacidad de atención más corta, lo cual supone un dolor
de cabeza para los pobres comunicadores, acostumbrados a contar sus historias
en formatos más extendidos. Además, a esta ciber-audiencia le gusta “meter
mano” en todo (dejando comentarios por doquier, creando sus propias páginas
web o contribuyendo en proyectos comunales, como Wikipedia) y en Internet es
más difícil garantizar que la información científica que se publica es
precisa, ya que existen menos filtros. ¿Debería esto desanimar a los aquellos
involucrados en la difusión de la ciencia? No, porque los consumidores de
información científica a través de medios digitales presentan también
características muy atractivas: buscan información activamente (en vez de
recibirla pasivamente, como los espectadores de televisión), están motivados y
muy distribuidos tanto geográfica como socialmente.
A continuación, John Horrigan, del
Pew
Internet Project, presentó los últimos datos conocidos sobre cómo el
público utiliza Internet para acceder a información científica, que incluían
un aumento en el uso de Internet a través de dispositivos móviles, como PDAs y
teléfonos. Como curiosidad, Horrigan destacó que el teléfono móvil permite un
acceso más universal a la información, ya que sectores sociales que
normalmente no disponen de demasiada facilidad para usar ordenadores con
conexión a Internet, como afroamericanos y latinos, sí que utilizan sus
móviles activamente.
Una periodista de
Scientific American, una
revista que ha estado apostando fuerte en su versión digital en los últimos
años, dio varias recomendaciones para todo aquel medio que quiera triunfar en
crear una comunidad online: ten en mente cuál es tu objetivo (¿Fidelizar a tus
lectores? ¿Incrementar el tráfico de tu página web?), conoce a tu audiencia,
contrata suficiente personal para mantener actualizada la web, consigue a un
experto que te monte una página increíblemente sencilla de navegar y
sobretodo, invierte en márketing, porque en este mundo sobredosificado de
información, tener un producto extraordinariamente bueno no equivale a tener
garantía de que triunfará.
Tras la participación de un comunicador que ha montado la operación en Second
Life para la NASA, de una periodista del programa de ciencia
Quest (que utiliza tanto recursos de
TV, como de radio y Web) y de responsables de comunicación para varios
programas de exploración antártica,
Matt Nisbet, un
académico que estudia la eficacia de las campañas de comunicación, advirtió
que, para involucrar al público con la ciencia, no basta con Internet: la
información científica web es sólo un cebo, pero a partir de ahí se tiene que
conseguir que la gente participe en actividades en el “mundo real” (como
visitas a museos u otros tipos de actividades científicas) para que realmente
aprendan, desarrollen un afecto verdadero por la ciencia y se conviertan ellos
mismos en promotores del conocimiento científico entre sus conocidos.
Fuente: Blog "Política científica", 16 de Octubre de
2008
-Un "neurochip" en el cerebro permite
mover los músculos a afectados de una parálisis
Para mover un músculo puede ser suficiente
con activar una sola neurona, o al menos eso es lo que sucede en el cerebro de
los monos. Los responsables de un concienzudo ensayo científico se han adentrado
en la mente de estos primates para conocer mejor las bases del movimiento y, en
última instancia, proponer nuevas líneas de trabajo que faciliten la vida de las
personas con parálisis.
Hace escasos cuatro meses saltaba a la palestra el
trabajo de un equipo de la Universidad de Pittsburgh (EEUU), en el que dos
monos eran capaces de
alimentarse moviendo un brazo biónico con la energía del pensamiento.
Ahora, la revista
'Nature',
la misma que publicó aquel documento, recoge en sus páginas una impactante
investigación con distintos medios pero parecidos fines.
"Los monos 'Macaca memestrina' pueden controlar
directamente la estimulación de los músculos empleando sólo la
actividad de las neuronas de la corteza motora [una zona del
cerebro implicada en el movimiento]", afirman sus autores, procedentes de la
Universidad de Washington (EEUU).
Para llegar a esa conclusión, primero se implantó un
electrodo en el cerebro de dos monos, que permitió grabar su actividad
neuronal. A continuación, con un programa informático, se transformaron
estos datos en señales capaces de estimular la muñeca de los animales. Como
han explicado Chet T. Moritz y Eberhard E. Fetz, dos de estos expertos, en
una rueda de prensa, "pusimos dos electrodos por cada músculo que quisimos
estimular", y no se necesitó emplear "complejos algoritmos de
descodificación ni brazos robóticos".
Jugando a un videojuego
En el experimento se estudió la mente de los macacos mientras
jugaban a un simple videojuego, en el que tuvieron que mover la mano en varios
sentidos. Cuando ya habían adquirido cierta pericia en esta tarea, los
científicos anestesiaron su antebrazo para eliminar su función motora y su
sensibilidad. A pesar de esta parálisis temporal, los animales continuaron
moviendo el cursor con el impulso de la mente.
"Convertimos la actividad celular en una serie de
estímulos proporcionales que se hicieron llegar a los músculos paralizados",
explican los científicos estadounidenses. Como resultado, los monos no sólo
fueron capaces de mover la extremidad paralizada sino que también contrajeron y
extendieron la mano. Su habilidad fue mejorando según se incrementó el tiempo de
prácticas.
Otro de los principales hallazgos del trabajo, financiado por
los Institutos Nacionales de la Salud de EEUU (NIH, en sus siglas en inglés),
tiene que ver con la naturaleza de las células implicadas en el proceso. En
contra de lo que pudiera pensarse, "las neuronas pudieron controlar la
estimulación funcional con igual destreza sin importar si previamente se
habían asociado con el movimiento".
"Este resultado pone en evidencia la gran plasticidad del cerebro.
A través del aprendizaje se puede variar la función de estas células y, en este
caso, reclutarlas para que cumplan un papel motor", afirma Eberhard E. Fetz.
Una neurona para un músculo
El ensayo también presta especial atención al enorme
potencial individual de las neuronas. El que una sola célula pueda mover un
músculo tiene importantes implicaciones: "Los canales directos, que unen las
células individuales y determinados músculos, pueden aportar al cerebro una
información más clara sobre la actividad celular y permitir que los mecanismos
innatos de aprendizaje motor ayuden a optimizar el control de las nuevas
conexiones".
"Es la primera demostración de que las conexiones
artificiales y directas entre las células corticales y los músculos
pueden compensar los caminos fisiológicos interrumpidos y restaurar el
movimiento voluntario de las extremidades paralizadas", subrayan los autores.
De aplicarse en humanos, podría restaurar acciones
tan cotidianas como coger una taza o presionar una tecla. "El mayor
desarrollo de este tipo de estrategias directas podría devolver los movimientos
voluntarios a las personas con parálisis", concluye el documento.
Eso sí, antes de poder emplear esta técnica en personas, se
deberá allanar el terreno para, entre otros objetivos, lograr electrodos que
no provoquen rechazo o conseguir una tecnología 'wireless' que
evite tener que introducir cables en el organismo humano.
Fuente: elmundo.es, 16 de Octubre de 2008
-Homo sapiens pudo salir de África por el Sáhara
El Sahara no siempre ha sido tan árido como hoy lo
conocemos. Imágenes de radar y análisis geoquímicos de sedimentos en varias
localizaciones del desierto han permitido el hallazgo de rastros de antiguos
ríos que lo atravesaban y llegaban al Mediterráneo en la zona de la actual
Libia. Ese corredor verde fue utilizado por las primeras migraciones de homo
sapiens, cuya aparición se calcula que ocurrió hace entre 150.000 y 200.000
años en el África subsahariana, de acuerdo con una investigación realizada
por científicos británicos. Hasta ahora se creía que la dispersión del
hombre moderno desde el centro de África se había producido siguiendo la
ruta del valle del Nilo. La teoría se mantenía por considerar que la aridez
del desierto del Sáhara impedía haberlo cruzado a pie, a pesar de que la
datación de hallazgos arqueológicos en el valle del Nilo y Oriente Próximo
no avalaban del todo la vía egipcia.
La nueva investigación, dirida por Anne H. Osborne, de la
Universidad de Bristol, aporta por primera vez pruebas de que la expansión
de las primeras oleadas de nuestros antepasados pudo hacerse a través del
Sáhara, lo que se ajusta más a la antigüedad de los restos fósiles
encontrados en la costa sur mediterránea. El estudio defiende que «el Nilo
no debería ser ni la única ni, tal vez, la ruta potencial más probable de
dispersión».
Un corredor de agua dulce
Las pruebas realizadas con radar detectan lechos fósiles
de ríos ahora enterrados que cruzan el desierto y desembocan en la costa
mediterránea. La existencia de esos canales explicaría el disperso hallazgo
en algunos oasis de ciertas artesanías datadas a mediados de la Edad de
Piedra relacionadas con otras halladas cerca del mar. El estudio presenta
datos geoquímicos que demuestran que el agua en esos sistemas fósiles
derivaba del sur. «Esto prueba la existencia de un ininterrumpido corredor
de agua dulce a través de la actualmente hiperárida región del Sahara en el
momento de las tempranas migraciones del hombre moderno hacia el norte de
África y fuera de ella», asevera el equipo investigador.
Corredores verdes
De hace aproximadamente 130.000 años datan los restos de
homo sapiens más antiguos encontrados en la zona más occidental de Oriente
Medio. Hasta ahora se suponía que la especie había llegado allí a través del
valle del Nilo. Sin embargo, nuevos fósiles y hallazgos arqueológicos han
revelado una amplia distribución de homo sapiens a lo largo de la costa del
norte de África y el norte del Sahara durante ese mismo período, lo que
apoyaría la tesis del uso de los corredores verdes del Sahara.
«Utilizando análisis geoquímicos hemos demostrado que
esos canales estaban activos durante el último periodo interglacial. Eso
ofrece importante cauce en esa región que de otro modo sería árida», según
Anne H. Osborne.
Para Derek Vance, otro de los autores del estudio, en el
que también han participado geólogos libios, se muestra por primera vez que
«las lluvias monzónicas alimentaron los ríos que se extienden desde el
Sahara hasta el Mediterráneo». De hecho, añade, «esos corredores rivalizaron
con el valle del Nilo como rutas potenciales para las migraciones humanas
hasta el Mediterráneo».
Fuente: abc.es, 15 de Octubre de 2008
-Viaje a las profundidades del MareNostrum
Lo primero que sorprende es la chocante fusión de dos mundos: lo sagrado y lo
profano, lo espiritual y lo tecnológico, lo religioso y lo científico.
MareNostrum,
el superordenador más potente de España, se encuentra en el interior de una
capilla que construyó en Barcelona una familia de nobles catalanes a principios
del siglo XX, y hoy se ha convertido en un espacio desacralizado al servicio
de la investigación más puntera de todo el planeta.
El
superordenador 'MareNostrum' se halla en el interior de una capilla
desacralizada. (Foto: Domènec Umbert)
Debido a esta insólita ubicación, cuando uno recorre las
tripas de esta gigantesca computadora, impresiona el contraste entre las
40 torres metálicas que albergan sus 10.240 procesadores de última
generación -capaces de realizar 94 billones de operaciones por segundo-, y la
ancestral simbología cristiana que decora las vidrieras de sus muros.
«Somos conocidos en todo el mundo por nuestra potencia de
computación, pero sobre todo, por el hecho que el superordenador está instalado
en este lugar tan espectacular», reconoce Francesc Subirada, director asociado
de este centro inaugurado hace ahora casi tres años, en noviembre de 2005.
Impulsado y gestionado por un consorcio formado por el Ministerio de Ciencia e
Innovación (51%), la Generalitat (37%), y la Universidad Politécnica de Cataluña
(12%), el MareNostrum se ha convertido en una referencia internacional
en el campo de la supercomputación.
Al adentrarnos en el interior de la instalación, lo que
también impacta es el ruido: un zumbido ensordecedor que provoca el sofisticado
sistema de refrigeración que bombea aire frío las 24 horas del día, para
evitar el sobrecalentamiento del sistema. El 'MareNostrum' no descansa
nunca: día y noche, realiza operaciones que centenares de investigadores de todo
el mundo utilizan para simular toda clase de procesos con aplicaciones en
disciplinas tan variadas como la biomedicina, la climatología, y la astrofísica.
«Lo que nos permite un supercomputador como el 'MareNostrum'
es una gran capacidad para modelar la realidad y predecir resultados
que de otra manera no podríamos obtener porque resultaría demasiado caro,
peligroso o imposible realizar un experimento», explica Subirada.
Múltiples aplicaciones
En estos momentos, por ejemplo, hay equipos científicos
aprovechando el potencial de esta máquina para investigar la eficacia de
nuevos tratamientos para diversas enfermedades, mediante la simulación
de las reacciones entre fármacos y proteínas.
Otros intentan simular los diferentes escenarios climáticos
que podrían provocar los gases contaminantes que están desencadenando el
calentamiento global. Y algunos incluso intentan reproducir los primeros
momentos posteriores al 'Big Bang', como en el recientemente inaugurado
acelerador de partículas del CERN en Ginebra, para desentrañar nuevas claves
sobre los orígenes del Universo.
En el 80% de los casos, los científicos que obtienen
autorización para aprovechar la capacidad de cálculo del 'MareNostrum' -tras
pasar por el filtro de un comité de expertos que decide cada cuatro meses quién
puede usar la máquina- pertenecen a organismos públicos de investigación para
los que este servicio es totalmente gratuito. Sin embargo,
aproximadamente un 20% del tiempo se reserva para empresas que alquilan la
máquina para aprovechar su potencia de cálculo.
Un ejemplo notable es el de Repsol, que ya ha adoptado
decisiones sobre las zonas concretas en las que va a realizar
prospecciones de petróleo en el Golfo de México, basándose en las
simulaciones geológicas realizadas con el 'MareNostrum'. Además, también hay
empresas en los sectores de la aviación y el automóvil que están aprovechando el
potencial del superdenador para desarrollar nuevos modelos de vehículos más
eficientes y aerodinámicos.
«El 'MareNostrum' está permitiendo a España jugar en
la primera división de la supercomputación», asegura José María
Baldasano, director del Área de Ciencias de la Tierra del Barcelona
Supercomputing Center (BSC) donde se ubica el ordenador. De hecho, las
simulaciones que realiza este científico sobre el calentamiento global con el
MareNostrum se van a utilizar para elaborar el próximo informe del Panel
Intergubernamental del Cambio Climático (IPCC) de la ONU. «Esto refleja el
peso científico que hemos adquirido en el mundo gracias a este
proyecto», concluye Baldasano.
Fuente: elmundo.es, 15 de Octubre de 2008
-Las asimetrías de la naturaleza
Bajo el signo de la simetría y la belleza se ha concedido este año el Premio
Nobel de Física a tres teóricos de partículas, Yoichiro Nambu, Makoto Kobayashi
y Toshihide Maskawa. Y también bajo la interrogante e inquietante sombra de una
omisión.
¿Qué es una simetría? Una transformación que deja algo igual o equivalente al
original. Por ejemplo, los dos lados de una cara son geométricamente simétricos.
El número 8 es simétrico bajo reflexión en un espejo: su imagen y la reflejada
son idénticas. Si se gira 60 grados un copo de nieve, parecerá exactamente igual
que antes del giro.
A veces las simetrías no son evidentes, están
escondidas. Un ejemplo es el de una pelota en la cima de una colina.
Está en un estado claramente simétrico respecto a las posibles direcciones
de caída. Pero la menor perturbación la hará rodar, y si cuando la
encontramos ya está abajo, quizás no nos demos cuenta de que todas las
direcciones son equivalentes.
Bajo el aparente caos y arbitrariedad de la naturaleza,
se esconden también simetrías. Sencillas y fascinantes simetrías que rigen
las fuerzas del cosmos al nivel más fundamental. No necesariamente saltan a
la vista. Nambu se dio cuenta de que algunas fuerzas que actúan sobre las
partículas elementales podrían obedecer a simetrías exactas, pero ocultas:
bellas simetrías escondidas que se conocen por el inapropiado nombre de
espontáneamente rotas.
Nambu ideó un mecanismo de ocultación de simetrías que ha
resultado esencial en el entendimiento del microcosmos, y más concretamente
en la construcción del Modelo Estándar de física de partículas. Su
aplicación más impactante permite que las partículas portadoras de fuerzas
puedan tener masas muy diferentes y, sin embargo, ser equivalentes e
intercambiables gracias a la simetría exacta subyacente. Las diferencias de
masa sencillamente eclipsan la simetría. Por ejemplo, las fuerzas
electromagnética y débil (cuya vertiente más conocida es la radiactividad)
han sido identificadas como debidas al mismo fenómeno de base, a la misma
simetría, a pesar de que sus respectivas partículas portadoras tienen masas
muy diferentes y, por tanto, alcance muy diferente.
Toshihide Maskawa y Makoto Kobayashi-
AFP / REUTERS
También la popular partícula de Higgs, esencial en el origen
de la masa de todo lo vis ible y objetivo del acelerador LHC del CERN
(Laboratorio Europeo de Física de Partículas, junto a Ginebra), basa su esperada
existencia en una aplicación del mecanismo premiado.
Nambu, japonés nacionalizado estadounidense, ha hecho otras
contribuciones espectaculares a la física teórica. Sobresale como una figura de
inmensa talla científica y es el suyo un Premio Nobel indiscutible y pendiente
desde hace muchos años.
La otra mitad del premio señala los soberbios trabajos de los
científicos japoneses Kobayashi y Maskawa sobre otra fascinante simetría, ésta
rota de verdad, que relaciona materia con antimateria y se apoya en la
existencia de una tercera familia de partículas elementales. Toda la
materia del universo visible está hecha de un pequeño kit básico de
partículas-Lego, dos de las cuales son quarks. A ese kit básico se le
llama primera familia. Sin embargo, en colisiones de alta energía se producen
dos réplicas más pesadas de ese kit.
Kobayashi y Maskawa fueron quienes propusieron la existencia
de la tercera familia réplica, luego confirmada experimentalmente. Además,
señalaron que con tres familias en el seno del Modelo Estándar se podía violar
una cierta simetría llamada CP. CP relaciona materia con antimateria, o si se
prefiere cada partícula con su antipartícula.
Materia y antimateria se comportan casi igual, pero no del
todo. Una partícula y su antipartícula tienen la misma masa pero carga opuesta.
Obviamente, el mundo que nos rodea está hecho de materia, no de antimateria, y
fue pues muy bienvenido el que la teoría que pretende explicar las interacciones
básicas reflejara esa asimetría ya a nivel microscópico, en su mismo esqueleto.
Los experimentos realizados en laboratorio sobre violación de
CP confirman el mecanismo premiado. Lo que sin embargo no ha explicado ese
mecanismo es la asimetría materia-antimateria observada en el mundo
macroscópico, es decir, cómo es que no hay traza alguna de antimateria tras la
evolución cosmológica del universo posterior al Big Bang, cuando tanto en rayos
cósmicos como en nuestros laboratorios producimos con facilidad tanta
antimateria como materia. Es éste uno de los grandes misterios científicos que
aguardan resolución. El trabajo de Kobayashi y Maskawa, aunque no lo explica,
sirve de guía en tal búsqueda.
Todo ello está muy bien... si no fuera porque el mecanismo se
conoce en la comunidad científica por mecanismo CKM, acrónimo de Cabibbo-Kobayashi-Maskawa.
Al conocerse la noticia del Nobel para Kobayashi y Maskawa, la reacción típica
de los colegas ha sido "Ah, ¡qué bien! ¡qué bien!... pero [mirada perpleja]...
¿y Cabibbo?".
Nicola Cabibbo es un gran físico italiano al que se atribuye
la paternidad última del mecanismo. Allá por los años sesenta reinaba el caos en
el entendimiento de las desintegraciones de muchas partículas. El tiempo y los
productos de desintegración variaban mucho y de modo extraño. En medio de aquel
marasmo, Cabibbo supo ver una increíble regularidad: que actuaba una única
fuerza, la débil o radiactiva, y por tanto una única intensidad, pero los quarks
sólo participaban combinados en mezclas particulares, en cócteles de quarks de
masas diferentes. Había nacido el concepto de mezcla de familias.
Kobayashi y Maskawa sencillamente generalizaron esa idea de
mezcla de Cabibbo de dos a tres familias: la tercera tiene que mezclarse con las
otras dos para que haya violación de CP. Así pues, aun celebrando la muy
acertada atribución del Premio Nobel a Kobayashi y Maskawa, hay una triste
perplejidad por la omisión de Cabibbo. Se diría que también algo de asimetría
parece haber permeado esta elección.
El comité Nobel ha significado, pues, este año trabajos
teóricos fundamentales para identificar las simetrías, exactas o rotas, que
describen el orden escondido de la naturaleza. Ellas son clave en la búsqueda
del origen de la masa de todo el universo visible y de las mezclas entre sus
constituyentes. Tal es el reto presente en física de partículas. El paso
siguiente podría ser el descubrimiento de la partícula de Higgs en el LHC.
Sospechamos que tras él nos aguardan nuevas simetrías apasionantes.
Fuente: elpais.com, 15 de Diciembre de 2008
-La NASA intentará que el telescopio Hubble resucite el
Viernes
La NASA trabaja desde este miércoles para conseguir que el telescopio
espacial Hubble vuelva a enviar información a la
Tierra, según explicó la agencia espacial de EEUU ayer. Desde la avería
que sufrió hace dos semanas, el que quizá sea el instrumento científico espacial
más valioso permanece incomunicado. Los
ingenieros de la NASA van a reconfigurar el telescopio para que comience a
funcionar con su cara B o sistema de respuesto. Si todo va bien, los datos
volverán a fluir desde el Hubble el viernes.
Hubble
Art Whipple, director de la oficina de gestión de sistemas del telescopio, se
mostró optimista respecto al trabajo que
su equipo llevará a cabo en los próximos días, pero reconoció que si fracasan,
el telescopio no podría desarrollar sus principales funciones científicas hasta
que llegase el equipo de reparación con el lanzamiento del shuttle previsto para
febrero de 2009.
Además, en caso de que la cara B del Hubble no funcione, la misión de
mantenimiento tendrá que realizar un trabajo
doble, porque además de los mecanismos principales tendría que reparar
los de repuesto. Si el el plan funciona, el telescopio seguirá en marcha con el
equipo de repuesto, aún cuando se repare el principal.
El telescopio espacial Hubble fue lanzado hace ya 18 años y muchos de sus
instrumentos siguen funcionando desde entonces.
Fuente: publico.es, 14 de Octubre de 2008
-"La enfermedad ha dejado de dar miedo al mundo
desarrollado"
Una fotografía de Françoise Barré-Sinoussi, rodeada de
guirnaldas navideñas y unos cuantos globos, junto a un cartel de
felicitación por el Nobel recién conquistado, adorna el pasillo de entrada
de la Unidad de Regulación de Enfermedades Retrovirales que dirige, en el
Instituto Pasteur de París. Para la institución, que el mes pasado cumplió
120 años, el galardón a una de sus investigadoras más destacadas ha sido el
mejor regalo de cumpleaños. Una demostración, quizás, de que el viejo
edificio, con su aspecto un poco caótico y descuidado, alberga dentro a la
flor y nata de la investigación francesa, por más que el Nobel premie un
hallazgo de hace 25 años.
Barré-Sinoussi (París, 30 de julio 1947) parece disfrutar
de su éxito con la misma discreción con la que ha vivido hasta ahora su
anonimato de investigadora apasionada por su trabajo, pero con escasa
proyección pública y prácticamente desconocida fuera de los ambientes
científicos. Su marido, fallecido hace pocos meses, no ha llegado a tiempo
de saborear un triunfo que sabe un poco a revancha, porque ella fue la
investigadora que descubrió el Virus de Inmunodeficiencia Humana (VIH), a
comienzos de 1983. Virus que más tarde sería identificado como el causante
del sida. Vestida con un traje de chaqueta en tonos vainilla y ocre, y
meticulosamente maquillada, Barré-Sinoussi se presenta ante la periodista
con un cigarrillo en la mano, y reclama un minuto para salir a fumárselo al
patio trasero del instituto.
La científica francesa Françoise Barré-Sinoussi-
G.
Pregunta. Es usted la primera mujer francesa que
recibe el Nobel de Medicina. ¿Cómo se siente?
Respuesta. Muy bien. La verdad es que la presencia de
la mujer en la investigación científica ha sido muy minoritaria durante siglos,
de manera que era normal esta falta de premios. Tampoco creo que haya que
enfocarlo de una manera estrictamente feminista. Pero estoy encantada y, para
ser sincera, muchos colegas masculinos me han felicitado efusivamente.
P. Ser mujer, ¿ha sido un obstáculo en su carrera?
R. Sí, desde luego. Sobre todo en los años ochenta. Yo
era más joven y las dificultades mucho mayores. Con los años, el porcentaje de
mujeres científicas ha aumentado mucho. En este trabajo se gana poco, por eso
hay cada vez más mujeres. Aunque en los niveles de responsabilidad sigue
habiendo pocas.
P. Los hombres tienen más exigencias económicas.
R. Históricamente era el hombre el que mantenía a la
familia, el que llevaba el sustento a casa. Por eso siempre ha estado más atento
a la cuestión económica.
P. En esta ocasión, en cambio, el Nobel la ha
preferido a otros miembros masculinos del equipo que descubrió el virus del
sida, por ejemplo, al profesor Jean Claude Chermann, con el que usted se inició
en la investigación, a principios de los años setenta.
R. Ha sido un poco triste, porque empecé trabajando
con él y le considero como un padre profesional. Además, formaba parte
del equipo que logró ese hallazgo. Son cosas de la vida. He hablado con él y
está dolido, es normal, pero al mismo tiempo está muy contento por mí. El
descubrimiento del virus del sida fue un trabajo de equipo en el que
participaron muchas personas, del Instituto Pasteur y de varios hospitales.
P. También usted ha esperado 25 años para recibir este
reconocimiento que, hasta ahora, se le atribuía exclusivamente al profesor Luc
Montagnier. ¿Cómo ha encajado tantos años de anonimato?
R. Bien. No me preocupaba en absoluto. Lo que se
adapta más a mi personalidad es trabajar en mi laboratorio, o viajar a los
países más afectados por el sida para ver sobre el terreno cual es la situación.
P. Dice que el descubrimiento le cambió totalmente la
vida. ¿En qué sentido?
R. Me hizo darme cuenta del alcance práctico de mi
trabajo. A partir de ese momento he tenido más clara la responsabilidad de mi
tarea, hasta el punto de que me ha llevado a olvidarme de mi vida personal. Me
he visto empujada por la urgencia de buscar fórmulas para mejorar la vida de los
pacientes.
P. Veo que pertenece usted a varios comités del
Instituto Pasteur, además de trabajar para la Agencia de Prevención del Sida,
que publica trabajos y asiste a simposios, conferencias, etcétera, ¿de dónde
saca el tiempo?
R. Duermo pocas horas, no más de cuatro, y trabajo 12
o 13 horas diarias. Nunca he considerado la investigación como una actividad
profesional, para mí es una pasión.
P. ¿Es cierto que estamos bajando la guardia con el
sida?
R. Hay sectores de la población con más riesgo que se
están olvidando de la prevención. Y lo mismo ocurre con los jóvenes. Se habla
mucho menos del sida que antes, y eso da miedo, porque la infección sigue ahí.
Muchos jóvenes piensan que el tratamiento es efectivo y que no hay que
preocuparse, pero, en realidad, el tratamiento no sólo es caro, es complicado y
para toda la vida.
Además, con el tiempo tiene efectos secundarios serios,
produce alteraciones del metabolismo. Por lo tanto, hay que prevenirse.
P. El fenómeno se produce además en el mundo
desarrollado.
R. Sí, en países occidentales, como Francia o España,
y es muy preocupante. Porque, además, la persona infectada por el virus tarda
mucho tiempo en ser consciente de ello y eso puede dar lugar a una cadena de
contagios. Por eso es fundamental el diagnóstico precoz, las pruebas, para
prevenir la transmisión del virus.
P. Las instituciones internacionales se han implicado
mucho últimamente en la lucha contra el sida.
R. Sí. El objetivo del fondo mundial de lucha contra
el sida es que haya un tratamiento universal para todos los afectados por la
enfermedad para 2010. Es un objetivo ambicioso con el que se puede soñar siempre
que la ayuda financiera de los países ricos siga llegando. Si el fondo de lucha
contra el sida, la tuberculosis y el paludismo sigue recibiendo este dinero, es
posible alcanzar ese objetivo. Lo malo es que no sabemos lo que va a ocurrir con
esos fondos con la actual crisis financiera en el mundo. Si disminuyen las
aportaciones, como nos tememos, sobre todo las del Gobierno de Estados Unidos,
la cosa se complica.
P. ¿En qué situación se encuentra la investigación
sobre el sida en estos momentos?
R. Se han hecho muchos avances pero hay muchas cosas
que no conocemos. Por ejemplo, si el virus es capaz de provocar la
inmunodeficiencia, ¿por qué en ciertos sujetos esto no se produce? En cuanto a
los modelos animales, tampoco sabemos por qué el mono verde no desarrolla la
enfermedad pese a estar infectado por un virus muy similar al VIH. Desconocemos
cuales son los mecanismos precisos de protección contra la infección. Y mientras
no se conozcan será difícil encontrar una vacuna contra el sida
Fuente: elpais.com, 12 de Octubre
de 2008
-La destrucción de la Amazonia no se
frena
La Amazonía brasileña sufre de una enfermedad crónica -la
deforestación- y sus médicos, las autoridades del país, no sólo no le ponen
cura, sino que están ayudando a extender este virus mortal. Este es el
diagnóstico que realiza el profesor de la Universidad de São Paulo Ariovaldo
Umbelino de Oliveira, un experto en desarrollo agrario cuyo equipo ha sido
responsable de los estudios de impacto ambiental de importantes infraestructuras
en la selva.
Imagen por satélite de un área del estado de Mato Grosso en el año 200 y en el
2007 (Foto: Univ. de Sao Paulo)
"Cada año desaparecen por la deforestación 15.000
kilómetros cuadrados de selva por la explotación de la madera, la
agropecuaria y la soja. Durante cuatro años conseguimos que esta cifra se
redujera, pero desde 2007 ha vuelto a aumentar porque se utiliza una nueva
estrategia para evitar el control gubernamental", asegura este experto, que ha
visitado Madrid invitado por CosmoCaixa para participar en un ciclo de
conferencias sobre un posible desarrollo sostenible en la cuenca del Amazonas
(hasta el 4 de noviembre).
La estrategia a la que se refiere Umbelino de Oliveira tiene
como objetivo evitar la vigilancia vía satélite, el instrumento
que en los últimos años utiliza el Gobierno de Lula para saber qué áreas se
están devastando, dado que, hasta ahora, las dimensiones de la Amazonia, una
región de siete millones de kilómetros cuadrados, hacía imposible este control.
Consiste en que los ganaderos aprovechan para talar
árboles la época de lluvias, porque las nubes tapan las cámaras de los satélites.
La deforestación afecta a tierras de titularidad
pública, de las que los terratenientes se apropian ilegalmente. "La ley
les favorece porque si un propietario deforesta más de lo que la ley le permite,
que es un 20%, puede comprar otra tierra con el compromiso de no talarla. El
problema de Brasil es que no se cumplen las leyes y que lo habitual es que
eliminen hasta el 80% de los árboles", acusa el profesor.
¿Cómo es posible ese descontrol? "Pues porque los empresarios
y los terratenientes presionan a diputados y senadores que, a su vez, los
necesitan para mantenerse en el poder", asegura De Oliveira.
La Amazonía brasileña sufre de una
enfermedad crónica -la deforestación- y sus médicos, las autoridades del país,
no sólo no le ponen cura, sino que están ayudando a extender este virus
mortal. Este es el diagnóstico que realiza el profesor de la Universidad de
São Paulo Ariovaldo Umbelino de Oliveira, un experto en desarrollo agrario cuyo
equipo ha sido responsable de los estudios de impacto ambiental de importantes
infraestructuras en la selva.
"Cada año desaparecen por la deforestación 15.000
kilómetros cuadrados de selva por la explotación de la madera, la
agropecuaria y la soja. Durante cuatro años conseguimos que esta cifra se
redujera, pero desde 2007 ha vuelto a aumentar porque se utiliza una nueva
estrategia para evitar el control gubernamental", asegura este experto, que ha
visitado Madrid invitado por CosmoCaixa para participar en un ciclo de
conferencias sobre un posible desarrollo sostenible en la cuenca del Amazonas
(hasta el 4 de noviembre).
La estrategia a la que se refiere Umbelino de Oliveira tiene
como objetivo evitar la vigilancia vía satélite, el instrumento
que en los últimos años utiliza el Gobierno de Lula para saber qué áreas se
están devastando, dado que, hasta ahora, las dimensiones de la Amazonia, una
región de siete millones de kilómetros cuadrados, hacía imposible este control.
Consiste en que los ganaderos aprovechan para talar
árboles la época de lluvias, porque las nubes tapan las cámaras de los satélites.
La deforestación afecta a tierras de titularidad
pública, de las que los terratenientes se apropian ilegalmente. "La ley
les favorece porque si un propietario deforesta más de lo que la ley le permite,
que es un 20%, puede comprar otra tierra con el compromiso de no talarla. El
problema de Brasil es que no se cumplen las leyes y que lo habitual es que
eliminen hasta el 80% de los árboles", acusa el profesor.
¿Cómo es posible ese descontrol? "Pues porque los empresarios
y los terratenientes presionan a diputados y senadores que, a su vez, los
necesitan para mantenerse en el poder", asegura De Oliveira.
La consecuencia es mortífera para la cuenca amazónica: un 30%
está en manos privadas, aunque sólo un 5% tiene títulos de propiedad
legales. La situación, según los datos más recientes, es especialmente
grave en los estados de Mato Grosso y Pará.
La preocupación por este inmenso pulmón del planeta, afectado
por el cáncer de un desarrollo que le devora lentamente, ha aumentado con la
aprobación, el pasado mes de agosto, de una nueva ley que permite
regularizar áreas ocupadas ilegalmente de hasta 1.500 hectáreas de extensión.
El experto brasileño comenta que se trata de "una ley inconstitucional, porque
la Constitución sólo permite hasta 100 hectáreas y, por lógica, aumentará aún
más el desastre". El proceso es el siguiente: los ganaderos van en busca de
nuevas tierras porque las suyas se reconvierten para el cultivo de la caña de
azúcar, que se paga mejor. Por ello 'okupan' tierras de la selva y talan los
árboles cuando llueve. Con la venta de las maderas nobles, se ponen
vallas en el terreno.
El siguiente paso consiste en eliminar toda la vegetación
arbustiva para pastos o cultivos. El rico ecosistema tropical, su flora y su
fauna, desaparece para siempre y se convierte en sabana. En Brasil se
cultivan siete millones de hectáreas de caña de azúcar y 22 millones de soja,
casi toda para exportar, según datos aportados por el investigador.
Respecto a la caña, el 55% se destina a la producción de
etanol, que se utiliza como combustible para los coches. El presidente Lula
lleva tiempo tratando de vender este etanol en Europa y Estados Unidos para
luchar contra el cambio climático.
"En mi universidad hemos probado que el etanol produce otros gases y
favorece la generación de ozono de superficie, del cual aún se
desconocen las consecuencias. Sin olvidar que el 65% de la caña de
azúcar se recoge tras quemarla y ello también genera CO2", argumenta el
investigador brasileño.
Construcción de carreteras
Estos negocios agrarios a gran escala tienen otro impacto directo: la
construcción de carreteras para sacar los productos. Es el caso de la
autovía que atraviesa Mato Grosso y Pará, en cuyo informe de impacto ambiental
participó De Oliveira.
Ahora, trabaja en el informe sobre otra vía planificada en Boca do Accre, al
sur de la Amazonia, un área donde viven comunidades indígenas de
apurinás con tierras aún no demarcadas y que se verían gravemente
afectados por un proyecto cuya finalidad es transportar la carne que producen
allí dos grandes empresas. Para implicarles en sus negocios, los ganaderos,
explica Oliveira, les ofrecen una de cada cinco cabezas de ganado que
crían. Para el investigador brasileño «se les está comprando para
deforestar sus tierras».
Sin embargo, aún no ha perdido la esperanza: "Los indígenas siempre
preservaron la selva. El problema son los agronegocios, que sólo han
dejado un 4% de cobertura vegetal en el estado de São Paulo", recuerda.
"El Gobierno no tiene una política de control; aunque aumentó las zonas
protegidas en los últimos años, no es suficiente. La solución debe pasar porque
el mercado internacional deje de presionar en el consumo de materias primas de
la Amazonia. Y que se entregara la tierra a los indígenas para que preserven la
selva. La floresta se autoalimenta, pero si la derribamos no crecerá más".
Fuente: elmundo.es, 12 de Octubre de 2008
-Hallan bajo tierra el primer ecosistema
formado por una única especie
Es el primer ecosistema jamás encontrado que conste de
una sola especie. Fue hallado bajo 2.800 metros de sólida roca, en el
corazón mismo de una mina de oro sudafricana, cerca de Johannesburgo. Su
habitante único es una bacteria en forma de bastoncillo, bautizada como
Desulforudis audaxviator y que es capaz de vivir en el más completo
aislamiento, en la más total oscuridad, sin oxígeno y a una temperatura de
60 grados centígrados, alimentándose del hidrógeno y los sulfatos
producidos por la desintegración radiactiva del uranio del terreno que la
rodea.
Debido a su tremenda soledad (no se ha relacionado
jamás con ningún otro ser vivo), esta auténtica heroína de la vida ha
tenido que ingeniárselas para construir por sí misma las moléculas de su
organismo. Y lo ha hecho sin agua, a base de carbono inorgánico y otros
elementos que ha conseguido aprovechar (como el amoniaco) de las rocas
de alrededor.
Durante su largo viaje de miles de años hacia las
profundidades de la tierra, la evolución ha ido dotando a este
extraordinario organismo con una serie de genes que le han permitido
desarrollar capacidades únicas, gracias a las que ha conseguido hacer
frente a un amplio abanico de condiciones hostiles.
Un organismo aparte
Muchos de esos genes son del mismo tipo de los que se
encuentran en «archaea», un dominio de la vida recientemente descubierto, y
por completo diferente a los otros dos (bacteria y eukaria, al que pertenecen
todas las criaturas formadas por célunas con núcleo). El estudio, que se
publica hoy en la revista Science, ha sido dirigido por Adam Arkin y Terry
Hazen, del Berkeley Lab y por el Instituto de Astrobiología de la NASA.
El microorganismo fue descubierto en una muestra de roca
obtenida de la mina de Mponeng, y su extraordinario genoma secuenciado y
analizado con una técnica denominada «genómica medioambiental» o «metagenómica».
Una de las cuestiones que surgen al considerar la capacidad
de otros planetas para albergar vida es precisamente la de saber si es posible
la existencia de organismos que vivan completamente aislados e incluso sin
acceso a la luz del Sol. A partir de ahora se puede responder a la pregunta
con un «sí». Varios de los investigadores que han tomado parte en el estudio
se han mostrado entusiasmados con la idea de que todo lo necesario para la
vida pueda estar «empaquetado» dentro del genoma.
Fuente: abc.es, 10 de Octubre de 2008
-La
ciencia que nos salvará de la crisis
Me sorprende mucho la
visión que los anglosajones tienen de la ciencia, tan opuesta a la nuestra.
Seguro que me corregiréis si me equivoco, pero en España, la idea de fondo
-generalizada aunque quizá no admitida- es que la ciencia es algo que está bien
tener, como de adorno, pero que no tiene ninguna aplicación práctica para
resolver los problemas del día a día. Es algo así como la reacción de mi madre
que, ante la acumulación de libros que tomaba por completo la librería del
salón, y mi defensa alengando “no son sólo libros, mamá, es cultura”, solía
contestar, “si mucha cultura, mucha cultura, ¿nos dará dar de comer la cultura?”
.
Pues si. Pensamos que la ciencia no da de comer, pero los americanos y los
ingleses tienen un concepto opuesto. En realidad, para ellos, la ciencia se
encuentra en el origen mismo de la creación de empleo.
Sin inversión no hay innovación, sin innovación no hay
creación de empleo, no hay nuevas industrias y eso quizá explica por qué en
aquellos lugares no se depende del turismo como motor de la economía
Alguna (de las muchas)
organizaciones de defensa de la importancia de la ciencia
(¿cuántas de
éstas tenemos en España?) de Estados Unidos publicaba hace unos días una
lista de las preguntas que se iban a plantear a Obama y a McClain, para
medir con sus respuestas, lo adecuado de que sean presidentes. Inaudito, que
las decisiones en cuestiones de nuclear-carbon y captura de carbono, si o no,
nanotecnología o biología sintética puedan determinar los votos hacia un
candidato. Nada que ver con nuestra realidad, donde aún utilizamos argumentos
muchos más sentimentalistas, nada científicos, mucho menos empíricos y
recurriemos la mayor parte de las veces a los golpes bajos (aunque de esto los
americanos también son culpables).
Pero eso, si, como son los americanos, y como serían los ingleses, el
documento argumentaba la importancia de la inversión en investigación básica
no con razonamientos apasionados, sino con datos incontestables.
¿Cómo puede entonces la investigación básica contribuir en la crisis
económica? Pues por que más de la mitad del crecimiento económico americano de
los últimos 60 años se pueden relacionar con innovación científica y
tecnológica. Asi, a bocajarro, parece difícil de creer, ¿verdad? Pues miremos
a la industria biotecnológica, que tiene el potencial de generar 70 mil
millones de dólares o digamos que sólo en el 2006 se crearon 553 compañías
para explotar comercialmente la tecnología originada en los laboratorios..
A los que no les sirvan estos datos hay más. Podemos tomar en cuenta ése que
dice que la industria relacionada con la nanotecnología tiene el potencial de
generar más de dos mil millones de dólares de beneficios, o , podemos también
mirar por ahí a los muchos datos disponibles, de todos esos informes que
estiman el potencial de crecimiento de todo el sector económicos relacionados
con las tecnologías limpias.
Y es qué como diría Einstein.. en medio de la dificultad yace la oportunidad..
Ésta parece entonces una ocasión de oro.
Fuente: Blog ciencia centrífuga, 9 de Octubre de 2008
-Un
equipo de científicos obtiene células madre pluripotentes a partir de testículos
humanos
Un grupo de científicos alemanes y británicos ha obtenido
por primera vez células
madre pluripotentes a partir de células espermatogónicas procedentes de
testículos humanos,
lo que abre nuevas posibilidades para la
medicina regenerativa.
En su investigación,
que recoge la revista "Nature", el equipo dirigido por Thomas Skutella obtuvo
resultados similares a los registrados el año pasado en un experimento con
ratones, lo que confirma que está más cerca "la posibilidad de generación de
células para tratamientos individuales", indica la revista.
Skutella, director del Centro de Biología y Medicina Regenerativa de Tübingen
(Alemania), y sus colegas demostraron que es posible obtener células parecidas a
las embrionarias de una biopsia testicular. Las células madre son células
inmaduras que pueden desarrollarse en uno o más tejidos de diferentes tipos, por
lo que son clave para la investigación y posible tratamiento de muchas
enfermedades. Los expertos obtuvieron las células madre a partir de la
biopsia testicular realizada a 22 varones de edades entre los 17 y los 81 años.
Las muestras obtenidas fueron tratadas en cultivos con varios químicos
biológicos para producir células madre de línea germinal (con material genético)
con propiedades pluripotentes. Posteriormente, éstas fueron separadas para
producir varias líneas celulares. Tras una serie de pruebas, los expertos
comprobaron que las células madre obtenidas tenían un cariotipo normal (46
cromosomas) y también los mismos marcadores presentes en las células madre
embrionarias. Previamente, ya se había demostrado que las células madres
germinales derivadas de testículos de ratones tenían propiedades pluripotentes.
En el caso del estudio presentado, varias pruebas clínicas demostraron que las
células obtenidas eran, en efecto, capaces de diferenciar entre células
nerviosas, del páncreas, musculares o de los huesos. "La generación de células
madre germinales adultas de biopsias testiculares puede proporcionar un acceso
simple y no controvertido a tratamientos individuales basados en células sin los
problemas éticos e inmunológicos asociados con las células madre embrionarias",
concluyen los científicos en "Nature". La obtención de células madres del tejido
testicular abre muchas posibilidades de tratamiento individual porque, entre
otras cosas, al ser el paciente el donante, habría menos riesgo de rechazo del
tejido implantado.
Además, plantea menos cuestiones éticas que el uso de células obtenidas de
embriones, o humanos no nacidos. Los propios expertos reconocen, sin embargo,
que existe el riesgo de que los tratamientos que utilizan células inmaduras
puedan causar cáncer, ya que éstas son muy similares a los tumores. De hecho,
las utilizadas en la investigación dirigida por Skutella provocaron tumores
cuando fueron implantadas en ratones inmunodeficientes.
Fuente: EFE, 9 de Octubre de 2008
-Investigadores comunitarios ponen en marcha un nuevo proyecto sobre fusión por
láser
El proyecto, denominado HIPER («Láser de
alta potencia para la investigación energética»), reúne a veintiséis socios de
diez países. Además de allanar el camino para la construcción de una central
eléctrica comercial basada en la fusión por láser, HIPER facilitará la
investigación de algunas de las condiciones más extremas del universo, como las
que se dan en el centro del Sol o en la explosión de una supernova. En el
interior de las instalaciones de HIPER, la temperatura alcanzará cientos de
millones de grados, la presión será de miles de millones de atmósferas y se
generarán campos eléctricos y magnéticos de enorme potencia.
HIPER project
«Vivimos una época muy emocionante para la fusión», declaró el profesor Mike
Dunne del Science and Technology Facilities Council del Reino Unido y
coordinador del proyecto HIPER. «La Comunidad Europea ha definido una estrategia
de futuro centrada en este nuevo proyecto. Veintiséis instituciones de diez
naciones trabajan juntas para conseguir este objetivo, en el que se combina la
ciencia de lo extremo con uno de los temas que más apremia a nuestra sociedad.
La fusión no es un parche momentáneo, sino que está pensada para cubrir las
necesidades de nuestra civilización a largo plazo.»
La fusión es la fuente de energía del Sol y del resto de estrellas. Se produce
cuando el deuterio y el tritio (dos isótopos del hidrógeno) se unen para crear
un átomo de helio, una partícula denominada neutrón y muchísima energía. Para
que se produzca esta reacción, el combustible debe calentarse a millones de
grados centígrados. En condiciones normales, cuando la materia se calienta
también se expande y, a medida que los átomos se separan, se reduce la
probabilidad de que se unan entre ellos.
Para que los átomos permanezcan juntos se debe confinar el combustible en un
espacio pequeño. Una manera de conseguir este resultado es encerrando el plasma
en un campo magnético o eléctrico, estrategia ésta seguida por el experimento
internacional ITER, actualmente en construcción en el sur de Francia.
El proyecto HIPER ha tomado, sin embargo, otro camino. HIPER se vale de láseres
para comprimir una pequeña bola de combustible de deuterio-tritio hasta
conseguir una densidad muy alta. De este modo se obliga a los átomos del
combustible a juntarse, lo que aumenta la probabilidad de reacción entre ellos.
A continuación, el combustible se expone a un láser extremadamente potente que
eleva la temperatura hasta el nivel necesario para que se produzca la fusión.
Se prevé que la fase preparatoria del HIPER continúe hasta 2011, y que se
alcance un acuerdo para su construcción dos años más tarde. Los socios del
proyecto confían en que su construcción comenzará poco después y se terminará en
2020.
«Los beneficios de la energía de fusión son indudables cuando la humanidad se
enfrenta a los formidables retos del cambio climático, la polución, la seguridad
energética y la cada vez mayor demanda de energía», declaró el profesor Dunne. «HIPER
representa un paso adelante muy importante en ese sentido.»
HIPER recibe financiación del Séptimo Programa Marco (7PM) y está recogido en la
hoja de ruta europea para las infraestructuras de investigación publicada en
octubre de 2006 por el ESFRI (Foro Estratégico Europeo sobre Infraestructuras de
Investigación).
Fuente: CORDIS, 9 de Octubre de 2008
-El Nobel de Química premia el
descubrimiento y desarrollo de la proteína verde fluorescente
Osamu Shimomura, del Laboratorio de
Biología Marina (Massachusetts); Martin Chalfie, de la Universidad de Columbia
(Nueva York); y Roger Y. Tsien, de la Universidad de California (San Diego), han
sido galardonados con el Premio Nobel de Química por "el descubrimiento y
desarrollo" de la proteína verde fluorescente (GFP, por sus siglas en inglés),
una de las principales herramientas de trabajo de la biociencia moderna.
Los
premiados Martin Chalfie, Osamu Shimomura y Roger Tsien. (Fotos: Reuters)
La proteína GFP se observó por primera vez en la década de
los 60 en la medusa 'Aequorea victoria', en la costa oeste de Norteamérica.
Osamu Shimomura, nacido en 1928, fue el primero en aislarla y
en descubrir que, bajo la luz ultravioleta, la proteína brillaba de color verde
fluorescente.
"El descubrimiento de esta proteína fue un logro
biológico digno de destacar, como han hecho ahora", señala a elmundo.es
Ricardo Martínez, investigador en el campo de la Neurobiología del Instituto
Cajal del Consejo Superior de Investigaciones Científicas.
El trabajo realizado por el estadounidense de 61 años Martin
Chalfie, demostró su utilidad a la hora de 'iluminar' distintos
fenómenos biológicos. Uno de sus primeros experimentos consistió en
colorear seis células, hasta ese momento transparentes, del 'Caenorhabditis
elegans', uno de los gusanos más estudiados en los laboratorios científicos. El
más joven de los tres galardonados, Roger Y. Tsien, de 56 años, también dedicó
gran parte de su trayectoria profesional a esta proteína. Gracias a él, el
marcador puede iluminar las células y las proteínas con distintos
colores, no sólo el verde fosforescente.
"El poder combinar distintos colores resulta
fundamental. Por ejemplo, te permite marcar las células implicadas en
un proceso y luego, en distintos colores, las que participan en una fase
temprana, media o tardía", destaca Antonio Bernard, jefe del departamento de
Cardiología Regenerativa del Centro Nacional de Investigaciones Científicas (CNIC).
El director del Centro Andaluz de Biología del Desarrollo del
CSIC, Acaimo González, también señala otra ventaja de los diferentes colores de
la GFP. "En una misma célula puedes introducir diferentes variantes para, por
ejemplo, visualizar en rojo el contorno celular, en azul el núcleo, en amarillo
el citoesqueleto y el verde el ADN y ver cómo se coordinan entre ellos", indica.
Este investigador, que trabaja en el estudio de células madre con la mosca
Drosophila, explica que en sus estudios utiliza habitualmente esta proteína para
ver cómo influye el ambiente en las células troncales y cómo se comportan éstas.
El empleo de la GFP, que lleva más de una década
utilizándose, "es una técnica que ha revolucionado la biología celular y
molecular y forma parte de la rutina diaria completamente. Por eso nos ha
sorprendido tanto el Nobel, casi te olvidas de las personas que desarrollaron la
herramienta que usas tan a menudo", añade Bernard. Los tres galardonados
compartirán a partes iguales las 10 millones de coronas suecas
(alrededor de un millón de euros).
Investigaciones 'iluminadas' con la proteína
Por tanto, además de premiar el descubrimiento, en esta
ocasión la Academia Sueca ha reconocido los trabajos posteriormente realizados
con la ayuda de la GFP. En la actualidad, y desde hace aproximadamente una
década, es bastante corriente que los expertos inyecten el gen
que produce esta proteína para visualizar células. Gracias a ello, se han podido
observar procesos hasta ahora invisibles, como el desarrollo de las células
nerviosas o el movimiento de las células cancerosas.
Los investigadores suelen utilizar esta proteína como apoyo
de sus estudios. Se trata de una herramienta de trabajo, no de una terapia, con
la que pueden valorar la eficacia de la inserción de otros genes, cómo actúa un
tratamiento a nivel biológico o cómo los vasos sanguíneos dan soporte a ciertos
tumores. Según explica Ricardo Martínez, "el empleo de esta proteína
resuelve muchos problemas de identificación. Dentro de la
neurobiología, en el estudio del cáncer y en la biología en general es muy útil
ya que permite visualizar el procedimiento biológico de incorporación de genes.
Un ejemplo de su uso es en el estudio de la angiogénesis. Hay ratones
transgénicos que tienen el endotelio de sus vasos marcados con esta proteína", y
gracias a que sus venas y arterias presentan un tono fluorescente se puede
evaluar algunos procesos tumorales.
El daño neuronal que sufren los pacientes con
Alzheimer o la creación de células productoras de insulina son otros de
los campos destacados por la Fundación Nobel y en los que la fluorescencia ha
resultado esencial.
Aunque su uso va más allá. Tal y como señala María Montoya,
jefe de la Unidad de Microscopía Confocal y Citometría del Centro Nacional de
Investigaciones Oncológicas, "hoy en día se utiliza en todos los campos de la
investigación sobre todo en biología celular. Además, gracias a la multitud de
colores que ha conseguido Roger Tsien también se puede emplear en el estudio de
plantas, ya que antes el verde fluorescente no permitía su uso en ellas".
Montoya explica que antes de su descubrimiento la única
manera de observar las estructuras celulares eran tiñéndolas externamente, eran
células fijadas (muertas) y manipuladas. "Ahora, con la GFP se pueden hacer
estudios de microscopía en células vivas, intactas y en procesos dinámicos".
Hace años, la visualización era como una foto 'fija' de las estructuras y ahora
se podría decir que esta proteína permite ver el 'vídeo' en tiempo real de los
procesos biológicos. Por ejemplo, en el vídeo adjunto, según
explica Montoya, se puede observar la dinámica molecular de una proteasa (MT1-MMP),
que desempeña un papel importante en la degradación de la matriz de los tejidos
durante la invasión tumoral. "La función de MT1-MMP es clave para el desarrollo
de metástasis en cáncer y la utilización de GFP nos ha permitido desenmascarar
el mecanismo molecular responsable de la función pro-invasiva de esta molécula".
"En un experimento espectacular, los investigadores fueron
capaces de marcar distintas células nerviosas en el cerebro de un ratón con un
caleidoscopio de colores", apunta la Academia Sueca en un
comunicado.
No obstante, como resalta el científico del CNIC, el
potencial de esta herramienta está prácticamente sin explotar. "Sabemos
dónde se encuentran las proteínas pero no conocemos las secuencias reguladoras
de la mayoría, cómo se regulan, por qué se expresan de una forma u otra... Hasta
que no tengamos más información de ese tipo no podremos sacar más provecho de la
GFP".
Fuente: elmundo.es, 8 de Octubre de 2008
-Seis
ordenadores pasarán el test de Turing para comprobar si "piensan"
Un día los ordenadores podrán mantener una conversación con nosotros como
si aparentemente fueran otra persona. Quizás ese día ya ha llegado. El
próximo domingo, seis programas informáticos de inteligencia artificial
serán sometidos al test de Turing. Si durante cinco minutos alguno de los
ordenadores que apliquen los programas genera un diálogo por escrito que
no pueda distinguirse del que sería propio de una persona, se marcará un
hito.
Pasar la prueba, que tiene lugar anualmente desde hace casi veinte años,
significaría que la «mente» de los ordenadores ha dejado atrás su infancia
para entrar en la madurez, fruto de los grandes progresos que en el campo
de la inteligencia artificial se han realizado los últimos años. Según el
científico Kevin Warwick, el momento de superar el test de Turing está muy
cercano y bien podría ocurrir el próximo domingo en la Universidad de
Reading, donde tendrá lugar la convocatoria del Premio Loebner para
Inteligencia Artificial.
El test fue creado a mediados del siglo pasado por el matemático británico
Alan Turing con el fin de probar la capacidad de un ordenador para pensar
independientemente, tal como lo haría un ser humano, de forma que por la
secuencia lógica de sus respuestas engañe a quienes lo juzgan y les
convenza de que han sido dictadas por una persona. Turing había ayudado a
descifrar los códigos secretos del Ejército alemán durante la Segunda
Guerra Mundial, y publicó su propuesta en 1950 en la revista «Mind».
Examen a tres bandas
El domingo se pondrán a prueba seis programas de inteligencia artificial.
A estas «entidades conversadoras artificiales» se les ha bautizado con los
nombres de Alice, Brother Jerome, Elbot, Eugene Gootsman, Jabberwacky y
Ultra Hal. Quienes les examinen se sentarán a un teclado, delante de una
pantalla de ordenador dividida en dos, en la que mantendrán
simultáneamente conversaciones con otros dos participantes. Uno de ellos
será una persona, que no estará a la vista ni será conocida por el
interrogador, el otro será un ordenador.
Si en una conversación por escrito sobre cualquier tema este último
consigue burlar durante cinco minutos a quien le examina, haciéndole creer
que la máquina es la que produce el otro diálogo, entonces se dará por
superada la prueba. Sería la primera vez que esto ocurre. Desde 1990, el
Premio Loebner para Inteligencia Artificial ofrece una medalla de oro de
18 quilates y 100.000 dólares a quienes diseñen un programa que supere el
test de Turing. Aún no ha sucedido, pero «las máquinas están cada vez más
cerca», advierte Warwick.
De tener éxito, se trataría de un salto similar al dado por el
supercomputador Deep Blue de IBM en 1997 al derrotar al campeón mundial de
ajedrez Garry Kasparov. Además, generaría preguntas de gran calado como la
posibilidad de que los ordenadores tengan conciencia y, de ser así, la
autoridad moral de un humano para «desenchufarlo».
Fuente: abc.es,
8 de Octubre de 2008
-El Nobel de Física premia la teoría que cambió la
comprensión del universo
El universo, sencillamente, no existiría si las leyes de
la naturaleza fueran perfectamente simétricas. Hace casi 14.000 millones de
años, durante el Big Bang, cuando surgió todo lo que podemos observar hoy,
una pequeña «ruptura de la simetría» inicial hizo posible que la materia se
desarrollara y adquiriera las formas que nos son familiares ( planetas,
estrellas, galaxias...).
En principio, y según hemos ido aprendiendo la manera en
que funcionan las cosas, en el momento de la gran explosión se debería de
haber creado exactamente la misma cantidad de materia que de antimateria. Y
debido al hecho de que ambas, cuando entran en contacto, se aniquilan
mutuamente, el resultado lógico es que toda la materia que vemos no debería
de existir.
Sin embargo, el hecho mismo de que estemos aquí demuestra
que, por alguna razón, en el origen hubo un ligero «exceso» de materia con
respecto a la antimateria. En una proporción mínima (cerca de un átomo por
cada 10.000 millones), pero suficiente para dar cuenta de todo lo que
existe. Cuando toda la materia se destruyó al interactuar con la
antimateria, ese pequeño «sobrante» dio origen al universo en el que
vivimos. Después, y gracias a otra asímetría (esta vez en la temperatura),
esa materia sobrante se fue concentrando en puntos privilegiados del joven
universo en expansión, dando lugar a estructuras cada vez más y más
complejas.
Ayer, más de tres décadas después de que el
norteamericano Yoichiro Nambu, de origen japonés, se diera cuanta de ese
hecho fundamental, la Academia sueca le otorgó, precisamente por ese motivo,
el Nobel de Física de este año. Un premio, por cierto, compartido con otros
dos científicos japoneses, Makoto Kobayashi y Toshihide Maskawa, cuyo
trabajo, partiendo de las premisas sentadas por Nambu, les llevó a postular
la existencia de tres familias de quarks, los «ladrillos fundamentales» de
los que toda la materia está hecha.
Las partes del átomo
Gracias a su trabajo, la imagen clásica de un átomo
constituido por un núcleo pesado (protones y neutrones) rodeado por una nube
de electrones dejó paso a otra en la que también los protones y los
neutrones se pueden dividir en partes. De hecho, cada una de estas
partículas es la suma de tres quarks diferentes. «Nambu tuvo las
extraordinarias ideas básicas. Los otros dos se encargaron luego de un
problema irresoluto», dijo ayer Lars Brink, que forma parte del Comité Nobel.
A Nambu, de 87 años, le fue concedida la mitad del galardón de diez millones
de coronas (un millón de euros) por el descubrimiento del mecanismo de
ruptura espontánea de simetría en la física subatómica. El estadounidense
trabaja en el Instituto Enrico Fermi de la Universidad de Chicago. La otra
mitad del premio la comparten Kobayashi, de 64 años, y Maskawa, de 68.
Kobayashi es profesor emérito de la Organización de Investigación de
Aceleradores de Alta Energía (KEK) de Tsukuba; mientras que Maskawa, también
retirado, trabajó en el Instituto Yukawa de Física Teórica (YITP) de la
Universidad de Kyoto. Se espera que, entre otras cuestiones, el gran
acelerador de hadrones (LHC) pueda explicar en el futuro la razón de esta
asimetría entre materia y antimateria.
Fuente: abc.es, 8 de Octubre de 2008
-Nobel de medicina para los descubridores
del SIDA y el papiloma humano
Françoise Barré-Sinoussi, en una foto de archivo tomada en el Instituto
Pasteur de París en 2003-
REUTERS
Herald zur Hausen. EFE
Luc Montagnier, en una foto de archivo tomada en junio de 2004-
EFE
El Instituto Karolinska de Estocolmo ha distinguido con el
Nobel de Fisiología o Medicina 2008 a tres investigadores consagrados a la lucha
de enfermedades que afectan a millones de personas en todo el mundo. Se trata de
tres virólogos, el alemán Harald zur Hausen y los franceses Françoise Barré-Sinoussi
y Luc Montagnier. El primero de ellos ha sido premiado "por su descubrimiento de
los virus del papiloma humano causantes del cáncer cervical" o también llamado
de útero, el segundo cáncer más común entre las mujeres. Los dos científicos
franceses han sido reconocidos "por su descubrimiento del VIH", el agente
causante del síndrome de inmunodeficiencia adquirida (SIDA).
Tras la detección de los primeros casos de sida en 1981 en EE
UU, numerosos equipos de científicos comenzaron a buscar el agente culpable de
la enfermedad. Dos años después, en 1983, un grupo de especialistas del
Instituto Pasteur de París liderado por Françoise Barré-Sinoussi y Luc
Montagnier descubrieron el virus causante del sida a partir del análisis de los
hinchados ganglios linfáticos de pacientes severamente inmunodeprimidos. Barré-Sinoussi
y Montagnier definieron el virus encontrado como lymphadenopathy-associated
virus (virus asociado a la linfoadenopatía, LAV), que después recibiría el
nombre definitivo de human immunodeficiency virus (virus de la
inmunodeficiencia humana, VIH).
La Academia sueca destaca que nunca antes la ciencia había
logrado en tan corto espacio de tiempo encontrar el origen de un síndrome que
devino en pandemia. Esto ha permitido determinar el comportamiento del virus, el
diagnóstico de la enfermedad y limitar la expansión del sida gracias al
desarrollo de antivirales, que han posibilitando que, actualmente, la esperanza
de vida de las personas con sida sea prácticamente la misma que la de aquellas
sin el virus. Los científicos creen que el VIH pasó de los chimpancés a los
humanos en el oeste de África a principios del siglo XX, aunque lo que no se
sabe aún es por qué se extendió tan rápidamente a partir de 1970.
Espaldarazo a Montagnier respecto a Gallo
En la actualidad, Françoise Barré-Sinoussi, nacida en 1947,
trabaja en el departamento de Virología del Instituto Pasteur de París. Luc
Montagnier, nacido en 1932, forma parte de la Fundación Mundial para la
Investigación y Prevención del Sida de París.
El Nobel es un espaldarazo a Montagnier en la polémica sobre
la paternidad del hallazgo del virus que durante la década de los 80 mantuvo con
el estadounidense Robert Gallo. Ambos sellaron la paz años más tarde para unir
esfuerzos en la lucha contra la pandemia, después de que Gallo admitiera la
paternidad francesa. Montagnier y Gallo compartieron en 2000 el Premio Príncipe
de Asturias de Investigación Científica y Técnica por sus trabajos sobre el VIH.
En contra de las teorías dominantes en la década de 1970,
Harald zur Hausen (Gelsenkirchen, 1936), quien actualmente preside el Centro de
Investigación de Heidelberg, postuló que el virus del papiloma humano (HPV, por
sus iniciales en inglés) jugaba un importante rol en el desarrollo del cáncer
cervical, el segundo más común entre las mujeres. A partir de estudios con
liebres, el investigador alemán logró aislar dos cepas del virus del papiloma
humano implicadas en el 70% de los tumores de cuello de útero. Sus
descubrimientos permitieron el desarrollo de la vacuna contra el papiloma
humano, en el mercado desde 2006.
El premio de Medicina está dotado con diez millones de
coronas suecas (un millón de euros) y, como el resto de galardones Nobel, se
entregará el próximo 10 de diciembre, aniversario de la muerte de su fundador,
Alfred Nobel. Los tres galardonados hoy suceden a los genetistas Mario Capecchi,
Oliver Smithies y Martin J. Evans, premiados en 2007 por sus descubrimientos
relacionados con las células madres embrionarias y la recombinación del ADN en
mamíferos. Zur Hausen se llevará la mitad de los diez millones de coronas con
que está dotado el galardón, mientras que los dos franceses se repartirán la
otra.
El anuncio del Nobel de Medicina abre la ronda de estos
prestigiosos premios, que continuará esta semana, día a día, por este orden, con
los de Física, Química, Literatura y de la Paz; y finalizará el próximo lunes
día 13 con el de Economía.
Fuente: elpais.com, 6 de Octubre de 2008
-Punto de mira: La Tierra
Algo, tal vez el sentido común, induce a creer que deben existir numerosos
equipos de científicos dispersos por el mundo, manejando equipos sofisticados
con el fin de detectar y prevenir la posible colisión de algún asteroide con la
Tierra. Pero la realidad es diferente; según declaraba a
National Geographic el astrónomo del
Centro Ames de la NASA, David Morrison, “el número de expertos trabajando en
esto apenas cubriría un par de turnos en un McDonald’s”.
Recreación
de una colisión ficticia con un objeto de 500 kilómetros, unas 50 veces mayor
que el que pudo
aniquilar
a los dinosaurios. DON DAVIS/NASA
Este posible agujero en la seguridad del planeta no tiene visos de disminuir
a corto plazo. De hecho, una de las instalaciones que ejercen esta vigilancia,
el gigantesco radiotelescopio de Arecibo, en Puerto Rico, sufre amenaza de
cierre por falta de fondos. Y todo ello sobre un mar de fondo de controversia
acerca del riesgo real de que el asteroide Apophis, un vecino incómodo y
caprichoso, decida por fin hacer carambola con la Tierra en 2036.
¿Existe un verdadero riesgo? El director de la agencia rusa del espacio
Roskosmos, Anatoly Perminov, no lo duda: “el problema existe realmente”,
declaraba el mes pasado en entrevista al diario
Krasnaya Zvezda. Cada día los telescopios detectan uno o dos de los
llamados objetos cercanos a la Tierra (NEO, por sus siglas en inglés), aunque la
mayor parte de ellos son demasiado pequeños como para representar una amenaza.
Actualmente la NASA sigue la pista a 209 de esos objetos.
Pero los científicos estiman que un objeto de gran magnitud colisiona con la
Tierra cada 200 a 1.000 años y que en los próximos 15 años podría detectarse una
amenaza potencial. La última ocasión fue en 1908, cuando un meteorito explotó
sobre la región siberiana de Tunguska con la potencia de 1.000 bombas de
Hiroshima, arrasando 2.150 kilómetros cuadrados y derribando 80 millones de
árboles; una broma frente a un posible impacto de Apophis, que sería entre 30 y
100 veces mayor.
Colaboración internacional
En sus declaraciones, Perminov urgía a una “amplia colaboración internacional
en el marco de Naciones Unidas”. La sugerencia no era una flecha al aire, sino
un testimonio de adhesión a una iniciativa ya en marcha, la de la
Asociación de
Exploradores del Espacio (ASE, por sus siglas en inglés). Se trata de una
organización formada por más de 300 personas de 34 países, que cumplen el único
requisito exigido para afiliarse: haber completado al menos una órbita alrededor
de la Tierra en una nave espacial.
Entre otras actividades, la ASE cuenta desde 2005 con un comité dedicado a
los NEO. Con el fin de analizar el problema, este comité designó un panel
multidisciplinar internacional para la mitigación de amenazas de asteroides. El
grupo de trabajo se ha reunido en cuatro ocasiones en los dos últimos años. El
resultado es un informe,
Amenazas de asteroides: un llamamiento a la respuesta global, que se
presentó hace unos días en San Francisco (EEUU), y que se entregó al
representante del Comité para Usos Pacíficos del Espacio Extra Atmosférico de
Naciones Unidas, con el fin de que el contenido sea debatido en las reuniones
que este organismo mantendrá el próximo año en Viena (Austria).
El documento aborda la cuestión desde distintos ángulos. Según la miembro del
panel Karlene Roberts, experta en comportamiento organizativo de la Universidad
de California (EEUU), “este no es un problema astronómico. Es un problema
financiero, contable, internacional, organizativo, político y que debe
resolverse por la unión de entidades públicas y privadas”.
En la presentación del informe, el director del comité NEO de la ASE, el
astronauta del Apolo 9 Rusty Schweickart, alertó de que “en cierto sentido,
estamos conduciendo por el universo sin seguro”. Mencionando el impacto de un
asteroide en Yucatán que provocó la extinción del 70% de la vida en la Tierra
hace 65 millones de años, Schweickart añadió que “hasta que no tengamos una
respuesta preparada, somos tan vulnerables como los dinosaurios”.
Tres niveles de trabajo
El informe de la ASE se centra en tres aspectos: la puesta en marcha de una
red de información, análisis y alerta; un grupo de operaciones y planificación
de misiones para proponer y designar la manera más adecuada de desviar el NEO; y
por último, la creación de un panel intergubernamental en la ONU –al estilo del
que ya existe contra el cambio climático– para que supervise las funciones
anteriores, establezca las directrices y someta las recomendaciones de acción al
que debería ser el órgano de decisión: el Consejo de Seguridad.
Según explica la ASE, los dos primeros elementos, que se refieren a la
capacidad para prevenir un desastre, existen en cierto grado. Entre otras
iniciativas, el proyecto Don Quijote, de
la Agencia Europea del Espacio, planea un sistema compuesto por dos sondas,
Hidalgo y
Sancho, que se repartirían las tareas de
desviar el asteroide y vigilar su trayectoria. Pero falta el tercer aspecto; la
comunidad internacional carece de la organización necesaria para articular esa
capacidad.
El precio de llevar el programa a la práctica, calcula la ASE, sería de 500
millones de dólares. Una cifra razonable si se trata de preservar la única vida
en el universo de cuya existencia podemos dar fe.
Fuente: publico.es, 6 de Octubre de 2008
-Los siete magníficos
El matemático y pensador Bertrand Rusell escribió en su libro Historia de
la Filosofía Occidental que "la ciencia debe poner límites al conocimiento,
pero no a la imaginación", y lo cierto es que lo que se sabe del Universo, de su
materia y energía, se basa en más de un 95% en hipótesis y teorías todavía sin
demostrar. ¿Qué es la materia oscura? ¿Cuál el origen de los rayos cósmicos?
¿Viven los protones para siempre? Preguntas fundamentales para la física de
astropartículas, a las que los científicos europeos pretenden dar respuesta con
una ambiciosa estrategia a 10 años vista presentada esta semana en Bruselas.
En esta hoja de ruta, en la que se ha trabajado durante dos
años, se presentan los siete experimentos que permitirán avanzar en el
estudio de los mensajeros cósmicos. Los proyectos, bautizados como Los
Siete Magníficos por Aspera, la red europea de agencias nacionales de
física de astropartículas, incluyen un telescopio de neutrinos que ocuparía
un kilómetro cúbico en el mar Mediterráneo, una instalación subterránea de
un megatón (mil toneladas) para determinar la vida media del protón y
comprobar si se desintegra, o una colección de 100 telescopios para detectar
rayos gamma de alta energía.
Otro de los experimentos ayudaría a descubrir las ondas gravitacionales,
cuyo concepto acuñó Albert Einstein. De la Teoría de la Relatividad del
genial científico, se desprende la existencia de estas ondas, de las que
sólo se tiene constancia de manera indirecta, y que se producen en el seno
de la deformación del espacio y del tiempo que provocan grandes cataclismos,
como el colapso de una galaxia o una supernova.
"Además de comprobar el sueño de Einstein, estos experimentos nos
permitirían dar un paso de gigante en el conocimiento del Universo, su
origen, su evolución o su destino", asegura Antonio Ferrer, catedrático de
Física Atómica Molecular y Nuclear de la Universidad de Valencia y
representante del Ministerio de Innovación en la reunión. Ferrer destaca que
la física de astropartículas es relativamente reciente como disciplina y que
los medios para su investigación son muy costosos.
Imagen del telescopio usado para el proyecto 'Magic' para el estudio de
rayos Gamma. - ASPERA/R. Wagner
El estudio de los mensajeros cósmicos requiere grandes infraestructuras:
kilómetros de túneles subterráneos, enormes telescopios, una cuenca de un millón
de litros de agua... Además de estas construcciones, algunos materiales, como el
germanio, son caros y escasos. La estrategia europea prevé el incremento
paulatino de su presupuesto, desde los 70 millones al año actuales hasta los 140
millones en un decenio, pero hay algunos experimentos que solo podrán costearse
con la colaboración de otras potencias tecnológicas, como EEUU o Japón.
"Aunque existe una competición innegable, los europeos estamos de acuerdo con
otros investigadores en la hoja de ruta a medio plazo y en que de la
coordinación saldrán los descubrimientos", asegura Arnaud Marsollier, del CERN,
la Organización Europea para la Investigación Nuclear.
Marsollier prevé "comenzar dos de los experimentos más ambiciosos [los que
estudiarán los rayos gamma y los neutrinos] en 2012". "Y para ello necesitamos
financiación", añade. Para Ferrer, esto no será fácil: "Los científicos
proponemos, pero luego los gobiernos nos imponen las rebajas".
Aplicaciones prácticas
"La nueva ventana al Universo nos permitirá conocer algo más de los confines
de lo real, pero también de nosotros mismos, aunque ahora no parezca evidente",
sostiene Ferrer, quien resalta que una inversión tan grande no va destinada a
"investigar por investigar.
Si hablamos de aplicaciones concretas para la vida de los ciudadanos, no
debemos olvidar que en centros como el CERN, considerado inicialmente por
algunos como un agujero negro de dinero, han salido la World Wide Web o algunos
tratamientos para el cáncer", recalca Y advierte: "El problema es que, como no
sabemos muy bien qué nos vamos a encontrar, no podemos hablar por el momento de
aplicaciones más allá de un conocimiento y explicación del Universo".
Una vez solucionada la financiación de Los Siete Magníficos, habrá
que ponerlos sobre el mapa, lo que "causará muchos dolores de cabeza a los
Estados miembros que optan a albergarlos", según Marsollier.
En España, ya se investiga en experimentos de menor envergadura, pero que
preparan el camino. Uno de ellos es Magic, en el observatorio Roque de
los Muchachos de La Palma. Allí se han instalado dos telescopios Cherenkov que
analizan los rayos gamma de alta energía, que sirven para estudiar aspectos de
la física fundamental o la cosmología, en particular, la evolución del Universo.
Uno de estos telescopios cuenta con el mayor espejo del mundo y descubrió este
verano la emisión de rayos gamma en la galaxia 3C 279, situada a más de 5.000
millones de años luz de la Tierra (casi la mitad del radio del Universo).
Las prioridades científicas parecen estar claras, a tenor del consenso
internacional, pero el desarrollo de la estrategia para los próximos 10 años,
que exige la voluntad política de duplicar el presupuesto europeo actual,
plantea por el momento casi tantas incógnitas como el propio origen del
Universo.
De la materia oscura, a las ondas gravitatorias
Conocer los neutrinos
Dos de los experimentos incluidos entre ‘Los Siete Magníficos' tienen que ver
con el estudio de los neutrinos, unas partículas subatómicas de las que se
desconoce la masa y que pasan a través de la materia sin prácticamente
modificarla. Uno de ellos es el KM3NeT, un enorme telescopio de un kilómetro
cúbico de tamaño que se ubicará en el mar Mediterráneo para detectar neutrinos.
El megatón
¿Cuánto puede vivir una partícula como el protón? ¿Es cierta la teoría de la
gran unificación? Otro de los experimentos, el megatón para la desintegración de
los protones, pretende comprobar la validez de la teoría de la gran unificación,
que asegura la convergencia de tres de las cuatro fuerzas fundamentales en la
naturaleza: la gravitatoria, la electromagnética, la nuclear fuerte y la nuclear
débil.
Confirmar a Albert Einstein
Cuando Einstein formuló la Teoría General de la Relatividad, adelantó un
amplio número de fenómenos relacionados con la curvatura del espacio-tiempo.
Aunque la mayoría han sido confirmados a lo largo del tiempo, la emisión de las
ondas gravitacionales se ha resistido a ser explicada. La planeada antena
gravitatoria subterránea de tercera generación permitiría detectar las ondas
gravitacionales acuñadas por el físico y que se derivan de grandes explosiones
en el Universo (como la colisión de una galaxia). Para ello, harían falta tres
túneles de al menos dos kilómetros de longitud.
Rayos gamma
Partiendo de los resultados aportados por el experimento ‘Magic',
desarrollado en la isla española de La Palma a menor escala, la hoja de ruta
quiere poner en marcha al menos un centenar de telescopios Cherenkov, destinados
a detectar y estudiar rayos gamma de alta energía procedentes del espacio.
Detección de rayos cósmicos
Desde que en 1911 el austríaco Victor Hess hiciera un experimento con grandes
globos que detectaron nuevos rayos cósmicos, no se ha conseguido saber más sobre
su origen o cómo se mueven. Se trata de las partículas de mayor energía jamás
observadas. El telescopio Auger, en la Pampa argentina, y su gemelo en Colorado
(EEUU) están aportando mucha información sobre este tipo de radiación.
Materia oscura
La materia oscura recibe su nombre por el desconocimiento científico de su
contenido exacto. La tecnología actual debería ser sustituida por varios grandes
detectores que usaran gases nobles -como el xenón y el argón- en estado líquido
o cristales criogénicos. Esto aumentaría la sensibilidad de detección en tres
grados de magnitud,
lo que podría ayudar a arrojar luz sobre la materia oscura.
Fuente: publico.es, 3 de Octubre de 2008
-Científicos españoles diseñan un chip para medir el viento solar
El viento de Marte se analizará en el
futuro con tecnología española. Un equipo de investigadores de la Universidad
Politécnica de Cataluña (UPC) ha diseñado el primer chip fabricado íntegramente
en nuestro país destinado a medir el viento del planeta rojo. Esta es la pieza
clave del anemómetro que incorpora una estación meteorológica desarrollada por
científicos españoles para el vehículo Mars Science Laboratory (MSL) de la NASA,
cuyo lanzamiento está previsto para el otoño de 2009.
El rover o vehículo robotizado MSL servirá para investigar si
el entorno marciano es o ha sido propicio para el desarrollo de algún
tipo de vida. Entre los instrumentos que lleva se encuentra la estación
meteorológica REMS (Rover Environment Monitoring Station), que medirá la
temperatura del aire y del suelo, la presión atmosférica, la radiación
ultravioleta y la humedad, así como la velocidad y dirección del
viento, con el chip diseñado por los ingenieros españoles. Los detalles de esta
aportación científica han sido publicados recientemente en la revista 'Planetary
and Space Science'.
Luis Castañer, coordinador del Grupo de Micro y Nano
Tecnologías de la UPC que ha desarrollado la pieza, explica que este chip es
más eficiente en términos energéticos que los desarrollados
anteriormente, y por primera vez se utiliza tecnología de silicio para esta
aplicación en el espacio.
Cada chip o dado de silicio mide 1,5 milímetros de lado e
incorpora tres elementos de platino sensibles a la temperatura:
uno mide la temperatura del chip, otro lo calienta unos 25º C por encima de la
temperatura ambiente, y el tercero ajusta las características del sensor de
viento. El chip también lleva grabado el nombre de sus creadores.
El principio físico utilizado por los ingenieros para medir
el viento es el conocido como anemometría por punto caliente.
Castañer, académico de la Real Academia de Ingeniería (RAI), recuerda que
tradicionalmente el viento se mide con una técnica en la que se calienta un
hilo, el aire lo refrigera haciendo variar su temperatura, y esto permite
establecer relaciones con la velocidad del aire.
Diseño del futuro vehículo "Mars Science Laboratory" de la NASA. Foto NASA
"En el caso del chip, el punto caliente no es un hilo, sino
el dado de silicio calentado por una fina película que está
sobre él y que actúa como resistencia para calentar", señala el investigador.
Búsqueda de vida
El Grupo de Micro y Nano Tecnologías (MNT) ha patentado un
sistema que permite averiguar la magnitud del viento y su dirección
en un plano utilizando cuatro chips colocados sobre una placa en dicho plano, y
tomando como referencia la temperatura ambiente que mide con un quinto chip
idéntico a los otros cuatro.
Utilizando esta metodología se puede medir la velocidad del
viento en 2D, pero se puede deducir la velocidad en 3D poniendo
tantas placas como se necesiten. La estación meteorológica REMS incorpora 6
sensores de viento, con 5 chips de silicio cada uno, situados en el extremo de
dos plumas o 'booms' y separados en un ángulo de 120 grados.
El MSL realizará cuatro tipos de investigaciones. Por un
lado, estudiará el potencial biológico del entorno, inventariando los
elementos químicos fundamentales para la vida y detectando la presencia
de compuestos orgánicos. Por otro, caracterizará la geología y geoquímica de la
región, analizando la composición de la superficie de Marte e interpretando los
procesos que han formado o modificado sus rocas.
Los instrumentos del vehículo también servirán para
investigar la radiación superficial y algunos procesos atmosféricos,
como en los que interviene el agua, que pudieran ser relevantes para determinar
si en el pasado pudieron existir seres vivos en el planeta rojo.
Fuente:
elmundo.es, 3 de Octubre de 2008
-Un
viaje a los orígenes del SIDA
Hasta ahora se pensaba que el sida empezó en África,
concretamente en el sureste de Camerún, cuando la primera temida cepa del
virus saltó de los chimpancés al hombre. Se creía, además, que esto ocurrió
alrededor de la tercera década del siglo XX. Nuevos estudios acreditan que
el brote
original es bastante anterior, de entre 1894 y 1924, y que en la
consolidación de la pandemia fueron clave los primeros núcleos urbanos
fundados por el hombre blanco en el Continente Negro. Concretamente la ciudad
que entonces se llamaba Léopoldville y que ahora conocemos por
Kinshasa,
capital de la República Democrática del Congo.
Kinshasa es la tercera ciudad más importante de África, por
detrás de Lagos y El Cairo y empatada con Johannesburgo. Tiene 7,5 millones de
habitantes y se encuentra a orillas del río Congo, mirando cómo en la otra
orilla se yergue la capital del «otro» Congo, Brazzaville. La capital de un
país casi se toca con la del otro. Esta tradición de encrucijada le viene de
lejos, de cuando Léopoldville (llamada así porque entonces el Congo pertenecía
a Bélgica) fue fundada en 1881 precisamente como un punto de intercambio
comercial. Allí estuvo el primer puerto navegable al norte de las Cataratas
Livingstone. En 1998 el advenimiento del ferrocarril redobló su potencial
estratégico.
Aunque farmacológicamente la enfermedad ya se controla
y la infección se mantiene a raya, nadie ha podido aún encontrar una
vacuna total,
Por desgracia no era estratégico sólo para las mercancías.
Según dos estudios que esta semana publica Nature, Léopoldville fue el primer
epicentro mundial de contagio del sida. Allí un virus todavía incipiente tuvo
la posibilidad de echar el ancla en organismos humanos muy variados y, sobre
todo, muy móviles.
«Se transmite mal»
¿No habría sida sin colonización y urbanización africana?
El doctor Michael Worobey, de la Universidad de Arizona, que ha dirigido el
estudio, subraya que el virus de inmunodeficiencia humana (VIH) más extendido
como causa del sida tiene muchos puntos fuertes que lo hacen aún inatacable:
sólo entre cuatro y diez días después de la infección ya es capaz de
interferir la capacidad inmunitaria y de crear profundas reservas en el
organismo, se diversifica enormemente... Una vez dentro del cuerpo es casi
invencible. Pero en cambio su punto débil más curioso es que le cuesta más
entrar que a otros virus. «Se transmite mal», afirma Worobey.
Aunque no es esta una idea en la que se insista mucho para
no relajar las alertas sanitarias, los versados en la materia como Worobey sí
son conscientes de lo que esto puede significar. Por ejemplo, que sin las
primeras aglomeraciones urbanas de África el VIH quizás no se habría hecho tan
fuerte.
De la zona de Kinshasa son las dos muestras cuidadosamente
analizadas por el equipo de Worobey. Son las más antiguas de las que se tiene
noticia y datan de 1959 y 1960, que es cuando la pandemia empieza a
detectarse. La amplia gama de síntomas posibles y la alta mortalidad en África
por muchas otras razones retrasaron la identificación de la amenaza.
Desde entonces está acreditada la infección en todo el mundo de 60 millones de
personas. La mitad de ellas han muerto. Aunque farmacológicamente la
enfermedad ya se controla y la infección se mantiene a raya, nadie ha podido
aún encontrar una vacuna total, y sobre todo que atienda a las distintas
poblaciones y hasta nacionalidades del virus.
Dos muestras analizadas
Worobey busca las fuentes del Nilo de esta enfermedad explorando muestras de
tejidos humanos infectados y comparándolas con cepas del virus original de los
chimpancés. Las dos muestras disponibles fueron tratadas con nuevas técnicas
capaces de trazar el árbol genealógico hasta la cepa, con una rama para cada
mutación. La conclusión fue que el virus original de los chimpancés era el
común ancestro de ambas muestras, cuyas respectivas mutaciones estaban
separadas por unos cuarenta años de historia del virus.
Es la primera vez que se aplican técnicas casi de resucitación genética a
muestras de tejidos infectados tan antiguas, es decir, mucho más cercanas al
foco primigenio de la infección. Hasta ahora no se había pasado de muestras de
los años setenta, lo cual añadía grandes dosis de incertidumbre a los
resultados.
No es que las conclusiones de este estudio sean en sí esperanzadoras. Pero
proyectan una mirada mucho más directa sobre el largo y casi clandestino
proceso de maduración de esta enfermedad. También abre una puerta a
preguntarse qué otra clase de pandemias no estarán siendo calladamente
incubadas por la Humanidad en este preciso minuto, y si podrán ser detectadas
antes de que sea demasiado tarde.
Fuente: ABC.es, 2 de Octubre de
2008
-Un
ratón con células madre inducidas
Si el trabajo con células madre es complicado, cuando se
mezcla con la manipulación genética puede convertirse en un arma de doble
filo. Pero eso no quiere decir que no merezca la pena intentarlo. Eso es lo
que han hecho investigadores de la Universidad de Harvard, que han ideado un
sistema para fabricar células madre adultas activando otras
normales introduciéndoles genes con un virus.
El resultado es un tipo
poco explotado de células madre, las llamadas inducidas para diferenciarlas
de las adultas (se encargan de regenerar músculos, huesos y otros tejidos en
las personas ya desarrolladas) y las embrionarias (evolucionan en las
primeras dos semanas de gestación para luego diferenciarse en todos los
órganos de un ser humano). Para conseguirlas, los investigadores, liderados
por Mathias Stadfeldt, han utilizado fibroblastos y células hepáticas. El
cambio lo han conseguido poniéndolas en contacto con virus que les
transmitan los genes necesarios para convertirlas en células pluripotentes
(el equivalente a las madre adultas), sin infectarlas realmente.
La técnica evita algunos de los efectos secundarios asociados a intentos
anteriores. Además, son útiles -o se espera que lo sean- para tratar muchos
tipos de enfermedades, desde las neurodegenerativas (parkinson, alzhéimer) a
las traumáticas (paraplejias) o para regenerar los glóbulos blancos
destruidos después de un agresivo tratamiento contra el cáncer, por ejemplo.
Para empezar, el virus (llamado vector porque lleva la información
genética clave) se puede eliminar fácilmente y se evitan las posibles
enfermedades transmitidas por éstos. También se controla mejor qué
información se introduce en las células, y su crecimiento posterior. Así se
evita el segundo gran obstáculo habido hasta ahora cuando se han intentado
fabricar células madre. Lo que las hace útiles es, precisamente, su
capacidad para reproducirse en ciertas condiciones.
Pero, hasta ahora, los intentos de utilizar estas aplicaciones en
personas se han encontrado con un obstáculo: al colocar en una zona
lesionada células madre, éstas, estimuladas por las condiciones del entorno,
tienden a proliferar. El resultado puede ser un tumor, lo que da al traste
con sus aplicaciones terapéuticas.
Con el nuevo método, los científicos han conseguido, en ratones, células
pulmonares, cardiacas e incluso neuronas, sin que se haya producido la
temida proliferación descontrolada ni la infección por el virus utilizado
como vector de transmisión del material genético, según han publicado en
Science Express, la versión digital de la prestigiosa publicación.
De esta manera, han abierto la puerta a una nueva vía para regenerar tejidos,
aunque los propios investigadores señalan que todavía es pronto para saber si
podrán competir con las otras dos fuentes de células madre: las obtenidas
directamente de adultos, menos capaces de transformarse pero con un
funcionamiento más natural, o las de embriones, versátiles aunque más difíciles
de controlar.
Lo que importa, de momento, es que se abre otra posibilidad para la ciencia,
y que el método tiene otras aplicaciones. El uso de microorganismos como los
adenovirus es una de las opciones más perseguidas para conseguir vacunas
avanzadas (por ejemplo, en el caso del sida) o terapias génicas, aunque no se
haya conseguido todavía controlarlos al 100%.
Fuente: elpais.com, 1 de Octubre de 2008
-El aniversario más austero de la NASA
A lo largo de sus cincuenta años de historia, la NASA ha
pasado de ser un interés prioritario del Gobierno de Estados Unidos y ser una
agencia costosa de mantener, cuyos proyectos quedan aplazados por falta de
presupuesto.
La Administración Nacional de Aeronáutica y del Espacio
(NASA) celebra hoy, entre noticias sobre el aplazamiento de la misión del
transbordador espacial Atlantis, medio siglo de existencia con una larga lista
de misiones y exitosos lanzamientos espaciales. Sin embargo, la NASA no
atraviesa uno de sus mejores momentos. Durante los últimos años, la agencia
espacial estadounidense ha tenido que luchar con uñas y dientes para conseguir
lo más importante: dinero. En 1958 su presupuesto fue de 500 millones de dólares
(cifra actualizada según la inflación de 2007) y alcanzó la cima en 1967 con
29.7000 millones de dólares, cuando la NASA todavía perseguía el sueño del
presidente John F. Kennedy de llevar a un hombre a la Luna.
El impresionante gasto militar de EEUU ha querido que el
dinero cambie de manos y la agencia espacial tendrá que conformarse con 17.614
millones de dólares para financiar sus misiones en 2009. Aunque la cifra es
elevada, este nuevo presupuesto prácticamente anula todo el programa de
exploración marciana que estaba previsto para la próxima década y lo deja en una
situación incierta. La comunidad científica no ha tardado en expresar su
malestar a la Administración Bush que ha obligado a la NASA a desarrollar nuevos
cohetes y naves para ir a la Luna, pero no la ha dotado de dinero para hacerlo.
El presupuesto destinado a la investigación científica ha
caído a 264,7 millones de dólares, creciendo solamente un 1% en relación al del
año pasado. Este dato resulta alarmante si se tiene en cuenta que este tipo de
estudio es esencial para la evolución de la sociedad. "La investigación espacial
ha permitido mejorar el conocimiento de la física de una manera brutal. Además,
muchas de las tecnologías que se han desarrollado para las misiones espaciales
terminan aplicándose en la Tierra, como ha sucedido en la medicina", explica
Andrés Ripoll, ingeniero aeronáutico de la NASA durante programa Apollo y
miembro de la Real Academia de Ingeniería. "Unos 50.000 sistemas han sido
patentados y más de la mitad han sido utilizados para mejorar la sanidad",
añade.
Quizá la entrada de China en la carrera espacial –el lunes el
gigante asiático recibió como héroes a sus tres taikonautas tras realizar el
primer paseo espacial de su historia– impulse una vez más la inyección de dinero
en este tipo de proyectos para, por ejemplo, llegar de nuevo a la Luna.
La época dorada de la NASA
La ironía quiso que la aventura de la agencia espacial estadounidense comenzara
su andadura tras la puesta en órbita el 4 de octubre de 1957 del Sputnik 1,
primer satélite artificial del mundo, lanzado por el eterno enemigo, la Unión
Soviética.
Tanto el presidente Dwight D. Eisenhower como el Congreso de
Estados Unidos percibieron este hito como una amenaza para la seguridad del país
y decidieron crear una agencia federal que dirigiera la actividad espacial no
militar. La NASA empezó a funcionar el 1 de octubre de 1958, con un único
objetivo: no permitir que la URSS ganara la denominada carrera espacial.
La agencia inició sus operaciones inmediatamente con el
programa Mercury. Este proyecto tenía una meta simple, saber si el hombre podría
sobrevivir en el espacio exterior. Alan B. Shepard, Virgil I. Grissom, Gordon
Cooper, Walter Schirra, Deke Slayton, John Glenn y Scott Carpenter, conocidos
como los siete de Mercury, fueron los pilotos escogidos para enfrentarse a la
incógnita del cosmos. El 5 de mayo de 1961, Alan Shepard se convirtió en el
primer astronautas estadounidense al pilotar el Libertad 7 en un vuelo
suborbital de 15 minutos.
Veinte días después del acontecimiento, el presidente John F.
Kennedy se comprometió a llevar "un hombre a la Luna y devolverlo sano y salvo a
la Tierra antes del final de la década". La NASA cambió sus planes y aceptó el
reto. El 20 de junio de 1969, Neil Armstrong y Edwin E. Aldrin alunizaron con el
Apollo 11 en el Mar de la Tranquilidad. Las entrecortadas palabras de Armstrong
–"Este es un pequeño paso para el hombre, pero un gran salto para la Humanidad"–
se perdieron en el espacio, pero perduraron y cambiaron para siempre la
historia.
Tras Armstrong, el programa Apollo condujo a 12 astronautas
más hasta nuestro satélite para llevar a cabo diferentes investigaciones.
Posteriormente, la NASA se ha centrado en otros objetivos, como Marte, planeta
al que ha enviado diversas misiones como el robot Spirit, que investiga
actualmente la superficie marciana, o el desarrollo de sistemas más baratos para
sus vuelos, lo que ha conseguido con transbordadores espaciales como el Columbia.