Inicio

 

Ya puedes DESCARGAR todos nuestros PROGRAMAS DE RADIO "EL ALEPH" en la Sección NOSOTROS-PROGRAMACIÓN--

 

NOTICIAS CIENTÍFICAS


JUNIO 2010

TITULARES DE LAS NOTICIAS DEL MES

 

"Los escépticos del 'Climagate' defendían los intereses de la industria"

Hawai contará con el telescopio más potente del mundo

"Lo que está ocurriendo en el Golfo de México es como una patada en el culo"

Stephen Hawking publicará su nuevo libro, "The Grand Design", en Septiembre

Tecnología de andar por casa

Las abejas imprescindibles para el ser humano

Las energías renovables de origen marino están sin desarrollar en Canarias

El genoma humano espera su revolución

Un grupo de escolares descubre una misteriosa cueva en Marte

Los cosmólogos toman medidas a la "partícula fantástica"

El hombre de Atapuerda ocupó Gran Bretaña

El espacio para la investigación de mecánica cuántica

El ancestro de "Lucy" ya andaba de pie

Los pingüinos se mueren de frío en Sudáfrica

"La evolución de la vida ya no es un fenómenos natural"

La China científica antes socia que rival

Craig Venter busca en el Mediterráneo la clave de los combustibles del futuro

La Tierra bate su récord de calor en Junio

Los humanos de Atapuerca comían leones gigantes

Los aviones son capaces desencadenar precipitaciones

El verano será más cálido de lo normal con unos dos grados más de temperatura

El Congreso rechaza la enmienda a la totalidad al proyecto de ley de captura de emisiones de dióxido de carbono

¿Cinco "partículas de Dios" en vez de una?

"Atacaremos las células cancerígenas directamente"

Operar el cerebro con puntería milimétrica

La energía oscura no está clara

La pérdida de memoria si se puede frenar

¿Provocar lluvia artificial mediante la aplicación láser?

La Luna contiene cien veces más agua de lo que se creía

El norte de Marte estuvo ocupado por un gran océano

Un hígado de laboratorio

Diez lugares del universo para buscar vida extraterrestre

Identificado un gen supresor de tumores

Grandes reptiles oceánicos de sangre caliente

Calzoncillos "inteligentes"

La fusión entre el cuerpo humano y la tecnología

Un cambio climático hizo desaparecer a los grandes simios de Europa

Un arsenal de 800 fármacos inteligentes acechan al cáncer

Así se produjo el brutal choque que formó la Tierra y la Luna

China se adelanta en explorar los nuevos yacimientos submarinos

El cosmos juega a las muñecas rusas

Las terapias heredadas de la quimioterapia son las nuevas protagonistas

Científicos chinos crean un agujero negro artificial

La ONU abre su parque al público para celebrar el Día del Medio Ambiente

Resuelven la paradoja del sol débil, el misterio científico que venció a Sagan

Un fármaco experimental hace olvidar los malos recuerdos

Cómo la gripe se volvió resistente al tamiflu

El año 2010 va camino de convertirse en el más cálido

Comienza el Gran Hermano marciano

En 2030 se diagnosticarán 20 millones de casos de cáncer anuales

 

Archivo


-"Los escépticos del 'Climagate' defendían los intereses de la industria"

El físico Klaus Ha-sselmann (Hamburgo, 1931) no cree que sea discutible que el cambio climático es consecuencia de la acción humana sobre el planeta. Hasselman es uno de los fundadores del prestigioso Instituto de Meteorología Max Planck (Alemania) y visitó Madrid la semana pasada para recibir el Premio Fronteras del Conocimiento, que concede la Fundación BBVA. El jurado le otorgó el premio porque fue uno de los investigadores que demostraron que el calentamiento global se debe a la acción humana y no a la variabilidad natural del clima.

Su hallazgo se realizó hace más de una década. ¿Ha cambiado ese impacto desde entonces?

No, el impacto es el mismo, sólo que ahora tenemos más datos para afirmarlo.

¿Cuál es la huella que generamos cada uno de nosotros?

Una buena forma de medirlo es a través del volumen de gases de efecto invernadero emitido por persona al año. EEUU y Europa tienen cuatro o cinco veces más impacto que China. Tener una forma de medida es una herramienta para intentar solucionar el problema.

¿Cómo debe enfrentarse Europa al cambio climático?

Hay que penalizar el uso de combustibles fósiles y dar subsidios a las energías renovables. España podría convertirse en líder en exportación de energía solar si esta se fomenta en Europa y en la propia España. También hay que estimular los incentivos de mercado y los requerimientos tecnológicos, como implantar límites máximos de emisión en los coches y de potencia en las bombillas. Por último, hay que transferir la tecnología y la economía de los países industrializados a los países emergentes. Nosotros somos responsables y tenemos, por tanto, la obligación de apoyar a esos otros países para reducir las emisiones.

Klaus Hasselmann, después de recibir el Premio Fronteras del Conocimiento.F. bbva

La próxima cumbre del clima tendrá lugar en diciembre en Cancún (México). ¿Qué resultados espera de ella?

Todo el mundo espera que las naciones colaboren en lugar de competir unas con otras. Los países más contaminantes deben asumir el liderazgo para que otros los imiten y adopten las mismas medidas. Se pueden reducir las emisiones sin dañar la economía, y por ello estoy a favor de una reducción de emisiones del 30% en Europa, independientemente del resto. Tenemos que ser los líderes.

¿Qué pasará si los países no llegan a un acuerdo durante esa cumbre?

No estoy seguro, y realmente no tenemos mucho tiempo. Si no se cambia el sistema, habrá un cambio climático enorme y nadie sabe del todo cuáles serán sus implicaciones. Se producirán grandes presiones migratorias y aumentarán las desigualdades, la brecha entre ricos y pobres. Ya tenemos la tecnología para resolver el problema y el coste sólo supone un 1% del PIB, lo que causaría un retraso económico de un año hasta 2050. Si actuamos ahora, la economía en 2050 será equiparable a la de 2049 y se evitarán todos los peligros del cambio climático. Si no hacemos nada, tendremos cambios estructurales graves.

¿Cree que hay países que se verán beneficiados por el calentamiento?

Sí, por ejemplo Rusia, ya que tendrá un clima menos frío. Sin embargo, es necesario que ellos apoyen a los países que luchan contra la subida de las temperaturas, ya que el cambio climático dará lugar a grandes migraciones y problemas globales. Por ello, aunque su clima mejore, sufrirá un impacto derivado de los problemas climáticos que se produzcan en el resto del mundo. Además, Rusia sufre un gran derroche de energía. Debe reducir su ineficiencia.

El 'Climagate' [filtración de correos donde supuestamente se manipulaban datos para probar el calentamiento] ha puesto en duda la credibilidad de los científicos del clima. ¿Qué opina del suceso?

Se le ha dado demasiada importancia. Los escépticos defendían los intereses de la industria e intentaron mostrar que los científicos mentían en sus investigaciones, pero las dos comisiones independientes que han investigado el suceso han demostrado que los científicos fueron sinceros y que no falsificaron datos. Lo científicos del clima llevamos 40 años diciendo lo mismo. Creo que ha habido un error en la gestión de la información de este grupo de investigación, pero eso no tuvo impacto en esos informes. La credibilidad de esos científicos está intacta, y las encuestas de opinión demuestran que la polémica ha tenido muy poco impacto en la percepción de la gente. Eso se debe a que la opinión pública tiene sentido común.

Fuente: publico.es, 30-6-10

 

-Hawai contará con el telescopio más potente del mundo

La junta directiva de la Universidad de Hawai ha aprobado por unanimidad un plan para construir un telescopio gigante en la cumbre de Mauna Kea. Se espera que sea el que tenga mayor capacidad astronómica del mundo.

La construcción del telescopio, que tendrá 30 metros, no ha estado exenta de polémica ya que los nativos consideran que sería profanar el Mauna Kea y los ecologistas han advertido que podría dañar a un tipo de insecto local ('Nysius wekiuicola') que vive en esta montaña.

La Universidad indicó en un comunicado que antes de dar la aprobación al proyecto hicieron un estudio del impacto ambiental, que fue aceptado por la Gobernadora de Hawai, Linda Lingle. El proyecto pasará ahora al Departamento de Tierras y Recursos Naturales que tendrá que ratificar el permiso para construir el telescopio.

"Este telescopio nos llevará a un emocionante viaje de descubrimientos astronómicos" dijo el presidente de la institución M.R.C. Greenwood, quien subrayó que "los beneficios que se derivarán del proyecto van mucho más allá de los resultados científicos".

 

En este sentido destacó que la inversión de capital y la creación de trabajo que generará el telescopio Thirty Meter Telescope (TMT, por sus siglas en inglés) serán beneficiosos para la isla. Greenwood se mostró consciente "de la importante responsabilidad de la universidad para garantizar el uso adecuado de este sitio especial, para las generaciones futuras".

Asimismo, reiteró que el cuidado del lugar ha sido un punto de "máxima prioridad" en todo el proceso y "seguirá siendo a medida que trabajamos en estrecha colaboración con la comunidad y todos los actores involucrados en la gestión del Mauna Kea".

El Mauna Kea, cuyo significado es 'montaña blanca', es uno de los cinco volcanes que forman la isla de Hawai junto con Mauna Loa, Hualalai, Kohala y Kilauea. Es el segundo en la zona por su altura y permanece inactivo desde hace más de 3.500 años.

Fuente: elmundo.es, 29-6-10

 

 

-"Lo que está ocurriendo en el Golfo de México es como una patada en el culo"

Jean-Michel Cousteau, hijo del mítico explorador submarino francés de cuyo nacimiento se acaban de cumplir 100 años, ha vivido muchos vertidos. Se mudó a Santa Bárbara, un año antes del derrame de petróleo que padeció esta ciudad californiana en 1969.

Jean Michel Cousteau

 

Documentó el Exxon Valdez, hace 20 años, y el Prestige, hace ocho. Ahora está a punto de realizar su tercera expedición al Golfo de México, desde que se hundió la plataforma petrolífera Deepwater Horizon, donde hablará con BP sobre posibles soluciones.

¿Cuánto tiempo va a durar el impacto del vertido?

Hay decenas de miles de personas angustiadas porque durante mucho tiempo van a tener que vivir con esto. Si vas al lugar del Exxon Valdez 20 años después, todavía puedes comprobar el impacto que tiene en la gente y el medio ambiente. Si cavas en el fondo del mar, todavía hay petróleo a medio metro. En el Golfo tenemos un Exxon Valdez vertido al océano cada cuatro días. Estamos en el día 68, así que calcule.

¿Cree que la corriente puede acabar llevando el crudo hacia la costa Este de EEUU?

Saldrá del Golfo, al Caribe, y será recogido por la Corriente del Golfo. Y seguirá hasta Inglaterra, Francia, España y Portugal. Y por supuesto que afectará a todas esas personas, y a nuestro sistema de apoyo vital.

¿Cuánto tardará el petróleo en llegar a España?

Habría que saber la velocidad de la Corriente del Golfo, pero yo diría que en menos de un año.

¿Cree que el pozo de alivio que se va a construir para detener el vertido funcionará?

No creo que puedan pararlo. Hay algo de lo que no habla nadie, la presión. Si lo taponas por un lado, va a reventar por otro. Por eso, no hacen más que inventarse historias, "lo estamos intentando, lo estamos intentando", cuando en realidad quieren dejarlo salir todo. Podrían haberlo parado si no fuera por el gran riesgo que hay de que reviente por otro lado.

¿Así que seguirá brotando hasta que se acabe el petróleo?

Básicamente. O hasta que la presión descienda. La presión del petróleo es mayor que la presión del agua. Tiene que salir por algún lado. Y como la estructura tiene fracturas, si se tapa por un lado saldrá por otro.

¿La única solución es capturar la mayor cantidad de petróleo posible?

O todo. Desde mi punto de vista, no lo están haciendo muy bien. Poner los dispersantes es un gran error. Hay que dejar que suba el crudo, cercarlo y bombearlo. Claro que cuando hay huracanes los barcos se tienen que ir y el petróleo seguirá subiendo. Pero, por ahora, no veo otra opción posible.

¿Ha oído hablar del sistema desarrollado por la empresa Ecomerit que utilizaría burbujas del gas natural para capturar el petróleo y hacerlo subir a la superficie, donde se podría capturar?

Sí, he oído hablar de este sistema. Es una solución mucho mejor que el dispersante, porque acelera la subida del petróleo a la superficie, y para cuando lo hace, todavía se puede utilizar como combustible. Lo que vemos ahora en la superficie no sirve como combustible. El 40%, lo que hace que tu coche se mueva, ya se ha evaporado. Lo que queda es alquitrán.

Habla del océano como nuestro sistema de respiración, de apoyo vital. ¿Qué quiere decir?

Somos 6.700 millones de personas en la actualidad, que, a propósito, es lo que saca de beneficio BP cada trimestre. Sumamos 100 millones de habitantes al planeta cada año. Ya vivas en Santa Bárbara o en lo alto de una montaña, todavía dependes del océano. Cuando esquías en esa montaña, esquías en el océano. Cuando bebes un vaso de agua, estás bebiendo el océano. Estamos todos conectados y dependemos todos del océano para nuestra calidad de vida.

Es inevitable sentirse impotente ante un vertido tan grave como el del Golfo. ¿Qué se puede hacer?

Lo que está ocurriendo en el Golfo es como una patada en el culo, una oportunidad única para cambiar. Cada uno puede ser embajador para que nuestra comunidad entienda que debemos proteger nuestro sistema de protección de vida. Necesitamos cambio. Ya vale de parlotear. Pidamos a las personas que toman decisiones, al Gobierno, a la industria, que acepten el hecho de que necesitamos una comisión internacional para asegurarnos que tenemos la capacidad de prevenir, y de poseer un plan A, B y C en caso de accidentes, como en el programa espacial. Podemos hacerlo, y lo haremos.

¿No podemos dejar que solucionen el problema otros?

Mírale a un niño a los ojos. ¿Le vas a fallar? Tenemos capacidad de hacer algo por el mundo. En 1983 conocí a un jefe de una tribu del Amazonas que me mostró algunos de los árboles que había plantado, que medían unos cuatro metros. Me dijo, "¿Ves esos árboles? Yo no los veré lo suficientemente altos. Mis hijos tampoco. Quizás mis nietos. Pero mis binietos sí". Entonces se dio la vuelta y me dijo, "¿Ves aquel? Ese será una buena canoa". Ésa era su constitución no escrita del futuro. Ese hombre me impactó para el resto de vida tanto como lo hizo mi padre".

Fuente: elmundo.es, 29-6-10

 

-Stephen Hawking publicará su nuevo libro, "The Grand Design", en Septiembre

El científico británico Stephen Hawking publicará su nuevo libro, titulado 'The Grand Design', sobre su teoría para describir la naturaleza, el próximo 7 de septiembre, indicó hoy la editorial Bantam Dell.

Stephen Hawking

Se trata de la primera gran obra del físico y cosmólogo británico desde hace varios años y la publicará junto al también científico Leonard Mlodinow, con quien ya ha sido coautor de otras publicaciones como 'A Briefer History of Time (Brevísima historia del tiempo)'.

La editorial indicó que 'The Grand Design' se publicará a principios de septiembre y en ella Hawking y Mlodinow examinan una teoría para 'describir y explicar las fuerzas de la naturaleza'.

Hawking, que padece esclerosis lateral amiotrófica, también conocida como enfermedad de Lou Gehrig, ha sido honrado con doce doctorados honoris causa y galardonado con el Premio Príncipe de Asturias de la Concordia en 1989. Es también un divulgador científico conocido por sus teorías sobre los agujeros negros y la formación del universo. Hawking, que también fue condecorado con la Orden del Imperio Británico en 1982 y con la Medalla Copley en 2006, es autor de otros libros científicos de gran éxito como 'Agujeros negros y pequeños universos y otros ensayos' y 'El universo en una cáscara de nuez'.

Con Mlodinow, que es profesor en el Instituto de Tecnología de California, escribió en 2005 'Brevísima historia del tiempo', una versión de su primer 'best-seller' dirigido para el gran público y que versa sobre astrofísica y física teórica.

Fuente: 29-6-10

 

-Tecnología de andar por casa

Uno de los edificios de la sede de Microsoft en Redmond (Seattle, EEUU) alberga la Casa del Futuro (Microsoft Home), la recreación de un hogar donde la domótica se encuentra en todos y cada uno de sus rincones. Aunque, como precisa Flora Peabody, directora del programa de Estrategia y Prototipos de Consumo de la empresa, no pretenden "marcar el camino ni asegurar que el futuro tenga que ser así", sino "mostrar opciones de cómo se podrían hacer las cosas".

La casa fue creada hace 15 años con el objetivo de mostrar las innovaciones que podrían ir viéndose en nuestros hogares durante la década siguiente. Los avances introducidos desde entonces han sido sustanciales, hasta el punto de que quienes ya la han visto antes se sorprenden de cómo ha cambiado el futuro. Algunos de los productos de Microsoft que se encuentran en el mercado nacieron en esta Casa del Futuro; es el caso del Tablet PC o del Windows Media Center. Kinect, el nuevo sistema para la consola Xbox que convierte el propio cuerpo en el único mando necesario, bien podría haber nacido en esta casa del futuro, aunque la directiva se apresura a puntualizar que no es el caso.

La integración con Internet se manifiesta en cada habitación de la casa, desde el tablón de anuncios a la manera de gestionar y disfrutar de todo el contenido multimedia, "seleccionando miles de canales de televisión, archivos de vídeo y audio, correos electrónicos y blogs" desde un único dispositivo, explica Peabody. El objetivo es "mejorar significativamente la experiencia del usuario aprovechando toda la información que se encuentra a nuestro alcance, en este caso, en la Red", añade la ejecutiva.

Así, se puede leer una revista digital en la mesa del cuarto de estar, desde donde podemos manejar el televisor que tenemos enfrente interactuando con las imágenes. Es como una visita a un museo, en cuyo recorrido, muestra la directora de Prototipos, "un hijo dejara a su madre una nota llamando su atención sobre una obra en particular, en la que puede hacer clic desde la mesa para voltearla y verla desde diferentes ángulos; nunca antes una visita a un museo se había podido realizar así".

Decorar a la carta

En este sofisticado hogar, en el que las órdenes por voz son la norma, una constante en toda la casa es la instalación de proyectores. Gracias a ellos no sólo es posible ver la televisión, cuya pantalla se sustituye por una fina lámina de cristal, sino decorar a la carta cualquier habitación ajustando las imágenes a los marcos de las puertas o de las ventanas, reemplazando a la pintura o al empapelado de paredes. "Se puede cambiar la decoración al gusto, varias veces al mes si se desea", explica la responsable de Microsoft. Es el caso del dormitorio de los niños, en el que mediante diodos orgánicos de emisión de luz (OLED) las paredes se decoran con su música preferida, videoclips o páginas web.

Acompañando a estas proyecciones, unos sensores reconocen objetos e interactúan de manera inteligente. La encimera de la cocina está dotada de esta inteligencia y no sólo despliega complejas recetas de cocina sino que, "en los casos de las personas mayores", explica Peabody, "sólo han de dejar los frascos de las pastillas en la encimera y el sistema proyecta sobre esta las indicaciones de las dosis que han de tomar". No sólo reconocen los envases, sino las píldoras, evitando así errores en las dosis al haber confundido los frascos.

Visto el despliegue tecnológico en toda la casa, uno se pregunta si es energéticamente sostenible, si sus consumos respetan el cuidado por el medio ambiente, más allá de insertar sensores en las plantas que miden con extrema exactitud el nivel de humedad que requiere la tierra. En este sentido, toda la casa está dotada de sistemas inteligentes de iluminación y climatización, "por lo que el consumo de energía es lo más eficiente posible", se apresura a matizar la experta. Puntualiza, además, que "el despliegue que hay en esta casa no ha de ser el de una vivienda habitual, ya que esto no deja de ser un mero escaparate en el que se conjugan tecnologías para todos los gustos, desde los de ejecutivos de edad avanzada que visitan la instalación, al de niños o amas de casa".

Microsoft comparte su receta de seguridad

Vaciabolsillos

Al depositar el teléfono móvil, se accede a su contenido.
 

Panel de control

Informa de la temperatura y la humedad, de los mensajes en el contestador y de los emails.
 

Televisión interactiva
 

Proyectada en un cristal, permite visitar virtualmente un museo y girar las piezas.
 

Adornos dinámicos
 

Al depositar un objeto -por ejemplo, la Torre Eiffel-, los sensores lo detectan y decoran el panel con fotos de unas vacaciones en París.
 

Encimera táctil
 

Detecta los frascos de pastillas y proyecta las dosis necesarias. También es ideal para recetas.
 

Corcho inteligente
 

Las notas digitales interactúan con los elementos pegados.
 

Espejo asesor
 

Identifica la ropa que nos probamos y nos aconseja para conjuntar o ir a la moda.
 

Control táctil
 

La mesa permite leer una revista y controlar la televisión. 

 

Fuente: publico.es, 28-6-10

 

 

 

 

 

-Las abejas imprescindibles para el ser humano

 

El 75 por ciento de la flora silvestre se poliniza gracias a las abejas y casi el 40 por ciento de las frutas y verduras que comemos procede de la polinización, que realizan estos insectos en declive por un "cóctel" de amenazas como los plaguicidas, transgénicos, el ácaro varroa, e incluso la mala acción de apicultores inexpertos.
Así lo han expresado a EFEverde diversos expertos consultados, que han coincidido en destacar que estos insectos, a menudo molestos, para los habitantes de las ciudades son imprescindibles para la vida.

A pesar de que la investigación del ahora conocido "Síndrome de despoblamiento de las colmenas" se inició en 2005, a día de hoy aún no se conocen las causas del por qué de esta paulatina disminución de las abejas de la miel. Los científicos insisten también en la pérdida económica que supone la disminución de estos insectos y afirman que toda la actividad económica que genera la existencia de las abejas mueve alrededor de unos 10.000 millones de euros anuales. Afortunadamente en España viven 1.000 de las 25.000 especies de abejas que existen en el mundo y la abeja de la miel es tan sólo una de ellas.

Concienciar a la sociedad

Aquellos que están involucrados en el mundo de las abejas y conocen su problemática se han puesto manos a la obra para intentar concienciar a la sociedad de la importancia de su cuidado, coinciden desde investigadores a responsables de colmenas.

El apicultor de Apitecnic, Alberto Castro, ha explicado a Efeverde que uno de sus principales objetivos como profesional es, actualmente, la creación de estaciones de polinización en La Pedriza (Madrid), con colmenas diseñadas para hacer estudios y así poder demostrar la importancia de las abejas en los ecosistemas.

"Si no existieran polinizadores naturales como las abejas, no habría plantas, sin ellas no existirían los animales herbívoros y sin éstos, los carnívoros tampoco, por lo tanto al hombre le quedarían muy pocas posibilidades de sobrevivir sin estos insectos", ha afirmado Castro.

Sin embargo, no toda la culpa es de la mala acción del hombre. El científico del Real Jardín Botánico, Pablo Vargas, ha reiterado a Efeverde que son "varias las especies de abejas en peligro de extinción".

En algunos casos porque se especializan en una planta poco común y si ésta desaparece por las causas que sea, lo hace también la abeja" que depende de ella.

En España existen 250 asociaciones de apicultores, más de quince museos, 2.700.000 colmenas, pero lo que no existe es una educación adecuada para aquellos que se dedican profesionalmente a las abejas. Los apicultores profesionales denuncian que no hay formación a nivel profesional, ni centros de selección, y que se presta poca atención a un oficio que se ve como algo del pasado. La razón principal es -añaden- la escasa importancia que el ser humano concede a este insecto.

 

Fuente: EFE, 26-6-10

 

 

 

 

 

-Las energías renovables de origen marino están sin desarrollar en Canarias

Las energías renovables de origen marino no se han desarrollado en Canarias, a pesar de las posibilidades que ofrece el archipiélago, debido a dificultades administrativas en algunos casos o a que no han pasado de ser experiencias piloto sin aprovechamiento comercial.

Así lo indicó a Efe el director de la Agencia Canaria de Desarrollo Sostenible y Cambio Climático, Jorge Bonet, quien recordó que existen diversos tipos de energías renovables con origen en el mar, como la eólica marina ('offshore'), la que utiliza el oleaje o la que aprovecha la diferencia térmica entre la profundidad y la superficie.

La energía eólica marina tiene costes de mantenimiento altos pero sus rendimientos también son elevados, pues en el mar hay viento de manera casi constante, indicó Bonet.

El desarrollo de este tipo de energía es prácticamente imposible en Canarias debido a la normativa actual, ya que existe un decreto estatal que regula la instalación de plantas eólicas en el mar que no ha tenido en cuenta la insularidad ni sus sistemas aislados. Además, la ley establece que no se puede instalar un aerogenerador en los primeros seis kilómetros a partir de la línea de costa, lo que supone que en Canarias no hay ningún punto con los 50 metros de profundidad necesaria que cumpla este requisito.

'Esta salvedad se ha incluido en la norma por razones paisajísticas, pero impide de facto que pueda instalarse energía eólica marina en Canarias', aseguró Bonet.

 

Por otra parte, la potencia mínima de 50 megavatios establecida para las centrales eólicas marinas no es de aplicación en algunas islas, como El Hierro, pues exige una inversión demasiado elevada.

'En este momento la normativa impide que la energía eólica marina se desarrolle en Canarias', insistió el director de la Agencia Canaria de Desarrollo Sostenible y Cambio Climático.

En el caso de los otros tipos de energías renovables de origen marino diferentes a la eólica, como la que aprovecha el oleaje o la diferencia de temperatura, no existe ningún desarrollo más allá de experiencias piloto. Actualmente está en marcha la Plataforma Oceánica de Canarias (PLOCAN), una instalación para la investigación marina de referencia en el Atlántico medio, que comenzará a funcionar en 2012 y en la que participan el Estado y el Gobierno de Canarias.

Es una instalación fija que se situará sobre el borde de la plataforma continental al este de la isla de Gran Canaria, en la zona de Telde. Pretende convertirse 'en una base autónoma y sostenible que albergará un conjunto de instalaciones y laboratorios experimentales desde la que se iniciará la ocupación y operación oceánica estable para acceder al océano profundo a través de vehículos y maquinaria de trabajo submarino', según sus promotores.

En la PLOCAN se desarrollarán todo tipo de trabajos e investigaciones científico-tecnológicas avanzadas: desde la investigación científica marina hasta estudios sobre el aprovechamiento de los recursos energéticos marinos. La plataforma dispondrá de conexiones mar-tierra y mar-mar y será accesible por mar y aire.

Además, dispondrá de todas las instalaciones necesarias para la realización de trabajos e investigaciones submarinas, por lo que contará, por ejemplo, con cámara hiperbárica y acceso submarino para vehículos. La plataforma también podrá ser utilizada para la instalación de servicios a profundidades hasta ahora desconocidas y en torno a 300 y 400 investigadores y empresas tecnológicas podrán desarrollar su trabajo en la PLOCAN, según las previsiones.

Fuente: EFE, 25-6-10

 

-Llegan los pulmones artificiales

Dos estudios publicados hoy suponen un paso clave hacia un futuro en el que los pulmones para trasplantes e investigación científica se fabricarán en un laboratorio. Se trata de métodos aún experimentales y que tardarán décadas en hacerse realidad, pero si demuestran ser viables, podrán acabar con la enorme escasez de pulmones para trasplantes que hay en todo el mundo. También aportarían una nueva generación de órganos artificiales con los que probar la toxicidad de cualquier tipo de compuestos químicos, incluidos los nanomateriales que ya están llegando al mercado, y sin necesidad de usar animales de laboratorio.

El primer trabajo, publicado hoy en Science, ha logrado reconstruir un pulmón de rata que había sido previamente vaciado. La técnica, que ya se ha usado para reconstruir corazones, hígados y otros órganos, consiste en tomar un pulmón de rata adulta y usar detergentes especiales hasta retirar de él todas las células que lo componen. El resultado es un andamio de tejido conectivo blanquecino que tiene forma de pulmón, pero que ya no lo es, pues está vacío de venas, alveolos, ADN y cualquier otro rastro de la rata que donó el órgano.

Después se introduce ese esqueleto en un tanque que imita un útero y se le baña con células de ratas recién nacidas. También se le inyecta aire para que vaya recobrando la elasticidad característica que hace posible la respiración. En ocho días se retira el órgano del tanque y se trasplanta.

"Los pulmones todavía no son perfectos, pero hemos demostrado que funcionan", explica a Público Thomas Petersen, investigador de la Universidad de Yale (EEUU) y coautor del estudio. Tras el tratamiento, los pulmones recuperan los componentes que permiten la respiración. Una vez inyectadas, las células epiteliales reconstruyen los alveolos, sacos microscópicos en los que el oxígeno atraviesa el tejido y entra en el flujo sanguíneo. Otro tipo de células, las endoteliales, reconstruyen los vasos sanguíneos que envían el oxígeno al resto del cuerpo. Trasplantados en ratas receptoras, los órganos funcionaron correctamente durante dos horas. "En esta ocasión sólo queríamos probar que es posible usar esta técnica para reproducir el intercambio de gases que hace posible la respiración", explica Petersen, cuyo equipo ya prepara otros experimentos de mayor duración.

"Como sólo usamos la estructura y no el órgano en sí, creemos que también podrían usarse pulmones de cerdo o de chimpancé para futuros trasplantes en humanos", aventura Petersen. "Llegar a aplicar esto en una clínica podría llevar 20 años", advierte.

"Esta técnica puede convertirse en una solución definitiva, porque permite hacer órganos a la carta para cada receptor", explica Rafael Matesanz, coordinador de la Organización Nacional de Trasplantes (ONT). Usar los andamiajes de órganos donados permite rellenarlos con células del propio paciente, evitando, en teoría, el rechazo. En España, además, permitiría aprovechar el 80% de los pulmones que se donan y que no pueden trasplantarse, pues su estado no es óptimo. La ONT ya colabora en un proyecto similar que usa corazones donados para fabricar otros nuevos a partir de sus andamiajes.

 

Ensayo en España

"Estoy convencido de que reparar o crear nuevos órganos de esta forma será la principal vía de abastecimiento para trasplantes en el futuro", asegura Andrés Varela, jefe de cirugía torácica del hospital Puerta de Hierro de Madrid, uno de los siete centros es-pañoles donde se hacen injertos de pulmón. Varela quiere comenzar un ensayo en el que los pulmones de los donantes se tratarán con células madre de los receptores para evitar el rechazo.

El segundo estudio, también publicado en Science, allana el camino hacia órganos artificiales con los que probar la toxicidad de nanomateriales usados en pinturas, aislantes y otros productos. Se trata de un minipulmón construido sobre una plataforma transparente del tamaño de una goma de borrar.

Este chip lleva en su interior una lámina de tejido con células epiteliales y endoteliales humanas, iguales a las que existen dentro de los alveolos. La capa de tejido es elástica para adaptarse al ritmo respiratorio y deja entrar oxígeno y otras partículas hasta los vasos sanguíneos. Aún no es capaz de realizar el proceso completo de respiración, pero sí simular la entrada de aire en los pulmones. Esto ha permitido, por ejemplo, demostrar la toxicidad de nanopartículas de silicio que se usan en pinturas anticorrosivas.

Un robot científico

El chip podría convertirse en la nueva rata de laboratorio. Mientras los ensayos toxicológicos o farmacológicos con animales pueden llegar a costar más de un millón de euros, el chip cuesta menos de diez céntimos y el equipamiento necesario para usarlo, unos 1.500 euros, según señalan sus creadores.

"Aún es pronto para predecir el futuro de estas aplicaciones", advierte Dan Huh, investigador de la Universidad de Harvard (EEUU) y uno de los creadores del ingenio. "Esta nueva tecnología podría permitirnos conectar varios de estos órganos artificiales para crear un sistema circulatorio con el que hacer ensayos biológicos sobre la respuesta del cuerpo a medicamentos y toxinas, sin la necesidad de realizar largos y costosos ensayos con animales", concluye.

Corazones, hígados, vejigas y penes

La pionera. Corazón

En 2008, la investigadora de la Universidad de Minnesota (EEUU) Doris Taylor dio un paso clave hacia el futuro de la medicina regenerativa. Vació un corazón de rata usando detergentes hasta conseguir una estructura sin células. Después lo sembró con células cardiacas de rata recién nacida. Poco después, el primer corazón bioartificial daba sus primeros latidos. El equipo quiere usar esta técnica para recubrir corazones humanos donados con células madre del paciente receptor, lo que evitaría el rechazo del órgano.
 

Colaboración española. Humanos

Taylor ha colaborado con expertos del hospital Gregorio Marañón de Madrid, que en mayo lograron vaciar un corazón humano para obtener su andamiaje. Ahora, el equipo trabaja en recubrir esa estructura con células madre para crear el primer corazón humano bioartificial.
 

Hígado. Igual que el natural

El 13 de junio, un equipo del hospital General de Massachusetts (EEUU) usó la técnica del vaciado celular para crear un hígado funcional en ratas. Tras el vaciado y la recelularización, el órgano fue trasplantado a animales receptores. Su funcionamiento era equiparable al de hígados normales.
 

La alternativa. Moldes

El investigador Anthony Atala, del Instituto Wake Forest de Medicina Regenerativa (EEUU), tiene su propia receta para fabricar tejidos y órganos. En lugar de usar andamiajes obtenidos de órganos naturales, usa moldes que recubre con células madre. Su técnica ha permitido crear vejigas funcionales en perros así como regenerar penes de conejo y permitir a los animales reproducirse sin problemas. 

Fuente: publico.es, 25-6-10

 

 

-El genoma humano espera su revolución

Diez años después de su publicación, la mayoría del libro de la vida sigue siendo un misterio. La secuenciación del genoma humano, que fue comparada con la llegada a la Luna o la invención de la rueda, ha planteado muchas más preguntas que respuestas sobre cómo sus 3.000 millones de bases de ADN predisponen a una persona hacia la salud o la enfermedad.

Lo que sí ha logrado la publicación de esta y otras secuencias, de animales como el ratón o parientes cercanos del hombre como el chimpancé, es cambiar para siempre la manera de trabajar de los científicos que estudian casi cualquier aspecto de la biología, desde los orígenes remotos de las poblaciones actuales hasta la búsqueda de nuevos fármacos contra el cáncer.

"El genoma humano es una herramienta fundamental en la investigación y ha marcado un antes y un después", explica a Público Jaume Bertranpetit, director de la Unidad de Biología Evolutiva de la Universidad Pompeu Fabra. "Sin embargo, no va a cumplir las expectativas, pues se puso un énfasis exagerado en que lo va a curar todo", advierte.

El primer borrador del genoma humano se anunció el 26 de junio de 2000. Sucedió en la Casa Blanca, donde el entonces presidente de EEUU Bill Clinton y el primer ministro británico Tony Blair recibieron a Francis Collins y Craig Venter, dos genetistas que llevaban meses peleando para ser los primeros en descifrar la secuencia completa del genoma humano. Collins lideraba el Proyecto Genoma Humano (PGH), una iniciativa pública en la que participaron unos 2.000 investigadores de EEUU, Reino Unido, Alemania, Francia, Japón, China, India, Canadá y otros países. Venter capitaneaba la empresa Celera, creada para secuenciar el primer genoma humano antes que el proyecto público y financiarse cobrando cuotas por acceder a sus datos. Tras muchas desavenencias y cruces de acusaciones, ambos científicos accedieron a realizar un anuncio conjunto.

"Una vez se logre la secuencia completa", decía el comunicado de la Casa Blanca, el genoma humano servirá para "alertar a pacientes de que sus genes les ponen en riesgo de sufrir ciertas enfermedades", "predecir el curso de una dolencia" y "diagnosticar con precisión el tratamiento a seguir". Diez años después del anuncio, una encuesta publicada hoy por Nature en la que han participado mil investigadores biomédicos de EEUU, Europa y otros países concluye que casi la mitad de los encuestados piensa que se exageró el potencial de la secuenciación del genoma humano. "Hay algo de decepción debido a que, a pesar de tener tanta información, hay aún mucho que no entendemos", explica a la revista David Lipman, director del Centro Nacional de Información Biotecnológica de EEUU.

Genes y proteínas

La secuenciación del genoma permitió identificar unos 20.000 genes que fabrican proteínas humanas. Esas proteínas son el motor de la vida, y también de la enfermedad. La información ha servido para identificar cientos de genes relacionados con muchas enfermedades. Su utilidad clínica ha sido enorme en enfermedades hereditarias raras que están causadas por tan solo un puñado de modificaciones en genes concretos. Las malas noticias son que las grandes asesinas como el cáncer o la diabetes tienen un origen complejo, en el que posiblemente cientos o miles de genes intervienen en la enfermedad junto a otros factores como la dieta, la actividad física y muchos otros, cuyo origen podría estar en ese 80% de ADN basura que no secuencia proteínas.

"Hace unos años, nuestra relación con el genoma era de enamoramiento, estábamos entusiasmados de su potencial", explica el investigador del Instituto Catalán de Oncología Manel Esteller. "Ahora es como un matrimonio, pues nos hemos dado cuenta de que es sólo la base desde la que debemos reconstruir y entender la biología molecular del cáncer", añade.

La tecnología plantea un futuro más prometedor. La secuencia completa del PGH se publicó en 2003. Costó unos 2.000 millones de euros y se tardó más de diez años en lograrla. Ahora, la tercera generación de máquinas lectoras de ADN hacen lo mismo en meses y por algo más de mil euros, tal y como anunció el año pasado una empresa estadounidense. Estos avances traerán una nueva era de medicina personalizada en la que los médicos diagnostiquen y traten a cada enfermo de acuerdo con las particularidades de su ADN.

La antesala de ese futuro son los nuevos tests genéticos que se venden por Internet y que ofrecen información sobre enfermedades. Estos productos han ganado popularidad en los últimos años, sobre todo en EEUU, hasta el punto de que se han intentado vender en farmacias. Las dudas sobre su fiabilidad, utilidad y los riesgos de privacidad han hecho que el Congreso de EEUU abra una investigación a tres empresas líderes del sector.

Tratamientos a la carta

"En el futuro, secuenciar nuestro genoma será rápido y barato y eso nos permitirá usar esa información para tratar distintas enfermedades", asegura la investigadora del CNIO María Blasco. "Pero la utopía de personalizar los tratamientos de acuerdo con el genoma de cada uno implica un gran desarrollo tecnológico y bioinformático", reconoce.

"En unos cinco años llegarán los primeros estudios del genoma completo de pacientes y conclusiones sobre su respuesta a fármacos como la quimioterapia, por ejemplo", señala Esteller. "Después, en unos diez años, se generalizarán estas prácticas que no curarán el cáncer, pero sí predecirán cómo reaccionará el paciente", añade.

Las factorías de secuenciación que hagan posible ese futuro no estarán en Europa ni EEUU, sino en Asia. China volverá a convertirse en el taller del mundo gracias a lugares como el Instituto BGI de Hong Kong, donde ya se secuencia el equivalente a un genoma humano cada 15 minutos y pronto se alcanzará la cifra de 10.000 secuencias al año. "Esta era nos traerá un nuevo boom excesivo de información", opina Bertranpetit. "Nos va a decir mucho más de lo que podremos entender", advierte.

Fuente: publico.es, 24-6-10

 

 

 

-Un grupo de escolares descubre una misteriosa cueva en Marte

 

Cueva marciana

Un grupo de intrépidos estudiantes de entre 12 y 13 años que participaban en un programa educativo de la NASA, ha descubierto una cueva en Marte.

Los 16 estudiantes de la clase de ciencia del maestro Dennis Mitchell, en la Secundaria Evergreen en Cottonwood,California, descubrieron lo que parece ser un tragaluz marciano: un agujero en el techo de una cueva en Marte.

Los escolares participaban en el Programa de Imágenes Estudiantiles de Marte, en el Centro de Vuelo Espacial a Marte en la Universidad Estatal de Arizona. Dicho programa tiene como objetivo estudiar imágenes captadas por una nave espacial de la NASA que orbita alrededor del Planeta Rojo.

"Esta fosa definitivamente es nueva para nosotros", le dijo Cushing a los estudiantes. "Y es apenas la segunda que se conoce asociada con el volcán Pavonis Mons". Cushing calculó que el cráter mide aproximadamente 190 por 160 metros de ancho y que tiene una profundidad de por lo menos 115 metros.

Un hallazgo por sorpresa

Los jóvenes investigadores se habían propuesto buscar en un principio tubos de lava, una característica volcánica común tanto en la Tierra como en Marte. La clase realizó una fotografía y una imagen de respaldo del volcán Pavonis Mons de Marte, enfocadas a una región de la que no se tenían imágenes de cerca.

Las imágenes fueron tomadas por la sonda Mars Odyssey de la NASA, usando su instrumento THEMIS (acrónimo en inglés para Sistema de Imágenes de Emisión Térmica). Ambas imágenes mostraban tubos de lava, tal como habían esperado los estudiantes.

Pero la fotografía de respaldo proporcionó otra sorpresa: un punto negro, pequeño y redondo. Era un agujero en Marte que conducía a la cueva enterrada, dijeron los investigadores.

Los estudiantes han presentado su sitio de investigación para que sea analizado con más imágenes captadas por la cámara HIRISE (siglas en inglés de Experimento Científico de Imágenes de Alta Resolución), que se encuentra en la nave espacial Mars Reconnaissance Orbiter, que podrían revelar detalles suficientes como para ver al interior del agujero en la superficie.

"El Programa de Imágenes Estudiantiles de Marte definitivamente es uno de los mejores programas educativos que se han desarrollado", afirmó Mitchell.

Fuente: elmundo.es, 24-6-10

 

 

-Los cosmólogos toman medidas a la "partícula fantástica"

Los neutrinos apenas interaccionan con la materia, por lo que la atraviesan sin inmutarse, son como partículas fantasmas que podrían pasar a través de un bloque de plomo de un grosor de un año luz (nueve billones y medio de kilómetros) sin chocar con un átomo del metal. Están por todo el universo y billones de ellas atraviesan constantemente cada de centímetro cuadrado de tierra, agua o persona. Desde hace unos años se sabe, en contra de lo que se pensaba, que estas partículas tienen masa, pero muy pequeña, y es muy difícil medirla. Ahora, un equipo de cosmólogos del University College of London (UCL, Reino Unido) anuncia que la masa del neutrino no supera los 0,28 electronvoltios, lo que significa menos de una milmillonésima de la masa de un átomo de hidrógeno.

Su conclusión se basa en el análisis de la distribución de galaxias en el universo y es, según afirman estos científicos, la medida más precisa hasta ahora de la masa del neutrino.

La investigación tiene implicaciones cosmológicas porque los neutrinos, tan abundantes como ligeros, podrían constituir una parte, aunque muy pequeña, de la enigmática materia oscura del universo, o parte de ella. Los cálculos más actuales indican que sólo el 4,6% del cosmos está hecho de materia corriente, mientras que un 23,3% debe ser materia oscura, cuya presencia se nota por su efecto gravitacional, pero no brilla de ningún modo; el resto, un 72,1% sería energía oscura, algo mucho más misterioso aún.

Ofer Lahav, Filipe Addalla y Shaun Thomas (cuya tesis doctoral es la investigación en cuestión sobre la masa máxima del neutrino) presentarán sus resultados detallados en la revista Physical Review Letters, pero de momento han dado a conocer sus conclusiones en un congreso celebrado en Londres. "Aunque los neutrinos suponen menos del 1% de toda la materia, son una parte importante del modelos cosmológico, es fascinante cómo la esquiva y minúscula partícula puede tener tal efecto sobre el Universo", afirma Thomas en un comunicado del UCL.

El descubrimiento de la masa de los neutrinos y la mayoría de los experimentos en curso para determinar su valor se basan en experimentos en los que estas partículas, tras recorrer grandes distancias, se transmutan de un tipo en otro (hay tres tipos de neutrinos). Las observaciones se hacen tanto midiendo los neutrinos procedentes del Sol, por ejemplo, como registrando en un detector los tipos de neutrinos que llegan de un haz de estas partículas disparado a centenares de kilómetros y que también en ese caso se transmutan de un tipo a otro mientras viajan.

 

La distribución de galaxias se presenta en este mapa tridimensional del Sloan Digital Survey, desde la perspectiva de la Tierra en el centr- M.BLANTON / SLOAN DIGITAL SURVEY

Pero Lahav y sus colegas han recurrido a otra estrategia completamente distinta, aprovechando la información que proporciona el mayor mapa tridimensional de galaxias que se ha hecho hasta ahora: el MegaZ, con 700.000 galaxias registradas en el proyecto de observación Sloan Digital Survey. Tal es la abundancia de neutrinos en el universo que su efecto acumulativo influye en la distribución de la materia, en gran medida condensada en grupos galaxias. Ellos han analizado el efecto de los neutrinos en la distribución de las galaxias en combinación con la apariencia del cosmos primitivo tal y como se refleja en la llamada radiación de fondo, que se emitió cuando el universo tenía algo más de 300.000 años (ahora tiene 13.700 millones) y que se mide en todo el cielo. Este análisis ha permitido establecer la máxima masa del neutrino, pero Abadlla considera que la técnica es tan eficaz que permitirá en el futuro afinar aún más ese valor.

Fuente: elpais.com, 23-06-10

 

-El hombre de Atapuerda ocupó Gran Bretaña

El Hombre de Atapuerca se está haciendo cada vez más europeo. Hace unos días, los responsables del yacimiento burgalés encontraron herramientas de más de 1,3 millones de años, lo que atrasa la fecha en la que el Homo antecessor, considerado el primer europeo, llegó a la sierra de Burgos. Su rastro se pierde hace unos 800.000 años. Ahora, un grupo de paleoantropólogos británicos ha encontrado restos que sugieren que, antes de desaparecer, el antecessor pudo ser el primer humano que se asomó al Támesis.

  El batir del mar durante eras en las playas del este de Inglaterra ha destapado el tesoro. Se trata de una fina línea de sedimentos con 78 herramientas de sílex muy afiladas. Son el testimonio inequívoco de presencia humana. Su edad, de entre 860.000 y 970.000 años, apuntan a un candidato claro.

"Lo más probable es que el que talló estas piedras fuese un antecessor, pues era la especie que más cerca estaba de Inglaterra, y su rango de edad en Atapuerca encaja perfectamente con el nuestro", explica a Público Chris Stringer, investigador del Museo de Historia Natural de Londres y uno de los responsables de las excavaciones en los arenales de Happisburgh, donde han aparecido los restos.

Por ahora se trata sólo de una hipótesis, pues aún no se han hallado fósiles humanos como los que han aparecido en Atapuerca. Sin embargo, los colegas españoles de Stringer lo tienen claro.

"Obviamente se trata de restos de antecessor", aventura Eudald Carbonell, codirector de Atapuerca. "Si se encuentran restos humanos se confirmará aún más que esta es la primera especie humana hecha en Europa y adaptada a este continente", detalla.

La población humana destapada por Stringer y descrita en Nature es la más antigua hallada hasta el momento en el norte de Europa.

Conexión Burgos-Happisburgh

La conexión Burgos-Happisburgh es plausible. Las herramientas halladas en Reino Unido "son comparables a las del antecessor y su tecnología es similar", acepta Stringer. Quienesquiera que fueran, los primeros humanos de Inglaterra pasaban las mismas fatigas que los antecessor de Burgos. "Su forma de vida pudo ser muy similar", explica Stringer. "Eran cazadores recolectores, tomaban carne de animales muertos o incluso los cazaban", detalla.

También hay grandes diferencias. El misterioso poblador británico habitó bosques de pinos similares a los del sur de Escandinavia. Sus herramientas han aparecido junto a restos de mamuts y caballos primitivos, así como especies de ciervos y roedores extintos. El lugar no podría ser más emblemático, pues se encontraba a orillas del Támesis, que en aquella época pasaba a 150 kilómetros al norte de lo que hoy es Londres.

"Los restos demuestran que eran muy inteligentes", opina Mike Field, investigador de la Universidad de Leiden (Holanda) y coautor del estudio. "Hubieran sido muy buenos biólogos, pues sabían identificar y trabajar las mejores piedras y las mejores plantas en su provecho", detalla.

Los expertos creen que estos pobladores aprovecharon un periodo de clima más cálido para llegar hasta Gran Bretaña desde refugios cálidos en Europa como el de Atapuerca. Cruzaron por un pasillo de tierra natural que desapareció hace 450.000 años. Supieron adaptarse al frío y la vida en nuevos bosques. "Eran poblaciones pequeñas y móviles; en épocas más frías pudieron volver a migrar hacia el continente, tal vez hacia lo que hoy es Holanda", detalla Field.

Atapuerca era por aquel tiempo una especie de sabana mediterránea. Las antiguas cuevas que habitaron los antecessor están hoy llenas de sedimentos y, de no ser por las voladuras realizadas a finales del siglo XIX para construir un ferrocarril, seguirían a decenas de metros bajo tierra. De uno de los yacimientos más antiguos del lugar, la Sima del Elefante, acaban de salir dos herramientas líticas que parecen indicar que la presencia de los humanos en este lugar es más antigua de lo que se pensaba. Los responsables del yacimiento presentarán hoy estos y otros hallazgos y mañana recogerán los bártulos hasta 2011. "Tengo muy buen olfato y creo que el año que viene puede haber sorpresas ", aventura Carbonell.

Sus homólogos ingleses no tienen tantas esperanzas. "Nuestro yacimiento fue un lugar de actividad en la ribera, pero aquellos humanos no vivían aquí", comenta Field. Los expertos creen que los asentamientos estaban tierra adentro, en el corazón del bosque, donde hoy extraer fósiles es casi imposible. Si el hielo de las glaciaciones no los ha arruinado, los excavadores tendrían que abrirse paso a través un lecho de roca para encontrarlos. "Sería un trabajo ímprobo", explica Stringer. "Por el momento vamos a concentrarnos en la ribera, donde esperamos encontrar huesos humanos algún día", concluye.

Fuente: publico.es, 23-6-10

 

-El espacio para la investigación de mecánica cuántica

El espacio es el lugar ideal para realizar experimentos de mecánica cuántica con la mayor precisión posible, ya que la gravedad no afecta a las medidas, explican los investigadores del proyecto Quantus en la Universidad de Hamburgo. Además, estos experimentos permiten acercarse a las fronteras de dos campos de la física básicos pero que siguen separados, sin que se hayan podido conectar hasta ahora: la gravedad y la mecánica cuántica

Sin embargo, son estudios muy difíciles de diseñar y de realizar, ya que el sujeto de experimentación es materia muy delicada: los condensados de Bose Einstein, grupos de átomos que a muy bajas temperaturas están en idéntico estado cuántico y pierden su individualidad para comportarse conjuntamente como una partícula cuántica única. Hasta 1995 no se lograron crear estos conjuntos de átomos predichos por los físicos que los bautizaron y que ya han sido objeto de un premio Nobel.

El primer paso hacia el estudio cuántico en condiciones de microgravedad lo han dado los investigadores del proyecto citado al lograr dejar caer repetidamente un experimento con un condensado de Bose Einstein, con láseres y todo, desde una altura de 146 metros sin que cambiara su naturaleza. Toda una proeza técnica que permite pensar en futuros experimentos espaciales, que podrían poner a prueba con mayor precisión la teoría de la relatividad general de Einstein y revelar las propiedades gravitatorias de la materia cuántica. Los resultados se publican en la revista Science.

Las caídas libres, analizadas al detalle, se han hecho en el interior de la torre de experimentación ZARM, en Bremen. En estas condiciones, la gravedad en el interior de la cápsula que contiene el experimento es hasta 100.000 veces inferior a la terrestre.

Así, los investigadores, de Alemania, Reino Unido y Francia partieron de unos 10 millones de átomos de rubidio-87 enfriados a temperatura muy baja. Se cargaron en una trampa magneto-óptica en el interior de la cápsula de caída, un cilindro de 60 centímetros de radio por 215 centímetros de altura. Durante la caída, los átomos se siguen enfriando con láseres hasta conseguir crear un condensando de Bose Einstein de unos 10.000 átomos. Luego, el conjunto se libera con delicadeza de la trampa para que se expanda muy despacio, mientras se ilumina con un láser y se capta con una cámara electrónica.

Los experimentos en la torre de Bremen son parecidos en diversos aspectos a los de una plataforma espacial, explican los investigadores, lo que les exigió un gran esfuerzo de miniaturización y limitación en el peso y en la potencia consumida en el diseño de los componentes mecánicos, ópticos y electrónicos. El resultado fue la cápsula más compacta y pesada de las que se han tirado hasta ahora en la torre de Bremen. Las medidas han indicado que el movimiento del condensado dentro de la cápsula se debe a campos magnéticos residuales y no tiene origen gravitatorio. Por eso, los investigadores han comentado a la revista Physics World que quieren repetir el experimento con átomos en un estado cuántico ligeramente diferente, que no resulten afectados por los campos magnéticos y permitan tomar mejores medidas gravitatorias.

 

Torre de experimentos de Bremen

Según Ernst Rasel, director del equipo, el objetivo es estudiar los condensados en el espacio, donde se harían experimentos de interferometría que permitirían detectar pequeñísimas variaciones en la gravedad. Así se buscarían ondas gravitacionales, cuya existencia se supone pero no se ha confirmado, y se podría comprobar con mucha precisión el principio de equivalencia de la teoría de la relatividad general.

Fuente: elpais.com, 23-6-10

 

-El ancestro de "Lucy" ya andaba de pie

Los huesos de un nuevo australopiteco desenterrado en Etiopía acaban de corroborar que estos posibles antepasados del hombre ya andaban siempre sobre dos piernas hace 3,58 millones de años. Así lo creen los investigadores de EEUU y Etiopía que en 2005 hallaron el esqueleto más antiguo y completo de un Australopithecus afarensis adulto, al que han llamado Kadanumu. Significa hombre grande en afar, la lengua que se habla en la región al norte de Etiopía donde se encontraron sus restos.

"Esta especie ya no mostraba rasgos físicos de un animal que trepa por los árboles y se cuelga de ellos como el chimpancé", explica a Público Owen Lovejoy, investigador del Museo de Historia Natural de Cleveland (EEUU) y autor principal de la descripción de Kadanumu en PNAS.

Se trata del espécimen más completo desde Lucy, una afarensis encontrada en 1974 en Hadar, una localidad al sur de la región de Afar. Lucy fue un hallazgo histórico, pues conservaba parte de su cráneo. El esqueleto permitió determinar su sexo y que presentaba la estatura de una niña de 7 años actual. Sus descubridores concluyeron que, hace 3,2 millones de años, los afarensis tenían una capacidad cerebral mucho menor a la del hombre, pero ya andaban la mayor parte del tiempo sobre dos piernas. Las pruebas no bastaron a otros expertos, que opinaron que Lucy era más simiesca y probablemente no estaba equipada para vivir siempre sobre dos extremidades. Otra incógnita era la estatura de los afarensis adultos y cómo de desarrollado tenían su cerebro.

El esqueleto de Kadanumu responde una de esas preguntas y deja la otra en suspenso. Los investigadores no han encontrado ni rastro de su cráneo. Sí han recuperado suficientes huesos de sus extremidades y tórax, incluidas su clavícula y algunas vértebras, que permiten concluir que los afarensis estaban equipados para andar tan bien sobre dos piernas como lo hace un sapiens. "Sus hombros y caja torácica nos muestran que eran más parecidos a los humanos de lo que pensábamos", explica Lovejoy.

 

Una de las piezas clave de este nuevo esqueleto es su omóplato, pues los restos de Lucy carecían de esta pieza. Comparada con la de un gorila, un chimpancé y un humano moderno, la pieza es más similar a la de esta última especie. Su cadera refuerza el bipedalismo e indica que un afarensis similar a Kadanumu fue el que dejó las famosas pisadas fósiles de Laetoli, en Tanzania, que dan fe de bipedalismo hace unos 3,5 millones de años. Aunque los expertos no han encontrado ni rastro de los pies ni de las manos de Kadanumu, estiman que su estatura estuvo entre 1,52 y 1,67 metros, mucho más de lo que medía Lucy, explica Lovejoy.

Confirmación

Los expertos concluyen en su artículo que el bipedalismo apareció muy temprano y que su diseño fisiológico permaneció prácticamente intacto durante millones de años, dadas las similitudes de la cadera de Kadanumu con la de un Homo erectus que vivió en Etiopía 2,2 millones de años después.

"Los resultados muestran que afarensis ya estaba muy avanzado en el camino evolutivo que llevaría a otros homínidos", opina Enrique Baquedano, director del Museo Arqueológico Regional de Madrid y excavador de la garganta de Olduvai en Tanzania, otra de las cunas de la familia humana.

Fuente: publico.es, 22-6-10

 

-Los pingüinos se mueren de frío en Sudáfrica

La isla, de 19 hectáreas, forma parte del Parque Nacional Addo Elephant, situado en la provincia del Cabo Oriental, en el extremo sureste de Sudáfrica, sobre el océano Indico.

'Los pollitos de los pingüinos empezaron a morir el pasado martes, cuando el tiempo extremadamente frío se juntó con fuertes vientos e intensos chubascos en la provincia del Cabo Oriental', dijo a la agencia local SAPA la directora de comunicación de la Administración de Parques Nacionales de Sudáfrica, Megan Taplin.

Los pollitos muertos, de entre pocas semanas y dos meses, son ya 600, después de que la isla registrara temperaturas de entre 8,8 y 12 grados centígrados en los tres días pasados, muy bajas para el litoral sudafricano.

El frío estuvo acompañado por vientos de 95 kilómetros por hora y unas precipitaciones totales en 72 horas de 63,2 milímetros de agua, anormales en esta época del año.

'Los guardas del parque destinados en la isla utilizan todos los medios posibles para aliviar la situación, sin contar con ayuda del continente debido a la mala mar', agregó Taplin, quien explicó que facilitan refugios temporales a los pingüinos con los materiales que tienen a mano, además de retirar agua de los nidos.

Taplin indicó que los pingüinos africanos no protegen a sus crías del mismo modo que los de la zona antártica y, aunque los pollos a veces están en madrigueras, otras salen junto a sus padres al aire libre. Algunos pingüinos heridos y los pollos abandonados han podido ser trasladados hoy en helicóptero a Port Elizabeth, donde existe un centro de rehabilitación para estas aves, habituales en el litoral sudafricanos pero considerados como especie en peligro. Los guardas esperarán a que sea posible el acceso por mar para evaluar la posibilidad de evacuar los pollos si sigue el mal tiempo en la Isla de los Pájaros, donde hay unas 700 parejas reproductoras.

Desde el lunes pasado, el tiempo ha empeorado en toda Sudáfrica, con una pronunciada bajada de temperaturas y lluvias en las costas y un intenso frío en el interior, que ha obligado a los hincha del fútbol, que acuden al Mundial 2010, a acudir bien abrigados a los estadios, en algunos casos con temperaturas bajo cero. En Johannesburgo, donde se han llegado a alcanzar los 4 grados centígrados bajo cero en algunas zonas, hoy se produjeron atascos y problemas de tráfico, debido a que en algunas calles de la ciudad había placas de hielo, algo muy poco habitual.

Fuente: publico.es, 22-6-10

 

-"La evolución de la vida ya no es un fenómenos natural"

Craig Venter, el competidor privado en la carrera del genoma humano que concluyó hace 10 años, ha vuelto a saltar a los titulares por otro hito tecnológico: la construcción de la primera "célula sintética" , una bacteria con un genoma sintetizado en el tubo de ensayo de la primera a la última letra. Ayer presentó en Valencia su nueva expedición para catalogar la variedad microbiana del Mediterráneo.

Craig Venter en su yate en Valencia

Pregunta. ¿Espera encontrar formas de vida adaptadas a la contaminación del Mediterráneo?

Respuesta. Desde luego que sí. Algunos microorganismos mueren por la contaminación, y otros se adaptan a ella, así ocurre en todas partes. Los microbios españoles pueden muy bien ser distintos de los microbios griegos. El Mediterráneo se distingue del resto de los mares en que ha sido explotado por la humanidad durante mucho más tiempo, y también en que sus aguas tardan mucho más en renovarse, por no ser un mar enteramente abierto.

P. Hace unos años le pregunté cuántos genes había en el planeta Tierra y...

R. ¿Y qué le respondí?

P. Que era una cuestión muy profunda.

R. Pues sigue siéndolo. Antes de estos estudios de secuenciación en masa se conocían alrededor de un millón de genes. Ahora conocemos 40 millones, pero el ritmo de descubrimiento no muestra signos de saturación: el número de genes distintos sigue creciendo linealmente con la cantidad de muestras analizadas, y por tanto seguimos sin saber cuántos genes puede haber en total en el planeta. En cada centímetro cúbico de mar hay un millón de bacterias y 10 millones de virus, y la variedad es enorme. La mayor parte de esta diversidad consiste en adaptaciones únicas al medio ambiente local: a la intensidad de la luz solar, la temperatura o la contaminación en el entorno local.

P. Uno de los bioéticos más respetados del mundo, Arthur Caplan, comparó su último trabajo [la célula sintética] con los avances de Copérnico y Galileo.

R. Bueno, ¿cómo podría yo discrepar de eso?

P. La pregunta de Schrödinger: ¿Qué es la vida? [así se titulaba un influyente libro que el físico Erwin Schrödinger publicó en los años cuarenta].

R. Estoy escribiendo una versión moderna del libro de Schrödinger, espero tenerla lista en un año.

P. ¿Qué sostiene?

R. Creo que la construcción de una célula sintética que acabamos de publicar muestra que la vida está basada en la información. Esa célula se deriva enteramente de un genoma sintético, fabricado en el laboratorio a partir de meros compuestos químicos, y por tanto demuestra inequívocamente que el fundamento de la vida es la información genética.

P. ¿Podría transmitir esa información a otro planeta para generar vida allí? ¿O haría falta un starter que la hiciera arrancar?

R. La información no basta por sí sola para arrancar: hacen falta otros componentes para que la lean. La cuestión que aborda nuestro experimento es muy distinta del origen de la vida, no tiene nada que ver con la evolución real, con la forma en que la vida surgió realmente en el planeta Tierra. Nuestro trabajo no afecta a esa cuestión. Si uno está diseñando un nuevo coche de carreras, realmente no le importa para nada quién fabricó el primer motor de explosión ni quién inventó la rueda. Simplemente, usas todo ese conocimiento previo y construyes a partir de él. No estamos tratando de recapitular la evolución biológica, sino de utilizarla como punto de partida para hacer nuevos organismos.

P. ¿Hay un texto, una secuencia de ADN, que define la frontera entre la vida y la materia inerte?

R. Hay muchos, y algunos pueden consistir en una sola letra. Por ejemplo, nuestro primer intento de construir la célula sintética no funcionó, y pudimos comprobar después que la razón fue un solo error, una sola letra que faltaba en una secuencia de un millón de bases. En este caso, esa sola letra supone la diferencia entre lo vivo y lo inerte.

P. ¿Cuán lejos estamos de escribir un genoma original, en lugar de copiar uno de una bacteria real?

R. En realidad nadie lo está intentando siquiera. Los genes de los organismos naturales son tan diversos que todos los proyectos tecnológicos actuales se basan en modificar o recombinar genes ya existentes. No sabemos escribir un nuevo gen a partir de cero. En cierto sentido, sí podemos ahora escribir genomas desde cero, genomas que no existen en la naturaleza, pero lo hacemos ensamblando genes naturales en nuevas combinaciones, o genes naturales modificados artificialmente.

P. ¿Se puede aumentar la eficacia de un proceso natural con esas modificaciones? ¿Es eso una forma de evolución artificial?

R. Sí, estamos tomando el relevo a la biología: la evolución ya no es un fenómeno natural. Mediante el diseño de nuevos genes y organismos, podemos adelantarnos a la evolución en miles de millones de años. El árbol de la vida tiene a partir de ahora unas ramas enteramente nuevas. Ramas sintéticas. Son perfectamente distinguibles de las ramas naturales por las marcas de agua que introducimos en sus genomas.

P. ¿Qué son esas marcas? ¿Es cierto que han escrito ustedes sus direcciones de correo electrónico?

R. Se trata de un código dentro de otro código dentro de otro código. Tienes que descifrar el primer código para empezar a entender el siguiente y, en efecto, en un paso determinado te puede aparecer el correo electrónico de un científico al que tendrás que escribir para seguir adelante. También hemos escrito los nombres de 50 científicos implicados en el proyecto, y algunas citas eruditas.

P. ¿Cuán lejos estamos de reconstruir un mamut, o un neandertal?

R. Creo que no estamos muy lejos de un objetivo previo, que es construir células eucariotas [el tipo de células de los que estamos hechos los animales y las plantas] con fines industriales.

P. Hemos publicado las críticas que le hizo el premio Nobel John Sulston...

R. ¡¿Por qué?! [risas]. Quiero decir, hay críticas inteligentes, pero las de John Sulston [contra los planes de Venter de patentar aspectos de la célula sintética] no tienen el menor sentido. Yo no estoy a favor de patentar seres vivos, ni genes naturales, pero si quieres desarrollar una bacteria que produzca biofuel a partir del CO2 atmosférico y la energía solar, necesitas proteger la tecnología con patentes que justifiquen las inversiones. Esto tiene muy poco de nuevo, realmente.

Fuente: elpais.com, 22-6-10

 

-La China científica antes socia que rival

Si el crecimiento arrollador de la economía china tiene pendiente a todo el planeta, con mucho de asombro y no poco de temor, igualmente lanzada, o más, va su ciencia. Los expertos no le quitan ojo a la trayectoria espectacular del gigante asiático en I+D en los últimos años. China tiene ya tantos científicos como la Unión Europea o como Estados Unidos, casi un millón y medio, y sus ambiciones son espectaculares, pese a que no faltan problemas, como bajos salarios, instituciones rígidas o, al hablar de transferencia de tecnología, un difícil sistema de protección de la propiedad intelectual.

Científicos chinos

"Invertimos ahora un 1,5% del producto interior bruto en I+D y nuestro plan es alcanzar el 2,5% en 2020", destaca Cao Jianlin, viceministro de Ciencia y Tecnología chino. Para valorar la magnitud de estas ambiciones baste recordar que con el 1,5% del PIB, China ya supera a España (1,3%) y se acerca a la media de la UE (1,9%), aunque queda aún lejos de Estados Unidos, con el 2,6%. Hablar en este caso de país emergente, empieza a ser irreal.

La imagen de la masiva producción barata, estándares limitados de calidad, imagen y poco valor añadido que ahora se tiene de ese país, puede quedarse anticuada pronto si el actual esfuerzo da los frutos que los dirigentes de Pekín esperan.

"China es muy rica en recursos humanos", añade Cao. "Actualmente trabajan en entornos relacionados con I+D unos 40 millones de personas y el crecimiento anual es de dos millones". Salud, medio ambiente, energía, agricultura, oceanografía, nanotecnología, información y comunicación, transporte, nuevas tecnologías y ciencias básicas en general son sus áreas prioritarias. No hay que olvidar el espacio, con China como tercer país (tras EE UU y Rusia) capaz de poner en órbita a sus taikonautas con sus propios cohetes, pero esta es otra cuestión: el espacio se desarrolla en el estricto ámbito militar y sólo se toca de puntillas en el civil.

Con este escenario expansivo en un país de tal envergadura, no es de extrañar que los países desarrollados no solo estén muy pendientes de la China científica y tecnológica, sino que busquen y desarrollen escenarios de cooperación.

La Comisión Europea está estrechando lazos con la ciencia y la ingeniería del gigante asiático con diferentes actividades, desde acoger a los científicos chinos en su Programa Marco (el principal programa comunitario de I+D) hasta intercambiar investigadores en proyectos conjuntos. Recientemente, la Comisión Europea y China han celebrado una semana dedicada la ciencia común en Shanghai, en marco de la Exposición Universal, con participación de medio millar de científicos de los dos lados. Más de 30 proyectos científicos y tecnológicos fueron presentados y discutidos en las sesiones por los expertos europeos y chinos. El abanico de temáticas se extendió desde la biomedicina o la energía, hasta el agua y la planificación sostenible de la ciudad.

"China es un objetivo estratégico de la UE en ciencia y tecnología", declara José Manuel Silva director general de I+D de la Comisión Europea, quien recuerda que la investigación y la innovación "son absolutamente centrales en la recuperación económica europea tras la crisis global".

Pekín, por su parte, reconoce que necesita colaborar con potencias como Estados Unidos y Europa, además de Canadá o Japón. Han Jianguo, director de la Fundación Nacional de Ciencias Naturales, explicó en el encuentro: "Nuestra institución mantiene acuerdos de trabajo conjunto con 68 agencias de 36 países, con un total de 29.000 proyectos de cooperación".

La nueva potencia asiática se va haciendo notar en todos los ámbitos. El 7º Programa Marco (2007-2013) de la UE, que moviliza 54.000 millones de euros y que es la principal fuente de financiación de la I+D comunitaria (aunque solo supone el 5% de la inversión de la UE, correspondiendo el resto a los programas nacionales), admite propuestas de equipos científicos extracomunitarios, explicó en Shanghai Jean Michel Baer, director de Ciencia, Economía y Sociedad de la Comisión Europea. Pues bien, solo en los tres primeros años se recibieron 900 propuestas de investigadores chinos para colaborar en el 7º Programa Marco y, tras las rigurosas evaluaciones, se seleccionaron 152 (centradas en tecnologías de la comunicación y la información, medio ambiente, alimentos, transporte y salud), con una financiación total de 28 millones de euros (dos tercios son financiados por la UE y un tercio por China), explica Baer.

El país asiático se ha convertido ya en el tercer socio por volumen de proyectos de colaboración en el Programa Marco, tras EE UU y Rusia. En perspectiva, según Baer, "está la puesta en marcha de proyectos de colaboración de China y Europa como socios igualitarios".

La crisis económica mundial no ha perdonado al ambicioso plan de I+D de Pekín y este año el incremento de la inversión ha sido solo del 8%, frente a un 30% en 2009 y un 27% en 2008. Mientras tanto, los países desarrollados que lideran hasta ahora el mundo de la ciencia y la tecnología han tenido que contentarse con crecimientos modestos o afrontar, como es el caso de España, dolorosas reducciones presupuestarias.

La Academia de Ciencias China lanzó el año pasado una hoja de ruta con 18 áreas (incluyendo agricultura, ecología, salud, energía y oceanografía) consideradas clave para preparar "una revolución tecnológica e industrial".

Es lógico que el espectacular despertar chino en ciencia y tecnología no esté exento de dificultades y algunos cuellos de botella. Los científicos chinos, por ejemplo, son los peor pagados entre las potencias asiáticas emergentes, señalaba recientemente la revista Nature.

Otro problema que puede manifestarse en el futuro es la gran concentración geográfica del esfuerzo científico y tecnológico, con sus repercusiones industriales. Esto responde, en la actual fase de crecimiento acelerado, a una optimización de recursos, pero que a la larga puede dejar en herencia unas desigualdades notables en el extensísimo territorio del país. Oficialmente se ha definido 56 polos de alta tecnología, señala Cao, pero la I+D está concentrada en unas cuantas ciudades: Pekín, Shanghai, Guangzho, Shenshen, Guangdon, Nanjin, Wuhan y poco más. Una docena de universidades en todo el país concentran el I+D de alto nivel.

La presencia masiva de estudiantes y jóvenes científicos chinos en países desarrollados (EE UU, sobre todo) debe ser temida como fuga de cerebros, pero a medida que el gigante asiático crece empieza a atraer hacia casa a especialistas bien formados en el extranjero. Ante esta realidad, ya se habla en algunos países, y China lo prefiere, de circulación de cerebros, más que de captación y fuga.

Es el caso, por ejemplo, de Wang Jun, un genetista doctorado en la Universidad de Pekín en 2002 y premiado por el Ministerio de Educación de su país, que, tras una estancia de formación altamente productiva en Dinamarca, ha pasado a dirigir un grupo de 100 investigadores dedicado a la genómica e informática en su país. También es el director del prestigioso Instituto de Genómica de Pekín.

En el encuentro de Shanghai, Wang, presentó trabajos de su instituto en el genoma del cerdo, en estudios de metagenómica y microorganismos del aparato digestivo, de variabilidad del genoma del arroz y del gusano de seda, así como de los mecanismos de procesos de domesticación a nivel molecular, un elenco que nada tiene que envidiar a potentes institutos de investigación de países desarrollados.

Aún así, el rígido sistema chino adolece aún de impulso y oportunidades favorables para los jóvenes investigadores. "Este es el mayor problema que el sistema de ciencia y tecnología chino afronta", avisó el matemático y profesor de Harvard Shing-Tung Yau.

Otra pega que se puede encontrar el sistema chino de I+D obedece a la potencial inadecuación de las instituciones de política científica, por lo que los expertos advierten que el país debería emprender una reforma profunda que ponga a punto los organismos adecuados de gestión Por ejemplo, un sistema eficaz de evaluación de proyectos y resultados para distribuir adecuadamente la financiación.

La escasa transparencia en este caso y la concentración de decisiones en unos pocos organismos, o incluso personas, no es la vía más eficaz, en comparación con la estructura, de corte anglosajón, pero extendido a todos los sistemas científicos desarrollados, incluido el español, de evaluación entre pares de proyectos y resultados. Y cuanto más transparente e independiente sea el sistema, mejor.

Si la UE, como declara Silva, ha asociado recuperación a la economía del conocimiento y está decidida a "situar la investigación y la innovación en centro de todas las políticas europeas", China coincide en la estrategia: "Hacemos mucho énfasis en el desarrollo y la innovación", defiende Han. Su número de patentes crece a buen ritmo: en 2007 se presentaron 153.000 solicitudes, frente a 122.518 el año anterior, según datos de la Organización Mundial de la Propiedad Intelectual.

Ahora bien, a la hora de combinar este ímpetu con la colaboración en I+D industrial y la transferencia de tecnologías, los expertos destacan lo difícil que resulta para los occidentales desenvolverse en el complejo sistema de patentes y protección de la propiedad intelectual del país asiático.

De momento, China ha pasado de 3,1% del volumen total mundial de publicaciones científicas en 1998 al 10,6% una década después. Su irrupción en el panorama internacional ha redistribuido la tarta de la ciencia mundial que hasta hace no mucho era exclusiva de los países consolidados en I+D. Japón ha pasado del 7% de la producción científica mundial al 5% en 10 años; la UE ha bajado del 32% al 29% y EE UU, del 27,4% al 20%. La pujante China se ha hecho hueco en la cantidad de producción científica, pero todavía tiene que superar el reto de la calidad, notablemente inferior a su potencial. Tras el impetuoso crecimiento de la ciencia, cuando China dé la patada en la calidad, se hará oír muy fuerte, vaticinan los especialistas.

Las áreas clave

- Esfuerzo creciente. China invierte 102.000 millones de dólares en I+D al año, mientras que EE UU se sitúa en 368.000 millones y la UE en 263.000. En los últimos 10 años ha multiplicado por nueve su inversión en ciencia y tecnología.

- Prioridades. El plan de Pekín de investigación a medio y largo plazo y sus áreas prioritarias son muy similares a las de la UE, con énfasis en eficiencia energética, contaminación, intensificación agrícola e innovación.

- Ciencia básica. China es el país en desarrollo que más énfasis está poniendo en el avance de la investigación básica, afirma Cao Jianlin, viceministro de Ciencia.

 

En busca del carbón limpio

China proclama su interés en la investigación y las tecnologías relacionadas con energía limpia. Con sus reservas de carbón (es el mayor productor del mundo), la fuerte presión del crecimiento energético acompasado a su desarrollo y la perspectiva de tener que comprometerse en algún momento a contener sus emisiones de gases de efecto invernadero que provocan el calentamiento, no extraña que Cao Jianlin, viceministro de Ciencia y Tecnología del gigante asiático, sitúe el cambio climático y el medio ambiente como área prioritaria de su política científica.

Además, el problema acuciante y creciente de la contaminación que sufre el país no es ajeno a esta estrategia de política científica. "Necesitamos ayuda y transferencia de tecnología de los países desarrollados", declaró Cao en la reunión UE / China en Shanghai. Señaló que para China la energía verde y la eficiencia energética para reducir la intensidad de su industria (energía invertida por unidad producida) depende, en gran medida, de la cooperación internacional.

Una de las sesiones monográficas de la conferencia, de obvio interés tanto para la UE como para China, se dedicó a las tecnologías de secuestro y almacenamiento de carbono, contempladas en los países desarrollados como una futura opción esencial en el capítulo energético.

"Queremos alcanzar el nivel de emisiones cero en nuestras plantas de carbón en 2020", explicó Chen Wenying, profesora de Energía, Medio Ambiente y Economía de la Universidad de Tsinghua, que ha investigado y desarrollado mapas del territorio de su país ateniéndose a las fuentes de emisiones de carbono y sumideros para posibles localizaciones de instalaciones de captura y almacenamiento geológico de CO2 . Chen explicó el desarrollo de un programa conjunto de la UE con China e India centrado en estrategias de cooperación y de transferencia de tecnología sobre cambio climático.

China tiene interés en estas tecnologías para poder explotar sus reservas de carbón sin aumentar sus emisiones, señalaron los expertos. Pero carece de un incentivo claro para impulsar la necesaria I+D de captura y almacenamiento, comentó Peter Stigson, coordinador del programa europeo Straco2. El experto sueco destacó que China no está obligada a contener sus emisiones por acuerdos internacionales y, por tanto, no tiene que participar en un mercado de compraventa de cupos de emisiones, como los países desarrollados lo están en el marco del Protocolo de Kioto.

Stigson no olvidó señalar los arduos problemas de las patentes y derechos de propiedad industrial en las relaciones tecnológicas con China.

Las conversaciones incluyen la fusión nuclear y el gran proyecto internacional ITER, del que China es uno de los socios, pero se trata de una opción de energía para dentro de dos o tres décadas como poco, ya que ITER será un reactor demostrador de tecnologías pero no todavía un prototipo de planta energética.

En renovables China tiene el objetivo de producir con estas fuentes el 15% de la energía generada en el país en 2020 (desde el 9% actual) y llegar al 30% en 2050. El impulso chino está ya haciendo mucho daño al sector industrial en el resto del mundo, incluida España, al barrer en el mercado de renovables, sobre todo con sus baratos paneles solares.

El español Gabriel Salas presentó en Shanghai el programa Nacir, de la UE, enfocado al desarrollo de tecnologías fotovoltaicas y su gran potencial. Ahora mismo, recordó, la fotovoltaica suministra el 1% del total de energía consumida en España. "Hay varias tecnologías disponibles, pero hay más aún en los laboratorios, en preparación" con muy buenas perspectivas. Salas, profesor de la Universidad Politécnica de Madrid, se centró en la tecnología solar de concentación.

Fuente: elpais.com, 21-6-10

 

 

-Craig Venter busca en el Mediterráneo la clave de los combustibles del futuro

Craig Venter acaba de acaparar las portadas de los periódicos de todo el mundo con la publicación de la primera célula fabricada en un laboratorio y con el décimo aniversario de la secuenciación del genoma humano. Pero las burbujas del éxito científico a Venter le duran los escasos minutos que tarda en felicitar a su equipo en el Craig Venter Institute.

Antes de que el público pueda olvidar las mieles de dos de los mayores descubrimientos de las últimas décadas, Venter ya se ha embarcado en el próximo proyecto. Ahora, recorrerá el mar Mediterráneo en su barco, el Sorcerer II (Brujo II), en busca de los genes que le permitan en el futuro fabricar la carta un organismo capaz de producir biocombustibles a partir de dióxido de carbono o de digerir vertidos como el que cubre el Golfo de México desde hace algunas semanas. "En cada centímetro cúbico de agua hay cerca de un millón de bacterias y más de 10 millones de virus", explica Venter frente a su barco durante la presentación del proyecto en el puerto de Valencia. "Y el Mediterráneo es un mar muy diferente de otros que hayamos podido muestrear antes. Es uno de los mares con mayor presión humana del mundo y seguro que eso hace que haya organismos muy diferentes con adaptaciones muy distintas de los de otros mares".

Valencia como punto de partida

Santiago Grisolía, el veterano (tiene 87 años) bioquímico y presidente de la Fundación Valenciana de Estudios e Investigaciones Avanzadas, con gorra de béisbol y modernas gafas de sol, ejerció de maestro de ceremonias durante la presentación. "¡Dame un abrazo!", exclamó Venter al verlo, "pareces más joven".

Grisolía no escatimó los halagos hacia su colega. "Es el científico más conocido del mundo y con razón", presentó el bioquímico. "Hace ahora diez años consiguió con medios privados adelantarse al consorcio público internacional del genoma humano y desde entonces no ha parado de cosechar éxitos".

Durante estos días Venter cumplirá con diferentes compromisos científicos y conferencias en la ciudad y después la expedición emprenderá su viaje por el Mediterráneo y mar Negro. "La tripulación lleva varios meses en Valencia preparando la expedición. Y lo ha pasado tan bien, que ahora no quieren empezar el muestreo", bromea Venter.

Fuente: elmundo.es, 21-6-10

 

-La Tierra bate su récord de calor en Junio

El mes de junio ha sido el más caluroso de la historia desde 1880, cuando comenzaron a registrarse los datos del clima. La temperatura media de abril a junio ha batido un nuevo récord, según las mediciones llevadas a cabo por la National Oceanic and Atmospheric Administration (NOAA), en EEUU.

En concreto, la temperatura media en el mes de junio se situó en 16,2 º Celsius. La media del siglo XX fue 15,5 º, es decir, 0,60º inferior a la registrada el mes pasado. Asimismo, la primera mitad del año ha sido, de media, la segunda más calurosa desde que se realizan mediciones. Los seis primeros meses de 2007 siguen ostentando el récord. La NOAA destaca que en diversos lugares de la Tierra se han registrado temperaturas más altas que la media durante esos meses, como en Perú, el centro y el este de EEUU y el este y el oeste de Asia.

Junio, un mes frío en España

Sin embargo, en otras zonas del globo ha habido temperaturas más bajas de lo habitual. En España, la temperatura media ha sido la más fría desde 1997, según la AEMET.

También hubo temperaturas más bajas en Escandinavia, el sur de China y el noroeste de Estados Unidos. La temperatura en la superficie de los océanos se situó en junio 0,54º C por encima de la media del siglo XX, convirtiendo a este mes en el cuarto mes de junio más caluroso reigstrado desde 1880. El calor fue más intenso en el Atlántico. El centro de investigación estadounidense NOAA publica cada mes el análisis que su departamento de clima realiza de las temperaturas que se registran en la Tierra. Su base de datos se remonta a 1880.

 

El Elba a su paso por Dresde

Fuente: elmundo.es, 19-6-10

 

-Los humanos de Atapuerca comían leones gigantes

Hace 300.000 años, "el hombre era el verdadero rey del ecosistema", dice José María Bermúdez de Castro, director del Centro Nacional de Investigación sobre Evolución Humana y codirector de las excavaciones de Atapuerca. El experto explica así el hallazgo de unos restos fósiles examinados por el equipo de la excavación, y que sugieren que los Homo heidelbergensis que vivían en la sierra de Atapuerca (Burgos) incluían a los antiguos leones en su dieta. El estudio español se publicará en agosto en la revista Journal of Archaeological Science. En el nivel TD10 de la Gran Dolina de Atapuerca, que tiene una antigüedad de entre 350.000 años y 250.000 años, los investigadores han encontrado restos del esqueleto de un león de las cavernas (Panthera leo fossilis). "Las marcas en los huesos sugieren que las vísceras fueron extraídas del animal", explica Bermúdez de Castro. Los investigadores creen que este dato indica que el animal fue cazado, ya que si hubiera muerto antes, otros depredadores habrían llegado en primer lugar.

 

Un felino gigante

El ejemplar de esta especie extinta de león medía más de dos metros y "pesaba unos 300 kilos", señala el codirector de las excavaciones. No obstante, el gran tamaño de este mamífero no fue un obstáculo para convertirse en pieza de caza para los heidelbergensis.

Los hombres de entonces medían 1,80 metros y "tenían una gran potencia física", comenta el paleoantropólogo. Por lo tanto, "no resulta extraño que un grupo de cuatro cazadores pudiera hacerse con una de estas piezas", añade. Este miembro de la familia humana se considera un ancestro del hombre de Neandertal (Homo neanderthalensis).

La caza de leones no es muy habitual para el ser humano, "aunque algunas comunidades actuales de masais realizan esta práctica", afirma Eudald Carbonell, también codirector de Atapuerca y coautor del estudio. Sin embargo, para los heidelbergensis "la caza de este ejemplar fue un suceso aislado", asegura Bermúdez de Castro. Además, la condición de gran depredador que ostenta el león hace que su presencia sea relativamente reducida. Las comunidades de estos felinos no suelen superar las decenas, mientras que las poblaciones de sus presas, como los ciervos, pueden llegar a miles.

Las víctimas más habituales de aquellos parientes extintos de los humanos actuales eran los corzos, gamos "e incluso rinocerontes", añade Bermúdez de Castro. De hecho, el nivel donde se ha realizado el hallazgo contiene miles de restos de estos animales.

Fuente: publico.es, 18-6-10

 

 

-Los aviones son capaces desencadenar precipitaciones

  Hace algunos años, los científicos se sorprendieron al observar cómo dos aviones esculpían un agujero a través de las nubes, que a continuación empezó a descargar nieve con intensidad.

El tema ha sido objeto de muchas especulaciones, pero un nuevo estudio del National Center for Atmospheric Research (NCAR) ha resuelto el misterio sobre este extraño fenómeno. Concluyen que es el resultado de una combinación de bajas temperaturas, el tráfico aéreo y la inusual estabilidad atmosférica.

El Servicio Nacional de Meteorología de EEUU ha bautizado como 'hole-punch cloud' a este tipo de nube formada por aviones, ya que por ahora no hay un término científico para este fenómeno.

Los científicos, que han estudiado estas formaciones desde el año 1940, ya sospechaban que los aviones desempeñaban un papel en su formación. Pero ha sido ahora, gracias al meteorólogo Andrew Heymsfield y sus colegas, cuando se ha descubierto que el vuelo de los aviones puede realmente crear estas nubes inusuales. Según un estudio recogido en el Bulletin of the American Meteorological Society.

Cómo hacen llover

Además, sus investigaciones han descubierto algo totalmente nuevo: que los aviones pueden desencadenar precipitaciones. El proceso es parecido al de siembra de nubes, que se utiliza para lograr que llueva sobre los campos de cultivo.

 

Las nubes a cierta altitud y temperatura se saturan de gotas de agua enfriadas a 5 grados Fahrenheit (15 grados Celsius). Debido a la pureza del agua, las gotas se mantienen liquidas incluso a 34 grados bajo cero. Si la nube llega a enfriarse mucho más, las gotas se congelan y el agua se transforma en hielo que puede caer en forma de lluvia o granizo.

De esta forma, cuando la hélice de un avión gira en una nube, expande el aire a una temperatura de 54 grados Fahrenheit (30 grados Celsius), haciendo que las gotas 'superenfriadas' se congelen. "Los aviones 'siembran' las nubes con partículas de hielo, provocando la condensación del vapor de agua", afirma Heymsfield, del National Center for Atmospheric Research (NCAR) a la revista National Geographic News.

Fuente: elmundo.es, 18-6-10

 

 

-El verano será más cálido de lo normal con unos dos grados más de temperatura

próximo verano registrará temperaturas más altas de la media de los últimos años en toda España, entre uno y dos grados más, tras producirse una de las primaveras más frescas de esta década, y unas lluvias muy superiores a los valores medios.

En el trimestre marzo-mayo, ha dicho en rueda de prensa el portavoz de la Agencia Estatal de Meteorología (Aemet), Ángel Rivera, las temperaturas se han situado 0,6 grados centígrados por encima del valor medio en el periodo de referencia 1971-2000.

A nivel mundial, el mes de abril ha sido el más caluroso desde 1880, con 14,5 grados de media, lo que supone un aumento de 1,37 grados desde que existen registros históricos.

En el caso español, la presente primavera es la segunda más fresca del siglo XXI -sólo más cálida que la de 2004- y una de las más calurosas del siglo XX (1971-2000), ha explicado Rivera, acompañado por el jefe de predicción de la Aemet, Fermín Elizaga.

Respecto al actual año hidrológico, que comenzó el 1 de octubre, las lluvias en conjunto han sido claramente superiores a lo normal: a fecha 15 de junio los valores medios se situaron en 701 litros por metro cuadrado, lo que significa un superávit de 159 litros, un 29 por ciento más de lo acostumbrado.

Según Rivera, la tendencia está clara en cuanto a las temperaturas -al alza-, pero no ocurre lo mismo en lo que se refiere a las lluvias, pero sí se observa la existencia de fuertes y bruscas oscilaciones. En los últimos nueve días se ha producido una 'situación histórica, excepcional, para esta época del año' en el área cantábrica, en cuanto cantidad de agua recogida, ha añadido Elizaga.

Fuente: EFE, 17-6-10

 

-El Congreso rechaza la enmienda a la totalidad al proyecto de ley de captura de emisiones de dióxido de carbono

El Congreso de los Diputados ha rechazado por 327 de 342 presentes la enmienda a la totalidad del grupo ERC-IU-ICV al proyecto de ley que fija las condiciones para el almacenamiento, captura y transporte del dióxido de carbono (CO2), principal responsable del cambio climático.

El Proyecto de Ley de Almacenamiento Geológico de Dióxido de Carbono, como así se llama, traspone a la legislación española las directrices de la UE sobre esta actividad, que consiste en captar el CO2 emitido por las instalaciones industriales, transportarlo a un emplazamiento subterráneo y confinarlo permanentemente.

En ausencia de la ministra de Medio Ambiente, Elena Espinosa, el ministro de Interior, Alfredo Pérez Rubalcaba, ha presentado ante el pleno este proyecto que inicia ahora su tramitación parlamentaria, con los trabajos en Comisión.

Rubalcaba ha destacado que la aplicación de esta tecnología podría llegar a evitar, para el 2030, emisiones que representan aproximadamente el 15 por ciento de las reducciones exigidas en el ámbito de la Unión Europea.

La norma, ha dicho el ministro, recoge una serie de exigencias que permiten que el almacenamiento se lleve a cabo en condiciones seguras sin poner en riesgo la salud de las personas y el medio ambiente.

En su enmienda a la totalidad el grupo Esquerra Republicana- Izquierda Unida -Iniciativa Per Catalunya Verds sostiene que la realidad muestra que empaquetar el dióxido de carbono y almacenarlo en el subsuelo o en el mar es el 'continuismo de las estrategias cortoplacistas' en materia energética.

 


Para el grupo parlamentario esta tecnología no da respuesta a la dependencia energética exterior, supone una hipoteca para generaciones futuras y además consideran que existe un 'evidente' riesgo de fuga, y consecuentemente un impacto ambiental fruto del retorno del CO2 a la atmósfera.

EL BNG, único grupo que ha manifestado su apoyo a la enmienda, ha coincidido en señalar que apostar por el almacenamiento es una estrategia 'cortoplacista' . El grupo nacionalista vasco ha considerado que el proyecto no es la solución a la emisiones de CO2, pero es una solución más y es necesaria porque además propone un marco legal para regular esta actividad.

Durante el debate, CIU ha pedido además que no se busquen contenidos ideológicos en todas estas tecnologías medioambientales porque entiende que no las hay.

El PP ha votado también en contra de la enmienda al no compartir los argumentos y la motivación de la enmienda y porque para conseguir los objetivos de reducción de gases invernadero hay que contemplar todas las medidas y tecnologías.

Finalmente, el PSOE ha argumentado que esta norma contribuye a dar prioridad a la nueva política energética que ha emprendido España. Su diputado Fernando Moraleda ha asegurado que el país prevé alcanzar en 2020 un consumo final bruto con origen renovable del 22,7 por ciento: 2,7 puntos más que las obligaciones que se tiene con la UE.

Fuente: EFE, 17-6-10

 

-¿Cinco "partículas de Dios" en vez de una?

Después de todo, el bosón de Higgs, "la partícula de Dios", la que encierra el misterio de la masa del Universo, esa que los físicos buscan desde hace años y que se espera sea finalmente revelada por el gran acelerador de partículas LHC, podría no ser tan "única" como se pensaba. De hecho, la única explicación lógica para el último experimento realizado en el Tevatrón, el acelerador de partículas norteamericano del Fermilab, en Chicago, es que existan cinco, y no uno, tipos de bosón de Higgs diferentes.

En el experimento, realizado por el grupo DZero en el Tevatrón, se hicieron chocar protones y antiprotones. Y los resultados mostraron que de las colisiones había surgido mucha más cantidad de materia que de antimateria. Lo cual, por otra parte, parece algo lógico, y además consistente con lo sucedido durante el Big Bang, hace 13.700 millones de años, cuando nuestro Universo empezó a existir.

Sin embargo, la "ventaja" de la materia sobre la antimateria detectada por el grupo DZero durante su experimento es muy superior a la que se supone que se dio durante el Big Bang. Lo cual obliga a plantearse si existe algún tipo de "nueva física" aún por descubrir.

Si durante el Big Bang, cuando todo nuestro mundo no era más que una sopa de partículas enloquecidas chocando entre sí a causa de las altísimas temperaturas, se hubiera mantenido el equilibrio y de esas colisiones hubiera surgido la misma cantidad de materia que de antimateria, nuestro Universo, sencillamente, no existiría, ya que materia y antimateria, al juntarse, se anulan mutuamente. Por fortuna, nuestra propia existencia demuestra que durante el Big Bang se produjo un desequilibrio en favor de la materia. Por desgracia, la Física que intenta averiguar las razones de este "favoritismo", no tiene sentido.

Colisión de partículas

«Cazar al Higgs»

Los físicos, entonces, empezaron a preguntarse si el Modelo Estándar, ese que clasifica y asigna un lugar y función concretos a cada una de las partículas que existen, no ocultará alguna clase de "sorpresa" aún no descubierta. Ahora bien, si eso es así. ¿Cómo debería ser esa "nueva física"? Los investigadores del Tevatrón, con su experimento, creen haber encontrado una solución. Una que apunta a la inquietante posibilidad de que existan hasta cinco tipos diferentes de bosón de Higgs: todos ellos con la misma masa, tres sin carga eléctrica alguna, otro con carga positiva y un último tipo, con carga negativa.

Los propios investigadores explican su idea: "en los modelos con más de un tipo de bosón de Higgs resulta fácil explicar los efectos observados en nuestro experimento. Lo que resulta complicado es que se produzcan esos efectos sin que resulte afectado nada más que lo que se está midiendo". O lo que es lo mismo, lo difícil es explicar la asimetría materia-antimateria sin que el resto del Modelo Estándar se derrumbe.

La investigación puede dar pistas y sugerir nuevos métodos que permitan "cazar" de una vez al Higgs y completar el Modelo Estándar. Aunque haya que hacer sitio para cinco nuevos socios en vez de para uno solo.

Fuente: abc.es, 16-6-10

 

 

-La galaxia en remolino en su máximo esplendor

La galaxia M51 fue descubierta por Charles Messier en 1773, pero su estructura espiral fue percibida por primera vez por William Parsons (Conde de Rosse) en 1845, utilizando su enorme telescopio reflectante, el Leviatán de Parsonstown. Un gran telescopio es preciso para ver su forma compleja, pero incluso pequeños telescopios de aficionados ponen de manifiesto que esta galaxia no está aislada, pero tiene un pequeño compañero: la galaxia enana irregular NGC 5195.

Impresionante choque estelar

Ahora está claro que estos dos sistemas estelares chocan y que la forma en espiral de M51 se debe, principalmente, a las fuerzas de marea desatadas durante este proceso. Sólo por casualidad, vemos el disco de la M51 en la cara de la Tierra, lo que permite estudiarlo en detalle. A una distancia de 23 millones de años luz, las dimensiones aparentes de M51 significan que las galaxias tienen que ser muy similares a la nuestra, aunque algo más pequeñas.

M51 y su compañero están realizando una danza cósmica que, durante los últimos 500 millones de años ha hecho pasar dos veces NGC 5195 a través del disco de la M51. Ahora, la pequeña galaxia se encuentra ligeramente por detrás del disco y alejándose de nosotros.

La interacción de ambas galaxias induce un montón de efectos colaterales, siendo la estructura espiral de la galaxia principal sólo una de ellas. Cuando las galaxias colisionan, sus estrellas no chocan unas contra otras. En cambio, sufren fuertes alteraciones en sus trayectorias, lo que normalmente implica que muchos de ellos son expulsados hacia el espacio intergaláctico.

Esto le ha ocurrido a muchas estrellas de la galaxia secundaria: corrientes de estrellas desgajadas de NGC5195 se extienden sobre la parte izquierda de la imagen en forma de niebla difusa. Muchos de los mundos en esa zona están condenados a perderse en el vacío del espacio.

El contenido de gases de las galaxias en colisión se comprimen y esto provoca estallidos violentos de formación estelar (destellos). regiones de formación estelar que pueden ser detectadas gracias al resplandor rosado del hidrógeno ionizado.

Muchos de los pequeños puntos en la imagen son estrellas de nuestra propia galaxia. Pero una inspección más detallada revela que la mayoría de los lugares pequeños son otras galaxias de fondo, sistemas extragalácticos pequeños y remotos, de muchas formas y colores, se puede ver hasta el borde del infinito, en esta foto.


Las dos galaxias de fondo más destacadas son las de canto brillante galaxia en espiral IC 4277 que aparece cerca de la parte inferior izquierda, y la pequeña galaxia irregular IC 4278, a la derecha de la anterior, a continuación desde el puente de estrellas que parece vincular M51 con NGC 5195.

Fuente: EFE, 16-6-10

 

-"Atacaremos las células cancerígenas directamente"

El sueño del físico Sumio Iijima (Saitama, Japón, 1939) no es original suyo; se lo ha robado al difunto escritor de ciencia ficción Arthur C. Clarke. Pero no duda en afirmar que, gracias a la ciencia que ha ayudado a desarrollar, la nanotecnología, un día la Tierra y el espacio estarán unidos por un ascensor que podrá transportar materiales entre destinos lejanos. El Premio Príncipe de Asturias de Investigación Científica y Técnica 2008 visitó ayer Madrid, invitado por la Fundación Ramón Areces y Casa Asia.

Sumio Iijima

 

Usted inventó los nanotubos de carbono. ¿Cómo explicaría de forma simple lo que son?

Los nanotubos de carbono son estructuras químicas de carbono, en cierta manera como el grafito o el diamante. Pero están hechos a una escala muy pequeña y tienen una estructura tubular. Respecto a cómo los descubrí, no fue intencionado. Yo llevaba años trabajando en materiales de carbono y, de repente, vi brillar en mi mesa los nanotubos de carbono. Al principio, no fui consciente de la importancia del descubrimiento, aunque sí pensé que era interesante por lo inusual de su estructura. Realmente, fui consciente cuando se publicó en Nature.

¿Cuáles son, hasta la fecha, los usos de la nanotecnología?

Hemos conseguido introducir en ratones medicamentos para el cáncer de pulmón dirigidos específicamente a las células cancerígenas. Eso ya lo hemos probado y, con suerte, se podrá trasladar a humanos. También es útil en el almacenamiento de electricidad, con unos electrodos llamados supercapacitors, que pueden acumular mucha más electricidad y que serían más útiles que, por ejemplo, las baterías de litio para los coches eléctricos. Ofrecerían una enorme cantidad de energía en muy poco tiempo.

¿Y los usos que se prevén para el futuro?

Me interesa mucho la flexibilidad de los materiales realizados con nanotubos de carbono. Podríamos conseguir aparatos electrónicos flexibles. Piense, por ejemplo, en el iPad: si se pudiera doblar ocuparía menos y se podría llevar más fácilmente.

¿Cuánto tiempo tardará en emplearse la nanotecnología en biomedicina?

Este es el campo más prometedor en la nanotecnología. Como sabe, probar cualquier cosa en humanos es muy costoso y estamos intentando convencer a las compañías farmacéuticas para que nos ayuden. Uno de los asuntos que más preocupan es el de la toxicidad, pero todo parece indicar que, en cantidades moderadas, no habría problema en inyectar fármacos dentro de nanomateriales.

¿Cuál es su aplicación en las energías alternativas?

En España trabajo con el profesor de la Universidad de Castilla-La Mancha Fernando Langa en el desarrollo de placas solares con un tamaño mínimo y más capacidad de recolección de energía solar, lo que optimizaría el uso de estos instrumentos y, por lo tanto, de esta energía.

Fuente: publico.es, 16-6-10

 

 

 

-Operar el cerebro con puntería milimétrica

 

El sistema nervioso es una de las partes del cuerpo más difíciles de operar. No es de fácil acceso, no se conoce bien y una imprecisión puede dejar graves secuelas. Por eso las tecnologías de imagen combinadas son una ayuda primordial para los cirujanos. Los aparatos más sofisticados de este tipo son los neuronavegadores, porque permiten actuar con un margen de error de un milímetro en zonas muy delicadas.

Un equipamiento de este tipo fue el que se usó en la cabeza de Carmen Anguita. La mujer, de 46 años, perdió la sensibilidad de la mano derecha y le diagnosticaron un meningioma, un tumor cerebral generalmente benigno. En diciembre de 2009 se lo extirparon con cirugía guiada con neuronavegador de tres dimensiones en el Hospital de la Princesa de Madrid. "Estaba asustada porque me dijeron que el tumor estaba situado en un lugar de difícil acceso, pero los doctores me explicaron que sabían en todo momento en qué zona estaban operando y que irían poco a poco. Cuando salí de la UCI ya había recuperado la sensibilidad. Empecé a comer con la mano derecha, coger cosas y tocar a mis hijos. No me han quedado secuelas y tampoco he tenido molestias en la cabeza", resume contenta.

La apuesta por estas tecnologías es cara. En el Hospital de la Princesa de Madrid -que tiene, según sus médicos, uno de los aparatos para intervención cerebral más avanzados-, el equipamiento se completa con otros instrumentos para la columna -el primero de España- y los pulmones. En total, más de un millón de euros de inversión. "El neuronavegador ha facilitado mucho la cirugía. Aporta precisión y seguridad", dice Rafael García de Sola, jefe de Neurología del centro sanitario. Aunque el médico reconoce que no hay que dejarse fascinar por todo lo nuevo. "No existen estudios de eficacia, pero la impresión de los neurocirujanos es que con estos equipos tenemos menos dificultades para operar, nos metemos en casos cada vez más difíciles y la mortalidad y morbilidad es mucho menor", subraya. En el hospital se realizó la primera intervención de estimulación cerebral en España en 2004 (una operación que consiste en implantar electrodos para que su descarga sustituya a los impulsos nerviosos). Desde aquel año se han realizado unas 700 operaciones de esta clase.

El siguiente paso es actuar no solo en el cerebro, sino sobre la médula espinal. Y este hospital dispone, desde julio pasado, del único equipamiento de neuronavegador de columna en la sanidad pública. "Trabajar en columna y con este equipo presenta la ventaja de que el acceso es más fácil, y, una vez que se ha realizado la intervención, se puede comprobar si los tornillos están bien colocados o, en caso contrario, corregirlo en el mismo acto quirúrgico", apunta García de Sola.

Fuente: elpais.com, 15-6-10

 

 

-La energía oscura no está clara

 

Las fuentes de radiación utilizadas para verificar el proceso de datos obtenidos por el satélite 'WMAP' se muestran como circulitos blancos,

sobre el mapa de la radiación de fondo cósmica en microondas.- NASA/WMAP/DURHAM UNIVERSITY

Los errores en los datos del satélite WMAP pueden ser mayores de lo estimado hasta ahora, dicen científicos británicos. Si tienen razón, las consecuencias no son despreciables, estaría en cuestión la existencia de una fuerza misteriosa que se ha denominado energía oscura y que constituye nada menos que el 74% del universo. El catedrático Tom Shanks, de la Universidad de Durham , ha dirigido el estudio, que estudia los datos del satélite lanzado en 2001 para medir las variaciones en la radiación de fondo cósmica, en el rango de las microondas, que es la huella de la Gran Explosión que dio lugar al Universo.

Según la interpretación de estos datos y otros el cosmos está compuesto de un 4% de materia normal, un 22% de materia oscura (invisible, cuya composición no se conoce) y un 74% de energía oscura, cuya naturaleza no se conoe.

Shanks y su colega Utane Sawangwit se fijaron en objetos astronómicos que no se pueden observar bien con radiotelescopios para probar el método utilizado en los datos del WMAP. La normalización de estos es mucho mayor de lo que se creía, señalan en la revista Monthly Notices of the Royal Astronomical Society, lo que indica que las variaciones son menores de lo estimado, y que ni la materia oscura ni la enegía oscura existen en realidad.

"Las observaciones de la radiación de fondo son una herramienta poderosa en la cosmología y es importante verificar cualquier efecto sistemático. Si nuestros resultados son correctos, sería menos probable que la energía oscura y las partículas exóticas de materia oscura dominen el Universo".

En un estudio anterior en el que también participaron estos científicos, se puso en duda igualmente que la radiación de fondo permita llegar a las conclusiones obtenidas según el modelo estándar del Universo. Si existe la energía oscura, produce una aceleración en la expansión del Universo. En su viaje desde la omnipresente radiación de fondo hasta telescopios como el WMAP, los fotones viajan a través de supercúmulos gigantes de galaxias. Sin embargo, los nuevos resultados, basados en un estudio de un millón de galaxias luminosas, del Sloan Digital Sky Survey , sugieren que no se observa la huella de esta aceleración en los fotones.

"Lo más seguro es que el modelo Estándar, con sus enigmáticas energía oscura y materia oscura, sobrevivirá, pero hacen falta más pruebas", afirma Shanks.

Fuente: elpais.com, 15-6-10

 

-La pérdida de memoria si se puede frenar

Nadie pone en duda que seguir una vida mentalmente activa protege de la pérdida de memoria y del deterioro cognitivo en personas sanas y enfermas. Sin embargo, para los afectados de Esclerosis Múltiple (EM) haberla ejercitado y seguir manteniéndola puede ser determinante a la hora de retrasar la pérdida de recuerdos. Un estudio confirma que los enfermos que 'ejercen' su mente están más protegidos contra la pérdida de memoria y las dificultades de aprendizaje que con frecuencia se asocian a la enfermedad.

Tal y como recuerda Charo Blasco, neuróloga del Hospital Universitario Puerta de Hierro de Majadahonda, "el deterioro cognitivo en pacientes con múltiple es un hecho conocido, aunque no siempre bien cuantificado. Hay estudios que hablan de una prevalencia de este deterioro van del 45% al 70%. Esta nueva investigación no es más que la constatación mediante un pequeño ensayo clínico de un hecho conocido y evidenciado en otras formas de demencia, como el Alzheimer".

El conocimiento de esta realidad ha llevado ya a asociaciones de enfermos españolas a ofrecer talleres para 'preservar' la memoria. Es el caso de la Asociación Balear de Esclerosis Múltiple (ABDEM). Enric Brunet, miembro de la misma, aclara a ELMUNDO.es "que desde el inicio de la creación de la asociación contamos con un programa de neurorehabilitación que bien se realiza en grupos o de forma individualizada, si el enfermo está muy afectado. El objetivo es ayudar al mantenimiento de las capacidades mentales para lograr la funcionalidad en la vida cotidiana".

La prueba

La nueva investigación, publicada en el último 'Neurology' , ha sido llevada a cabo por James Sumowski, del Centro de Investigación de la Fundación Kessler, en New Jersey (EEUU), y su equipo. Los científicos contaron con la participación de 44 enfermos de EM, con una media de edad de 45 años, que padecían la enfermedad desde hacía 11. Así, y en todos ellos, midieron el 'enriquecimiento' verbal, obtenido generalmente a través de actividades que implican la lectura y la educación. Asimismo, y en todos ellos, se midió la atrofia cerebral mediante pruebas de imagen con Resonancia Magnética (RM).

El estudio encontró que aquéllos con un estilo de vida mentalmente activo obtenían una buena puntuación en las pruebas de aprendizaje y de memoria, incluso a pesar de tener mayor daño cerebral asociado a la enfermedad. La prueba consistió en conceder a todos los participantes hasta 15 intentos para aprender una lista de 10 palabras, y se les pidió recordarla a los 30 minutos. Entre las personas con estilos de vida activos mentalmente, tanto el aprendizaje de las mismas como su recuerdo fue similar en los que tenían mayor cantidad de daño cerebral (observado en la RM) como en los que poseían menos zona cerebral 'perjudicada'. De hecho el recuerdo o a la hora de declinar las palabras se redujo tan sólo en 1%. Por el contrario, y en comparación con ellos, aquéllos que no ejercitaron su mente, tuvieron un aprendizaje más lento y la enumeración de las palabras se redujo en un 16%.

"Muchas personas con EM luchan contra los problemas de aprendizaje y memoria. Este estudio muestra que un estilo de vida activo mentalmente podría reducir los efectos nocivos de daño cerebral en ambas capacidades. Es decir, el aprendizaje y la capacidad de la memoria sigue siendo bastante bueno en las personas con estilos de vida enriquecedora, aunque se produjera una gran cantidad de daño cerebral. Por el contrario, las personas con estilos de vida cognitivamente pasivos eran más propensos a sufrir los problemas de aprendizaje y memoria", aclara el autor principal de la investigación.

A lo largo de la vida

Para la doctora Blasco, "es un hecho conocido hace mucho tiempo y no sólo en estos pacientes sino en todos. Hay un mecanismo llamado reserva cognitiva que no es más que que las personas con un mayor nivel educacional, un mayor nivel intelectual o un mayor ejercicio del mismo toleran mejor (sobre todo en fases iniciales) el deterioro cognitivo. Cuanto mejor entrenado haya estado el cerebro, cuanto mayor sea el número de conexiones neuronales y habilidades intelectuales se hayan desarrollado a lo largo de tu vida, en el momento de aparecer un déficit puedes responder mejor o durante más tiempo en comparación con el que no ha hecho nada de eso".

De la misma opinión se muestra Purificación de Castro, neurológa de la Clínica Universidad de Navarra: "La hipótesis del trabajo de Sumowski es por tanto válida y muy interesante. Ha sido aplicada sobre todo en enfermos de Alzheimer y es uno de los objetivos de los centros de día, lograr que los pacientes estén convenientemente estimulados. En el campo de la esclerosis múltiple se ha trabajado menos, pero por analogía, se ha empezado a aplicar y en algunas de las unidades de esclerosis múltiple hay programas de estimulación cognitiva para los pacientes afectados intelectualmente".

Y aconseja: "Evidentemente, no todos los enfermos de EM van a tener problemas cognitivos, pero resulta muy apropiado plantear en los primeros años del diagnóstico, a personas muy jóvenes y sin problemas cognitivos, la conveniencia de desarrollar un estilo de vida en el que hábitos como la lectura, resolución de problemas, actividades sociales creativas, tengan un papel predominante junto a una actitud mental positiva y esperanzada, sabiendo que pueden hacer algo para 'defenderse' de alguno de los riesgos de su enfermedad.

Fuente: elmundo.es, 15-6-10

 

 

-¿Provocar lluvia artificial mediante la aplicación láser?

Un equipo investigador europeo ha demostrado que un láser es capaz de generar condensación y confían en que esta técnica de láser pueda emplearse para modificar las condiciones meteorológicas de una zona concreta.

En esta investigación reciente, dirigida por el Dr. Jérôme Kasparian, de la Universidad de Ginebra (Suiza), se ha utilizado un instrumento denominado Téramobile que consiste en un láser que emite impulsos extremadamente potentes para generar moléculas ionizadas que podrían actuar como núcleos de condensación natural. Los científicos se proponen perfeccionar la técnica para propiciar la formación de lluvia.

La posibilidad de originar la formación de lluvia, podría dejar de ser una utopía.

Investigadores europeos han demostrado por primera vez que los láseres pueden utilizarse para formar nubes y provocar la caída de gotas de lluvia. El original experimento ha sido probado con éxito tanto en laboratorio como a cielo abierto sobre Berlín. La fórmula, aunque de momento algo rudimentaria, podría ser una manera de acabar con la sequía en los lugares más sedientos y de provocar la lluvia cuando fuera necesario

Esta técnica, sobre la que se ofrecen detalles en un artículo publicado en la revista Nature Photonics, puede emplearse para estudiar la formación de gotas de agua en las nubes y podría incluso ofrecer un nuevo método para provocar precipitaciones.

El control de la meteorología es una ambición de la humanidad desde tiempos inmemoriales. En el transcurso de la historia del ser humano se han realizado enormes esfuerzos por dar con formas de provocar la lluvia. Los intentos más recientes de propiciar precipitaciones o de eliminar la niebla se han basado en el uso de aviones o cohetes para diseminar partículas de sal de plata o hielo seco en las nubes que sirven de núcleos en torno a los cuales se pueden formar gotas de lluvia.

Una descarga de pulsos cortos y potentes de rayos láser en el aire ioniza las moléculas de nitrógeno y de oxígeno para crear un plasma de moléculas ionizadas. Estas moléculas ionizadas podrían actuar como núcleos de condensación natural.

En esta investigación reciente, dirigida por el Dr. Jérôme Kasparian, de la Universidad de Ginebra (Suiza), se usó un instrumento denominado Téramobile que consiste en un láser con el que se emitieron impulsos de láser extremadamente potentes y ultracortos para generar filamentos ionizados autoguiados.

Kasparian y sus colegas realizaron primero el experimento en laboratorio. El equipo despidió pulsos muy breves de luz láser infrarroja en una cámara de aire con agua saturada a -24ºC. Pronto se formaron nubes lineales, como la estela de un avión en miniatura. El láser generó nubes por extracción de electrones de los átomos en el aire, que favorecen la formación de radicales hidroxilo. Estos convierten los dióxidos de sulfuro y nitrógeno en el aire en partículas que actúan como semillas para cultivar las gotas de agua. Cada pulso del láser trabaja a una intensidad equivalente a la de 1.000 plantas de energía. Aún así, las gotas fueron demasiado pequeñas para provocar una verdadera precipitación. Después del experimento, las condiciones de humedad en una temperatura tan extremadamente baja aumentaron un 50% y dentro de las nubes el volumen de agua condensada se había incrementado cien veces.

Después, los científicos destinaron impulsos del láser Téramobile directamente hacia el cielo sobre la capital alemana, Berlín, en un momento en el que se registraba una humedad cercana al 90%. A continuación, se tomaron medidas mediante Lidar (’light detection and ranging’) para observar la concentración de aerosoles en la atmósfera y detectar alteraciones en las condiciones meteorológicas.  En consecuencia, la visibilidad empeoró, la humedad subió al 93% y la concentración de aerosoles de agua aumentó. No se observó ninguna nube a simple vista, pero los investigadores pudieron comprobar que las gotas se estaban formando.

Posteriormente, los científicos examinaron los mecanismos que explican este proceso por medio de experimentos de laboratorio, incluyendo pruebas de química foto-oxidativa y un estudio de efectos electrostáticos.

El siguiente paso de los científicos es utilizar el láser en un movimiento de barrido a través del cielo para tratar de inducir la condensación en un área más amplia. También tratarán de aumentar su eficacia mediante el ajuste de enfoque del láser, la longitud de onda y la duración del pulso.

Éste es el primer experimento en demostrar que un láser es capaz de generar condensación y así los miembros del equipo confían en que esta técnica de láser pueda emplearse para modificar las condiciones meteorológicas de una zona concreta. De esta forma, estos investigadores han demostrado experimentalmente que se puede favorecer la condensación de agua por medio de filamentos autoguiados generados por impulsos de láser ultracortos, incluso en una atmósfera que se encuentre por debajo de la saturación.

Este fenómeno da lugar a una nueva y atractiva herramienta para la caracterización a distancia de la atmósfera húmeda y la formación de nubes. Podría incluso ofrecer un medio de favorecer o incluso provocar precipitaciones mediante láseres en funcionamiento continuo, en lugar de cohetes.

Los rayos generan condensación alrededor de donde son aplicados, por lo que para tener un efecto importante deberían estar barriendo todo el tiempo el cielo. Y lo más importante, no generan lluvias en cielos con baja humedad relativa que es el problema de las zonas desérticas y semidesérticas, donde normalmente ya hay suficiente polvo en la atmósfera para generar lluvias si hubiera humedad en el ambiente.

Los científicos se proponen perfeccionar la técnica para propiciar la formación de lluvia ya que hasta ahora lo que se ha hecho es encontrar una tecnología que podría ser el comienzo del desarrollo de una novedad muy importante. Pero falta todavía mucho trabajo para llegar a una utilidad práctica.La posibilidad de propiciar la formación de lluvia, podría dejar de ser una utopía. 

Fuente: blogs mi+d, 14-6-10

 

 

-La Luna contiene cien veces más agua de lo que se creía

 

Científicos del Instituto de Geofísica del Laboratorio Carnegie en Washington han descubierto que el interior de la Luna contiene mucha más agua de lo que se creía hasta ahora, nada menos que hasta cien veces más. La investigación sugiere que el agua se ha conservado del magma caliente que estaba presente cuando nuestro satélite natural comenzó a formarse hace unos 4,5 miles de millones de años, y que lo más probable es que sea algo común en el interior selenita. La investigación se publica en la revista Proceedings of the National Academy of Sciences (PNAS).

«Durante más de 40 años pensamos que la Luna estaba seca», comenta el autor principal de la investigación, Francis McCubbin. «Recientemente, los científicos detectaron muestras de agua del Apolo en el orden de 46 partes por millón. Se estudiaron otras dos muestras lunares del Apolo y de un meteorito utilizando la espectrometría de masas de iones secundarios (SIMS), que puede detectar elementos en el rango de partes por millón. Combinamos las mediciones con los modelos que caracterizan la forma en que el material cristalizado en la Luna se enfría. Encontramos que el contenido mínimo de agua varió de 64 partes por mil millones a 5 partes por millón, por lo menos dos órdenes de magnitud mayor que los resultados anteriores».

La creencia predominante de la formación de la Luna es que esta es fruto de un gran impacto, cuando un objeto del tamaño de Marte golpeó la Tierra y el material eyectado se convirtió en nuestro satélite. A partir de dos de las muestras, los científicos de Carnegie han determinado que es probable que el agua estuviera presente muy pronto en la historia de la formación de la Luna cuando el magma caliente comenzó a enfriarse y cristalizar. Este resultado significa que el agua es un elemento nativo de la Luna.

Los investigadores estudiaron concretamente hidróxilo, un compuesto con un átomo de oxígeno unido con el hidrógeno, en el mineral apatita. Después de los primeros análisis, los científicos han excluido una de las muestras de Apolo de un mayor estudio porque era poco probable que brinde una buena información sobre el contenido de agua magmática. Se concentraron en la otra muestra de Apolo y el meteorito lunar para determinar agua en el interior de la Luna.

«Es gratificante ver esta prueba en la apatita lunar», comentó el científico Bradley Jolliff lunar de la Universidad de Washington en St. Louis. «Las concentraciones son muy bajas y, en consecuencia, han sido hasta hace poco casi imposible de detectar. Ahora podemos finalmente comenzar a considerar las implicaciones y el origen del agua en el interior de la Luna».

Fuente: abc.es, 14-6-10

 

 

-El norte de Marte estuvo ocupado por un gran océano

Las tierras bajas del norte de Marte estaban cubiertas por un extenso océano hace 3.000 millones de años, según publica esta semana la edición online de "Nature Geoscience".

Aunque investigaciones previas realizadas desde naves espaciales ya habían señalado la posibilidad de que hubiera existido un océano en Marte, aún no había pruebas que lo evidenciaran.
Sin embargo, un grupo de investigadores de la Universidad de Colorado (EEUU) ha analizado ahora la distribución de sedimentos del delta y valle de la red de ríos de Marte, lo que ha confirmado la existencia de un océano. Hallaron que muchos de los deltas estaban situados a la misma altura, lo que según los autores sugiere que habrían estado unidos formando una antigua costa, lo que resulta una prueba contundente de que existió un océano en las llanuras del norte de Marte. La elevación que habría tenido la orilla descubierta por los investigadores coincide con la altura de la desembocadura de la antigua red fluvial, lo que indicaría que existió un nivel uniforme y global de agua en Marte.

Fuente: EFE, 13-6-10

-Un hígado de laboratorio

Imágenes del hígado en distintos momentos del experimento.

 

La idea final de la ingeniería de tejidos es obtener órganos totalmente compatibles con el paciente para poder implantárselos. El primer paso en el campo de la hepatología lo acaba de presentar un grupo de expertos estadounidenses en las páginas de 'Nature Medicine'. El primer hígado fabricado en el laboratorio ya es una realidad.

Claro está, se trata de una prueba de concepto, un primer paso, tan preliminar como necesario, en el camino hacía un hígado artificial completamente funcional y apto para ser trasplantado a un enfermo. "Será necesario trabajar mucho más [...] pero es un excelente comienzo", señala Korkut Uygun, del Centro de Ingeniería Médica del Hospital General de Massachusetts (EEUu), uno de los responsables de la investigación.

Su trabajo es muy similar al que hace pocas semanas presentaron Doris Taylor, del Centro de Reparación Cardiaca de la Universidad de Minnesota (EEUU), y Francisco Fernández-Avilés, jefe del servicio de Cardiología del Hospital Gregorio Marañón. En su caso, habían logrado crear un corazón.

"Básicamente, nuestro estudio consiste en aplicar los métodos de la doctora Taylor, y debo mencionar también el trabajo de Tony Atala, al hígado", explica a ELMUNDO.es Uygun. "Obviamente, distintos órganos tienen diferentes necesidades", añade.

 

Alcanzando las tres dimensiones

La ingeniería tisular, una disciplina que ofrece muchas promesas, ha encontrado diversos obstáculos que, por el momento, limitan sus aplicaciones clínicas. En lo que a recreación de órganos adultos completos se refiere, existen dos problemas fundamentales. Por un lado, el elevado riesgo de muerte celular que existe cuando la perfusión de los tejidos no es la adecuada (faltan oxígeno y nutrientes) y, por otro, la dificultad de obtener estructuras tridimensionales.

La aproximación de Taylor y Atala, aplicada aquí por Uygun y sus colegas, soluciona ambos a la vez. El experimento consiste en obtener un órgano –en este caso un hígado- y quitarle las células dejando tan sólo el andamiaje, la matriz que las sustenta. Esto se consigue 'lavándolo' con detergentes enzimáticos. Después, mediante perfusión, se repuebla con células nuevas hasta obtener la estructura original pero compatible con el paciente.

"El trabajo muestra el desarrollo de varios métodos y protocolos, todos ellos importantes logros de ingeniería en mi opinión", indica este investigador. "El más importante se refiere al método de perfusión que permite la distribución adecuada de las células por la matriz, un paso esencial para conseguir recrear un órgano completo", añade.

Como subraya Uygun, queda mucho trabajo hasta que veamos la aplicación de estas técnicas en humanos. De momento, tras unas tres semanas de trabajo, este equipo logró implantar un hígado y hacerlo funcionar durante ocho horas en varias ratas. Después, el órgano de laboratorio continuó trabajando 'ex vivo' 24 horas más, para poder analizarlo con mayor detalle.

"Creo que esto es un gran logro de la ingeniería tisular hepática; hemos desarrollado la plataforma básica para alcanzar lo que antes no era posible. Pero aún que mucho camino por delante", concluye.

Fuente: elmundo.es, 13-6-10

 

 

 

-Diez lugares del universo para buscar vida extraterrestre

La búsqueda de vida extraterrestre es uno de los principales objetivos de organizaciones científicas y agencias espaciales. Confirmar que algo respira más allá de la Tierra, aunque se trate del microorganismo más simple, será, sin duda, uno de los grandes hitos científicos del futuro. La gran pregunta es por dónde empezar a buscar. Éstas son las principales dianas de los investigadores, lugares del Cosmos donde el comportamiento de sus compuestos químicos se ha revelado demasiado particular para ser tan sólo un mundo muerto ahora o en el pasado. En Titán o las lunas Europa y Encélado, entre otros cuerpos celestes, los investigadores parecen haber encontrado las pistas más fiables, aunque es posible que en los próximos años, especialmente gracias a los avances en la búsqueda de planetas fuera de nuestro Sistema Solar, aparezcan nuevos prometedores lugares.

-Meteoritos: Los difusores de la vida
Un meteorito encontrado en la Antártida se hizo mundialmente famoso en 1996 cuando la NASA y la Casa Blanca hicieron público de forma conjunta un extraordinario descubrimiento. En la piedra, de 13.000 años de antigüedad y proveniente de Marte, aparecían posibles huellas de vida extraterrestre. El hallazgo del meteoro, conocido como Allen Hills 840001, suscitó entre los astrobiólogos un intenso debate que ha llegado hasta nuestras días sin una respuesta definitiva.

Si esto fuera cierto, sería una prueba excelente que confirmaría la teoría de la panspermia (literalmente, semillas en todas partes), la idea de que la vida llegó del espacio exterior en asteroides, cometas y meteoros y los planetas pudieron compartirla. Una vida de este tipo se refiere a bacterias o formas parecidas capaces de resistir los ambientes más extremos.

 

 

-Marte: Una misión en busca de fósiles
Marte, nuestra próxima frontera, ha sido un objetivo largamente perseguido por los cazadores de vida extraterrestre, especialmente desde el descubrimiento de agua helada en su superficie por la
Phoenix Mars Landers en 2008. Otro importante elemento para la vida fue encontrado el año siguiente: científicos de la NASA hallaron metano en la atmósfera del planeta. Además, existen evidencias del pasado cálido y húmedo del Planeta Rojo.

La NASA estudia seriamente la posibilidad de enviar un robot a Marte para recolectar muestras del suelo que luego otra nave traería de vuelta. «Estas muestras podrían revelar formas de vida que han existido o que existen actualmente» en el Planeta rojo, explicaba en su día Steve Squyres, científico planetario de la Universidad de Cornell en Nueva York y presidente de un comité de la Academia Americana de las Ciencias, encargada de formular recomendaciones para la NASA. La diana donde aterrizaría esta nave son los vastos campos de yeso que cubren gran parte de la superficie del planeta, donde quizás puedan aparecer fósiles de organismos vivos, como se han preservado en el Mediterráneo.

Otro de los objetivos de la misión a Marte es la búsqueda del origen de ese misterioso metano en su atmósfera, que algunos apuntan puede ser orgánico. Por ejemplo, bacterias que se encuentren muy por debajo de la superficie.

-Europa: ¿Un mar para albergar a todos los peces terrestres?
Europa se ha convertido en uno de los lugares más prometedores a la hora de buscar vida más allá de la frontera de nuestra atmósfera. El gran océano subterráneo que se cree existe en la luna de Júpiter, tan grande que encierra el doble de agua que todos los mares y océanos de la Tierra, podría contener cien veces más oxígeno de lo que se estimaba hasta ahora, según una investigación realizada en 2009 por Richard Geenberg, de la Universidad de Arizona. Se trata de una cantidad muy rica, más que suficiente para albergar vida. Y no sólo microorganismos, sino una «macrofauna» tan grande como todos los peces terrestres.

-Calisto: Pruebas de un océano líquido
Los científicos de la NASA habían declarado a Calisto «una luna muerta y aburrida» hasta el descubrimiento de un posible océano salado bajo su superficie. La nave espacial Galileo de la NASA voló sobre la superficie de la segunda mayor luna de Júpiter en 1996 y 1997 y encontró que el campo magnético de Calisto había variado, lo que indicaba la existencia de corrientes. En 2001, Galileo detectó que un asteroide había impactado contra este mundo, formando el cráter Valhalla. Generalmente, un impacto de este tipo causaría intensas ondas de choque que atravesaría el cuerpo planetario, pero Galileo no encontró ninguna prueba de este fenómeno, por lo que los investigadores creen que un océano líquido pudo haber suavizado el golpe. De igual forma, no descartan la existencia de una vida compleja.

-Titán: Alguien respira su hidrógeno
Dos nuevos estudios sobre la compleja actividad química que tiene lugar sobre la superficie de Titán han sorprendido a la comunidad científica, ya que pueden constituir la prueba de que en esa luna de Saturno existe, en estos momentos, alguna forma de vida basada en el metano. La primera investigación muestra que el hidrógeno que fluye en abundancia en la atmósfera del planeta desaparece casi por completo cuando llega a la superficie, lo que apunta a la inquietante posibilidad de que esté siendo "respirado" por criaturas vivientes. El segundo, publicado en el «Journal of Geophysical Research», es un detallado «mapa» de los hidrocarburos presentes en la superficie de Titán. Falta el acetileno, un gas que casualmente está considerado como la mejor fuente de alimento y energía para una hipotética forma de vida basada en el metano. Si estos indicios confirman la presencia de vida, será doblemente excitante, ya que sería una forma nueva de vida, independiente de la basada en el agua que existe en la Terra, y que podría sustentarse en el metano.

-Encélado: El gran géiser
Los datos enviados por la nave
Cassini de la NASA a su paso por Saturno en el año 2005 permitían suponer la existencia de agua en estado líquido a poca profundidad bajo la superficie helada de Encélado, satélite natural de Saturno. La suposición se confirmó tres años después en un informe publicado en la revista Nature. El pasado enero, la Cassini volvió a acertar. Encontraba la prueba definitiva de que, efectivamente, existe una gran cantidad de agua en estado líquido en las entrañas esta luna. Y no sólo eso, sino también hidrocarburos, carbono y todos los ingredientes necesarios para la existencia de vida.

Los datos de la Cassini han revelado, de hecho, iones de agua negativos en la atmósfera, lanzados por los grandes géiseres que caracterizan a esta luna, lo que confirma la presencia de caudalosas masas de agua subterránea. Aquí, en la Tierra, los iones negativos de agua están presentes en aquellos lugares en los que el líquido elemento está en movimiento, como en las cataratas o en las olas del mar al romper. Iones negativos de agua también han sido encontrados en Titán (otra de las lunas de Saturno) y en varios cometas.

-Exoplanetas: Cada año aparecen docenas
Un exoplaneta es un cuerpo planetario que se sitúa fuera de nuestro Sistema Solar y orbita otra estrella distinta al Sol. Sólo llevamos explorando estos mundos lejanos durante una década (el primero, HD 209458, fue descubierto en 1999), pero docenas de estos mundos aparecen cada año, y algunos llevan consigo grandes sorpresas. HD 209458b, por ejemplo, ha mostrado señales de una atmósfera compuesta por agua, metano y diócido de carbono, todos ingredientes claves para la vida.

-Nebulosa de Orión: agua y monóxido de carbono
El pasado mes de mayo, el telescopio espacial Herschel de la
Agencia Espacial Europea (ESA) anunciaba el hallazgo de productos químicos orgánicos, señales de vida, en la nebulosa de Orión, situada a unos 1.500 años luz de la Tierra. Los datos recogidos por el observatorio mostraban el patrón de picos de varias moléculas que sostienen la vida: agua, monóxido de carbono, metanol, ácido cianhídrico, óxido de azufre y dióxido de azufre, entre otros.

-Un gigante rojo moribundo: el desfibrilador cósmico
Un equipo internacional de astrónomos descubrió en 2005 que las estrellas gigantes rojas moribundas podría actuar como un desfibrilador y traer a la vida a planetas congelados. Este renacimiento podría establecer las bases para el surgimiento de la vida. La Tierra es un lugar habitable por muchas razones, pero una de ellas es su localización. Estamos en un área donde el Sol nos permite una buena temperatura. Demasiado cerca, y el agua de nuestro planeta se evaporaría. Demasiado lejos, y nos convertiríamos en un gran cubo de hielo.

Cuando una estrella muere, en su fase de gigante rojo, aumenta su tamaño y brillo rápidamente, y explota en una oleada de radiación solar. Si los rayos de la estrella moribunda llegan hasta una luna o exoplaneta helados, este mundo puede derretirse y aparecer el agua líquida, preparando el escenario para la vida.

-Io: la nueva candidata
Io, luna de Júpiter, no ha sido nunca un gran objetivo en la búsqueda de vida fuera de la Tierra y se ha despreciado frente a las grandes posibilidades de su hermana Europa, pero algunos científicos han comenzado a incluirla en la lista de posibles lugares habitables. Es el cuerpo con mayor actividad volcánica del Sistema Solar. En él no se han detectado moléculas orgánicas y cuenta con una atmósfera extremadamente fina, desprovista de vapor de agua detectable. Sin embargo, investigadores de la Universidad Estatal de Washington creen que pudo haber sido un hábitat más amable en el pasado y que hay una oportunidad de que alguna intrigante forma de vida haya sobrevivido hasta la actualidad.

Fuente: abc.es, 11-6-10

 

 

 

-Identificado un gen supresor de tumores

 

En el estudio referido, el profesor Cools trabajó con un equipo de científicos europeos, entre ellos la estudiante de doctorado de la VIB/K. U. Leuven Maria Kleppe y el Dr. Peter Vandenberghe de la K. U. Leuven y del Hospital de Saint-Louis de Francia. Los científicos descubrieron gracias a la investigación que el gen PTPN2 desaparecía del ADN de las células de algunos pacientes de leucemia (provocando la multiplicación de las células cancerosas) e identificaron el PTPN2 como un regulador negativo de la actividad de una quinasa concreta. En definitiva, su investigación apunta a que el gen tiene una función supresora de tumores y es uno de los factores principales de la LLA.

El estudio también ha aportado nuevas vías de investigación sobre la función de las quinasas y fosfatasas (enzimas capaces de activar y desactivar funciones celulares específicas) en el desarrollo del cáncer. Se sabe desde hace tiempo que los errores de las quinasas y las fosfatasas pueden provocar cáncer. Este estudio demuestra que cuando se producen estos tipos de errores al mismo tiempo los efectos cancerígenos pueden ser aún mayores. El equipo también descubrió que es posible que estos errores provoquen que las células adquieran resistencia contra los inhibidores de quinasa (tratamientos contra el cáncer).

La LLA es un cáncer de crecimiento rápido que afecta a las células linfoides, uno de los dos tipos principales de glóbulos blancos del organismo. Las células anormales («células de leucemia») se desarrollan y crecen con rapidez, superando a las plaquetas (fragmentos celulares de formas irregulares) y los glóbulos blancos y rojos normales que el organismo precisa para mantenerse sano. Los pacientes que sufren de LLA y otros tipos de leucemia suelen ser especialmente sensibles a infecciones, ya que los glóbulos blancos actúan como protección ante bacterias y virus.

El «agudo» del nombre hace referencia a la velocidad de la enfermedad, pues si no se trata puede provocar la muerte prematura. Al menos un tercio de todos los diagnósticos de cáncer en niños menores de quince años son de LLA, atacando con mayor frecuencia a niños de entre dos y cinco años. Esta enfermedad también puede afectar a adultos, normalmente mayores de 45 años.

La LLA-T es un tipo de LLA de alto riesgo en la que las células que normalmente se convertirían en glóbulos blancos comienzan a dividirse sin control y crean una gran cantidad de células inmaduras. Hasta ahora se conocían muy pocos factores asociados a un mayor riesgo de desarrollar LLA-T, pero gracias a esta investigación se ha hecho patente que se desarrolla cuando se producen errores en varios genes al mismo tiempo.

Los científicos tratan ahora de identificar los genes que provocan la LLA-T, pero también de averiguar las combinaciones específicas que favorecen la enfermedad. El equipo científico afirma que esto es fundamental para el desarrollo de terapias con más de una diana.

 

Fuente: CORDIS, 11-6-10

 

 

-Grandes reptiles oceánicos de sangre caliente

Los grandes reptiles marinos que habitaron en los mares, hace entre 251 y 65 millones de años, eran de sangre caliente, una característica que les permitía vivir a grandes profundidades y desplazarse nadando a largas distancias para capturar sus presas. Esta es la conclusión a la que ha llegado un equipo de investigadores de la Universidad de Lyon y otras instituciones científicas francesas, que han analizado el isótopo 18 de los dientes fosilizados de tres de los linajes más significativos de aquellos monstruos marinos.

Los científicos, según publican en la revista 'Science', comprobaron que las temperaturas oceánicas en aquella era llegaban a ser muy frías, casi a punto de la congelación. Si los reptiles de entonces hubieran tenido la sangre fría, es decir, que su organismo se hubiera adaptado a la que había a su alrededor, su supervivencia habría sido muy complicada. Para averiguar cómo funcionaba su organismo eligieron fósiles dentales de tres linajes: los plesiosaurios, los ictiosaurios y los mosasaurios, y compararon sus isótopos de oxígeno con los dientes de peces que viven en el mismo medio ambiente para descartar desviaciones en la temperatura corporal.

El resultado fue que los plesiosaurios y los ictiosaurios tenían una temperatura corporal que oscilaba entre los 35º y los 39º C. No está tan claro si los mosasaurios también mantenían su sangre caliente, aunque es algo que no descartan. La explicación de esta adaptación evolutiva estaría en que los dos primeros linajes de reptiles marinos iban a la captura de sus presas y tenían que recorrer grandes distancias a una velocidad muy alta, como hacen los atunes, por lo que su metabolismo requería una temperatura alta para estar activo.

 

Diente de un ictiosaurio utilizado en el trabajo.| Science

En el caso de los mosasaurios, por lo que ya se sabía, eran reptiles que permanecían al acecho cuando salían de caza y, por tanto, solo puntualmente alcanzaban grandes velocidades y en distancias cortas. Para el catedrático de Paleontología José Luis Sanz, este trabajo "es muy interesante porque confirma las hipótesis que había sobre el comportamiento y el hábitat de estos reptiles marinos".

Todos ellos fueron grandes depredadores de dimensiones gigantescas, como también eran las de sus vecinos terrestres, los dinosaurios.

Fuente: elmundo.es, 11-6-10

 

 

-Calzoncillos "inteligentes"

 

Un equipo de científicos estadounidenses ha diseñado nuevos calzoncillos "inteligentes" que, además de ser cómodos, duraderos y hasta elegantes, podrían salvar vidas. En el elástico, la prenda tiene impreso un biosensor electrónico que está en constante contacto con la piel y puede medir la presión arterial, el ritmo cardíaco y otros signos vitales.

La tecnología, desarrollada por el profesor de nanoingeniería Joseph Wang, de la University of California San Diego y su equipo, puede revolucionar el campo de la ropa inteligente y es parte de un cambio que consiste en pasar del tratamiento basado en el hospital al cuidado en casa.

Localizar heridas y lesiones

El método es similar al estampado serigráfico convencional, pero la tinta que se utiliza para estampar el sensor contiene electrodos de carbono. El proyecto es financiado por el Ejército estadounidense y los soldados probablemente serán los primeros en probarlo.

"Esta iniciativa específica involucra el monitoreo de las lesiones de los soldados durante la cirugía en el campo de batalla, y el objetivo es desarrollar sensores mínimamente invasivos que puedan ubicar (...) e identificar el tipo de herida", dijo Wang.

En última instancia, el biosensor que detecta la lesión también podría dirigir la emisión de fármacos para aliviar el dolor y hasta tratar la herida.

 

Medicina personalizada

Las posibles aplicaciones de esta tecnología van más allá del Ejército. "Prevemos la tendencia de la medicina personalizada para monitorear remotamente a los ancianos en su casa, controlar una amplia variedad de marcadores biomédicos, por ejemplo cardíacos, alertar sobre un posible accidente cerebrovascular y cambios diabéticos", entre otros, dijo Wang. Los biosensores en la ropa también pueden ofrecer información valiosa a los atletas e incluso medir los niveles de alcohol en sangre. Pero Wang dijo que puede pasar un tiempo hasta que estos calzoncillos inteligentes puedan ser usados por los soldados en el campo de batalla, porque se necesita más investigación para garantizar que los sistemas de monitoreo sean fuertes y durables como para superar el desgaste de la actividad diaria. Sin embargo, opinó que cada vez hay más necesidad de desarrollar sistemas de monitoreo de salud fiables y aptos para llevar en la ropa.

Fuente: elmundo.es, 10-6-10

 

 

-La fusión entre el cuerpo humano y la tecnología

Científico, inventor, empresario, escritor e incluso músico. A sus 62 años, el estadounidense Ray Kurzweil ha abarcado multitud de campos aunque es en el sector tecnológico donde se ha convertido en una de las voces más respetadas -y controvertidas- en todo el mundo.

Hace 20 años anticipó algunos de los cambios que se producirían en nuestra sociedad, como la importancia que Internet llegaría a tener en nuestras vidas o la caída de la URSS. Y sigue pensando que el avance de la tecnología es imparable.

Ray Kurzweil

El pasado martes estuvo en Madrid, donde explicó cómo viviremos en un futuro no muy lejano si se cumplen sus nuevas 'predicciones'. El futuro, según Kurzweil, estará dominado por la invasión de las nuevas tecnologías, que transformarán nuestras vidas hasta el punto de que se fusionarán con el cuerpo humano.

Minúsculos ordenadores

Durante su charla en la Fundación Telefónica, con la que clausuró el ciclo 'Diez conceptos que están cambiando el futuro', Kurzweil afirmó que dentro de un par de décadas será posible implantar minúsculos ordenadores en el cuerpo humano para curar enfermedades como el Parkinson o suplir áreas dañadas del cerebro.

El científico sostiene que la tecnología implantada en humanos permitirá incluso pasar horas bajo el agua sin necesidad de un equipo de submarinismo. Será nuestra sangre la que contenga "linfocitos robóticos" y lo haga posible, según el autor de 'La era de las máquinas artificiales' y 'La singularidad está cerca'.  El científico sostiene que el avance de las tecnologías no es lineal sino exponencial, lo que hace posible que en muy poco tiempo se produzcan logros espectaculares y grandes mejoras.

Crecimiento tecnológico

Por ejemplo, hace 15 años los móviles eran grandes y pesados, y poca gente podía permitírselos. En muy poco tiempo, tanto el precio como el tamaño de los terminales se ha reducido enormemente al mismo tiempo que aumentaba su capacidad.

"Y en apenas dos años se ha extendido el uso de los 'smart-phones'", afirmó, un fenómeno que definió como "democrático" y que ha permitido que haya unos mil millones de teléfonos móviles en el mundo. Con los ordenadores ha ocurrido lo mismo: "Ahora son mil veces más baratos y potentes que cuando yo era estudiante.

El científico afirma que las Tecnologías de la Información y de la Comunicación (TIC) tienen un gran impacto en las zonas del planeta menos desarrolladas y ayudarán a resolver muchos de sus problemas. Según Kurzweil, los campesinos chinos o de algunos países africanos los utilizan para mejorar su producción. Del mismo modo, recuerda que la medicina ha avanzado de forma exponencial desde que se secuenció el genoma humano y se ha convertido en una nueva tecnología de la información. En la actualidad, disponemos de 23.000 programas de software sobre el genoma que harán posible en un futuro próximo poder seleccionar y modificar los genes.

Fuente: elmundo.es, 9-6-10

 

 

-Un cambio climático hizo desaparecer a los grandes simios de Europa

El Viejo Continente fue tierra de grandes simios hace nueve millones de años, pero desaparecieron debido a las condiciones climáticas adversas. Ésa es la conclusión de un estudio que, a partir de fósiles de dientes de antílopes, ha descubierto que estos animales desaparecieron de Europa cuando su hábitat natural cambió drásticamente hace aproximadamente 9 millones de años.

La investigación ha sido realizada por un equipo dirigido por Gildas Merceron, de la Universidad Claude Bernard de Lyon (Francia). Los científicos sostienen que el cambio climático que se produjo en aquella época acabó con muchos bosques y grandes praderas, y con ellos, con estos increíbles mamíferos.

Los antepasados de los orangutanes, gorilas y chimpancés pudieron sobrevivir en Asia y África donde esos cambios no fueron tan drásticos.

Un cambio gradual

El estudio también trata de determinar qué comían los antílopes hace miles de años para reconstruir el hábitat de los grandes simios. " La mejor forma de reconstruir cómo era su hábitat es determinar la dieta de las especies herbívoras. Por eso usamos los fósiles de los antílopes, porque era la especie que dominaba la fauna en Europa en esa época", explicó el doctor Merceron a la BBC.

Cuando estos mamíferos compartían la tierra con los grandes simios, el paisaje en Europa era muy diferente al que conocemos hoy en día. El cambio fue gradual, y a medida que los grandes simios desaparecían de la zona, eran reemplazados por sus primos pequeños, una especie de mono llamada 'Mesopithecus'. El investigador Merceron advierte que, en la actualidad, el hombre puede causar cambios en el medioambiente mucho más rápido, por lo que es necesario que tome conciencia del impacto negativo que provoca en el reino animal.

Según Merceron, la gente tiende a olvidar que preservar la biodiversidad es importante para su propia supervivencia. Grupos de simios han desaparecido de forma repentina en pocos años debido a la caza furtiva y a la deforestación. Así lo cree Ellen Schulz, de la Universidad de Hamburgo en Alemania: "Los grandes simios están en peligro de extinción principalmente porque el ser humano destruye su hábitat".

Fuente: elmundo.es,  8-6-10

 

 

-Un arsenal de 800 fármacos inteligentes acechan al cáncer

La promesa que el presidente estadounidense Richard Nixon hizo a su pueblo en 1971 no se va a cumplir. El cáncer, como entidad general, está lejos de tener una única cura, como se ha puesto de manifiesto en la reunión anual de la Sociedad Estadounidense de Oncología Médica (ASCO), el mayor congreso internacional de cáncer, que reúne a 30.000 oncólogos de todo el mundo. Sin embargo, las perspectivas que afrontan los afectados por este conjunto de enfermedades son cada vez mejores. La lucha contra la que ya es principal causa de muerte en España desecha las estrategias comunes para centrarse en lograr mejoras espectaculares para grupos de enfermos muy pequeños. Y, según lo que se ha podido escuchar en el congreso que concluye hoy en Chicago, la nueva técnica está dando sus frutos.

"Existen alrededor de 800 compuestos en investigación contra el cáncer", explicó el jefe de Oncología del MD Anderson Cancer Center de Madrid, Antonio González. La cifra demuestra el nivel investigador que existe en esta especialidad, que ha permitido que cánceres incurables hace 20 años hoy desaparezcan del organismo para siempre.

En este éxito han jugado un papel fundamental los fármacos antidiana, dirigidos a combatir una proteína específica que se sabe que está asociada al cáncer. Una de las estrellas de esta reunión ha sido precisamente uno de esos medicamentos, un inhibidor de la proteína ALK que ha logrado que respondan los pacientes de cáncer de pulmón que presentan la alteración genética a la que va dirigido, alrededor de un 5% del total. Lo más importante del estudio que, debido a su trascendencia, se presentó en la sesión plenaria del congreso del domingo, la más importante de la reunión es el poco tiempo transcurrido desde que se identificó el oncogén (gen cancerígeno) hasta que se desarrolló un medicamento para inhibirlo. Si en 2007 un equipo de investigadores japoneses publicaba en Nature la asociación entre el gen EML4-ALK y un tipo de cáncer de pulmón, menos de tres años después, una compañía farmacéutica ha logrado traducir ese hallazgo en un fármaco eficaz, el crizotinib. Sin duda, un triunfo de la medicina translacional, que traslada a la clínica los hallazgos de la investigación básica.

Fármacos antidiana

El jefe del servicio de Oncología Médica del Hospital Clínic de Barcelona, Pere Gascón, explica la revolución que ha supuesto para la oncología la irrupción de los fármacos antidiana como este último: "Hace 25 años, sabíamos cómo se comportaba el cáncer, pero no sabíamos mucho sobre la bioquímica de la enfermedad. Ahora, hemos conseguido identificar las proteínas oncogénicas y, lo más importante, desarrollar fármacos para bloquearlas". Este especialista destaca la dificultad de la investigación en este campo, ya que, aunque los genes se asocian al cáncer, "no siempre se sabe si son la causa". "Los laboratorios tienen que apostar, porque a veces el fármaco puede ir a la basura", dice.

Además de la medicina personalizada, otro de los grandes retos de la oncología actual es mejorar la supervivencia en aquellos tipos de cáncer que todavía se resisten a la curación y matan a un porcentaje elevado de los pacientes. Uno de los que más se resisten es el melanoma, que si bien detectado en fases precoces es perfectamente curable, presenta una elevadísima mortalidad una vez que la enfermedad se ha extendido.

Un estudio en fase III (la más avanzada en investigación clínica) demostró el domingo en la ASCO por primera vez que un medicamento llamado ipilimumab puede mejorar la supervivencia en este grupo de pacientes. El trabajo, también discutido en la plenaria, se publicó simultáneamente en la revista New England Journal of Medicine. Este fármaco se mostró más eficaz que una vacuna dirigida a la proteína GP100, que en la reunión de la ASCO del año anterior demostró capacidad para reducir el melanoma. En este sentido, la oncóloga y directiva de la ASCO del Abramson Cancer Center (EEUU) Lynn Schuchter reconoció a este diario que los nuevos resultados de las vacunas terapéuticas contra el cáncer "no han sido muy positivos" y que "habrá que esperar" a nuevas investigaciones.

Buenos resultados contra el tumor de ovario

El cáncer de ovario es el tumor genitourinario más mortal en las mujeres, a pesar de ser una enfermedad rara (afecta a una de cada 2.500 mujeres). Ayer, se presentaron en Chicago los resultados de un estudio en fase II con el fármaco AMG386, que es el primero de una nueva familia de fármacos, los llamados ‘pectibodys', que actúan contra la angiotensina 1 y 2 (proteínas vasoconstrictoras que aumentan la presión sanguínea). Es un medicamento biológico que actúa impidiendo al tumor obtener la sangre que necesita para seguir creciendo. Este no fue el único resultado positivo para el cáncer de ovario. En la sesión plenaria del domingo, se presentaron los resultados de otro fármaco biológico, el bevacizumab, que logró mejoras en los pacientes. El mal pronóstico de este tumor se debe a que el 70% de los casos se detecta cuando ya está avanzado.

Fuente: publico.es, 8-6-10

 

 

-Así se produjo el brutal choque que formó la Tierra y la Luna

La Tierra y la Luna fueron creadas como resultado de una colisión gigante entre dos planetas del tamaño de Marte y Venus. Hasta ahora se pensaba que sucedió cuando el Sistema Solar tenía unos 30 millones de años, aproximadamente hace 4.537 millones de años. Pero una nueva investigación del Instituto Niels Bohr sugiere que la Tierra y la Luna aparecieron mucho más tarde, quizás hasta 150 millones de años después de la formación del sistema solar.

 

Los resultados de la investigación han sido publicados en la revista científica Earth and Planetary Science Letters.
"Hemos determinado las edades de la Tierra y la Luna usando isótopos de tungsteno, que puede revelar si los núcleos de hierro y sus superficies de piedra fueron mezclados durante la colisión", explica Tais W. Dahl, que realizó la investigación como proyecto de su tesis en Geofísica en el Instituto Niels Bohr en la Universidad de Copenhague en colaboración con el profesor David J. Stevenson, del Instituto de Tecnología de California (Caltech).

La Tierra y la Luna son el resultado de una colisión entre dos gigantescos planetas del tamaño de Marte y Venus. Los dos planetas chocaron en un momento en que ambos tenían un núcleo de metal (hierro) y un manto de silicatos que los rodea (roca). Pero, ¿cuándo y cómo sucedió? La colisión tuvo lugar en menos de 24 horas y la temperatura de la Tierra fue tan alta (7000 C), que tanto roca como metal se fundieron en la turbulenta colisión. Hasta ahora se pensaba que la roca y el hierro se mezclaron completamente durante la formación del planeta y, por tanto, la conclusión era que la Luna se formó cuando el Sistema Solar etnía unos 30 milones de años. Pero la nueva investigación muestra algo totalmente diferente.
La edad de la Tierra y la Luna se puede fechar mediante el examen de la presencia de ciertos elementos en el manto terrestre. Hafnio-182 es una sustancia radiactiva, que se descompone y se convierte en el isótopo de tungsteno-182. Los dos elementos tienen propiedades químicas muy diferentes y, aunque los isótopos de tungsteno prefieren adherirse a los metales, los de hafnio prefiere los silicatos, es decir, la roca.

 

La colisión entre una Proto-Tierra y Theia, de donde la Tiera y la Luna fueron creados hace unos 4.500 millones de años.


60 millones de años
Se tarda entre 50 y 60 millones de años para que todo el hafnio se degrade y se convierta en tungsteno. Durante la colisión que formó la Luna casi todo el metal se hundió en el núcleo de la Tierra. "Hemos estudiado a qué temperatura metal y roca se funden en el curso de colisiones de formación planetaria. Usando modelos de cálculo dinámico de la turbulenta mezcla de roca líquida y masas de hierro se ha encontrado que los isótopos de tungsteno de la formación temprana de la Tierra permanecen en el manto rocoso" , explica Tais W. Dahl, Niels Bohr Institute de la Universidad de Copenhague.
Los nuevos estudios implican que la colisión de formación de la Luna se produjo después de que todo el hafnio se había deteriorado por completo en tungsteno. "Nuestros resultados muestran que el núcleo de metal y roca no es capaces de emulsionar en estas colisiones entre planetas que son mayores de 10 kilómetros de diámetro, por lo que la mayoría del núcleo de hierro de la Tierra (80-99%) no fue removido de tungsteno a partir del material rocoso en el manto durante la formación, explica Tais W. Dahl. El resultado de la investigación significa que la Tierra y la Luna deben haberse formado mucho más tarde de lo que se pensaba anteriormente.
 

Fuente: abc.es, 8-6-10

 

 

-China se adelanta en explorar los nuevos yacimientos submarinos

Ya se pueden explorar los yacimientos ricos en metales preciosos que rodean las chimeneas hidrotermales en el fondo del mar, y China se ha adelantado a pedir el primer permiso para hacerlo. Quiere explorar en la zona suroeste del océano Índico y con su petición se reserva los futuros derechos de explotación de la concesión, cuando la comunidad internacional lo permita. Tras más de seis años de discusión, la Autoridad Internacional para los Fondos Marinos (AIFM) , ligada a la ONU, aprobó en mayo, en Jamaica, el segundo reglamento del código minero para explorar La Zona, como se denomina el inmenso fondo marino fuera de las jurisdicciones nacionales. Es el reglamento para la prospección y exploración de sulfuros polimetálicos (ricos en oro, plata, cobre, cinc y otros elementos, como las tierras raras), que se acumulan alrededor de las chimeneas, las cuales albergan también extrañas formas de vida, desconocidas hasta hace pocas décadas.

Exploración de una chimenea hidrotermal y las especies asociadas por científicos del Censo de la Vida Marina.- MARUM/UNIVERSITY OF BREMEN 2006

 

 

En los fondos oceánicos, que suponen dos terceras partes de la superficie terrestre, están, totalmente inalterados, depósitos minerales que contienen la misma proporción aproximada de los 103 elementos químicos conocidos, entre ellos metales de interés económico cuya demanda ha subido mucho en los últimos años.

Al día siguiente de la aprobación del segundo reglamento, China, que había bloqueado en solitario el proceso durante años, alegando que no existían conocimientos científicos suficientes para regular y poder valorar las posibles implicaciones medioambientales, presentó la petición, explica Jesús Silva, embajador de España en Jamaica. Silva, como representante español ante la AIFM, fue el presidente de la asamblea en la que se aprobó el reglamento y ha sido el primer español que ha presidido una reunión anual de este organismo.

Para Silva, la acción china es una prueba evidente de los intereses que están en juego y de la carrera que empieza entre los principales países industriales por hacerse con estratégicos derechos económicos.

Las nuevas normas ven la luz verde 10 años después de las primeras, relativas a los campos de nódulos polimetálicos (con aspecto de cantos rodados en amplias zonas muy profundas del fondo oceánico), que ya están explorando ocho contratistas en el Pacífico y el Índico, y antes de las relativas al tercer tipo de yacimientos, identificados como de interés económico por los expertos: las cortezas de ferromanganeso ricas en cobalto.

"Los trabajos para el reglamento de las cortezas empezaron antes que los de los sulfuros, pero estos últimos provocan mayor interés y por eso se ha completado el proceso antes", explica desde Santo Domingo Eusebio Lopera, miembro de la Comisión Jurídico Técnica de la AIFM.

Los dos reglamentos ya aprobados, aunque parecidos, no son idénticos, debido a la distinta naturaleza geológica y medioambiental de ambos tipos de yacimientos. "Las diferencias principales están en la superficie de los permisos de exploración, la cuantía económica por derechos de tramitación y la forma de cesión de áreas", señala Lopera.

Para los nódulos polimetálicos, la superficie máxima es de 150.000 kilómetros cuadrados, mientras que para los sulfuros polimetálicos es mucho más pequeña, 10.000 kilómetros cuadrados (equivalente a 100 bloques de 100 kilómetros cuadrados).

Además, los solicitantes de permisos de exploración deben pagar 250.000 euros a la autoridad en el caso de los nódulos, y el doble en el caso de los sulfuros. Sin embargo, en este último caso se puede fraccionar el pago y, si se decide renunciar a la concesión, parte se ahorra.

Un punto importante en ambos reglamentos, señala Lopera, es la duración de los contratos: "Son de 15 años y pueden prorrogarse por periodos de cinco años, si así lo pide el contratista y lo aprueba la autoridad".

En todo caso, son reglamentos no cerrados, que se cambiarán si es necesario, mientras se mantiene en estudio permanente el aspecto medioambiental, tan delicado. Pero no hace falta correr, señala Lopera, porque la tecnología no está todavía a punto.

La profundidad de trabajo es un gran problema, como se ha visto en el escape de petróleo en el golfo de México, y, aunque los sulfuros están a menor profundidad (los hay a 1.500 metros) que los nódulos (entre 3.000 y 5.000 metros), "lo que hace falta es aumentar el conocimiento, todavía queda mucho para la explotación", señala este geólogo. Por ejemplo, explica, en aguas españolas del golfo de Cádiz hay chimeneas a menor profundidad, pero no son interesantes económicamente, porque son menos ricas en metales.

Fuente: elpais.com, 7-6-10

 

-El cosmos juega a las muñecas rusas

El 24 de mayo de 1543 murió el astrónomo Nicolás Copérnico, al tiempo que se publicaban los primeros ejemplares de su obra Sobre las revoluciones de las esferas celestes, que darían a conocer que ni el hombre ni su planeta son el centro del universo: el Sol y la Tierra son sólo ínfimas partes de un todo. Ese todo se pone ahora en entredicho en un artículo publicado en Physics Letters B. El texto afirma que el universo no es más que el residuo de la materia absorbida por un agujero negro de un universo mayor.

En teoría, los agujeros negros se forman tras el colapso de una estrella de gran masa que se concentra sobre sí misma, lo que genera un campo gravitatorio tal que ni siquiera la luz escapa a su atracción. Algunos de ellos pueden crecer enormemente devorando la materia a su alrededor. La Vía Láctea alberga en su centro un agujero negro con una masa de cuatro millones de soles y similar a los presentes en el centro de otras galaxias.

Según la teoría convencional, la materia que rodea a un agujero negro es atraída hasta traspasar su horizonte de sucesos, una frontera entre el interior y el exterior del agujero, donde la atracción gravitatoria supera la capacidad de la luz para escapar. Una vez traspasado este umbral, la materia entra en la región central del agujero, conocida como singularidad, que es donde la gravedad es tan inmensa que deforma el espacio-tiempo. No obstante, nunca se ha observado de forma empírica la existencia de agujeros negros, sino que "se nota su presencia debido a cómo se comporta la materia a su alrededor", explica el catedrático de Astronomía y Cosmología de la Universidad Politécnica de Catalunya, Enrique García-Berro.

Una puerta al otro lado

Así, la materia atraída por el agujero permanecería en su interior aportando más densidad a la formación. No obstante, según el autor del artículo, el investigador del departamento de Física de la Universidad de Indiana (EEUU), Nikodem Poplawski, la materia nunca llegaría a entrar en la singularidad del agujero. En su lugar, al alcanzar el horizonte de sucesos (punto B, ver gráfico), reaparecería al otro lado del agujero (punto C), donde comenzaría a formar parte de un nuevo universo.

Poplawski afirma que el agujero negro no es una tumba de materia, sino una puerta hacia una nueva existencia. Para ello, el autor utiliza el concepto de agujero de gusano, también conocido como puente de Einstein-Rosen, que actúa como un atajo entre ambos universos. Este pasillo se formaría "por el solapamiento de los horizontes de sucesos del agujero de entrada y el de salida", explica Poplawski. Debido a que los agujeros negros sólo pueden absorber, para que la materia pueda salir al otro lado se requiere el reverso físico del agujero negro, conocido como agujero blanco.

Si se sabe poco de los agujeros negros, sus hermanos inversos generan aun más interrogantes. Los agujeros blancos "son soluciones matemáticas que representan curvaturas extremas y muy especiales del espacio-tiempo", explica Carlos Barceló, del Instituto de Astrofísica de Andalucía. Nunca se ha detectado su presencia en nuestro universo. La curvatura de estos elementos provoca que nada sea capaz de penetrar en ellos. En lugar de eso, "actúan como una estrella ideal que lo emite todo pero no absorbe nada", añade.

Al acercarse al agujero, "la materia se va colapsando sobre sí misma hasta que cruza el horizonte de sucesos, donde comienza a reexpandirse a modo de Big Bang al otro lado del agujero", afirma el autor de la investigación. Así, el universo conocido no sería más que el despojo de la materia de un universo superior, que fue absorbida por un agujero negro.

El físico asegura que "cada vez que el colapso de una estrella produce un agujero negro, un nuevo universo se forma dentro de él". Por lo tanto, cada uno de los agujeros negros del universo conocido contendría otro universo más pequeño en su interior, al tiempo que el universo conocido estaría enclavado en un universo mayor. Como un juego de muñecas rusas, pero en el que cada figura puede contener otras en su interior, cada una repitiendo el mismo patrón.

Los expertos coinciden en que el trabajo de Poplawski es matemáticamente correcto; no obstante, se muestran escépticos. "Puede ser y puede no ser", advierte García-Berro. El principal problema es "que no se puede comprobar", añade. Frente al artículo de Poplawski se levanta la teoría del Big Bang, con "multitud de pruebas observables que encajan muy bien", explica Barceló. Según el físico, la teoría de Poplawski requiere "condiciones muy específicas, y muchas no se han comprobado". "Si no ponemos restricciones en la ciencia teórica, entonces todo es posible", concluye.

Fuente: publico.es, 7-6-10

 

 

-Las terapias heredadas de la quimioterapia son las nuevas protagonistas

Cada vez más, la quimioterapia pierde el protagonismo en favor de otro tipo de tratamientos contra el cáncer. Sus 'sucesores' tienen forma de anticuerpos monoclonales, terapias dirigidas contra alguna vía de señalización concreta o incluso vacunas y fármacos que funcionan activando el sistema inmune. Algunos de ellos están siendo protagonistas de la 47ª reunión que está celebrando en Chicago la Sociedad Americana de Oncología Clínica (ASCO).

Una de las novedades más destacadas en este sentido es el nuevo anticuerpo capaz de luchar contra el melanoma activando un elemento clave de nuestro sistema inmunológico como son las células T. Ipilimumab (comercializado por los laboratorios Bristol Myers Squibb) se ha convertido en el primer medicamento que ha logrado mejorar la supervivencia en pacientes con melanoma avanzado, según se ha encargado de comunicar en una rueda de prensa el doctor Steven O'Day, responsable del programa de melanoma del Instituto de Investigación de Los Ángeles (EEUU), y principal investigador del estudio, en el que también hay participación española (y de 125 centros de otros 30 países).

Después de 30 años buscando una terapia eficaz contra este agresivo cáncer de piel, ha señalado O'Day, ipilimimumab ha mejorado un 34% la supervivencia en estos pacientes en comparación con otro tratamiento. Se trata de una terapia dirigida, capaz de activar las células T; es decir, el anticuerpo monoclonal no ataca directamente las células malignas, sino que 'despierta' el sistema inmunológico para que sean las propias defensas del organismo las que lo hagan.

La prueba de que la respuesta inmune es suficientemente fuerte para atacar al cáncer (uno de los puntos débiles que han hecho fracasar otros intentos de inmunoterapia hasta la fecha) es que los pacientes no estaban exentos de ciertos efectos secundarios, "porque las células T también atacaban otros tejidos del organismo". Curiosamente, ha explicado O'Day a ELMUNDO.es, cuanto mayor era la reacción de los pacientes (en forma de diarrea o vómitos, por ejemplo), mejor era la respuesta antitumoral. La supervivencia media de los pacientes tratados con esta infusión (que se administra por vía intravenosa a lo largo de 90 minutos) fue de unos 10 meses, frente a los 6,4 del grupo control.

Hasta que las autoridades sanitarias, tanto en EEUU como en Europa, autoricen el nuevo medicamento ("lo que está previsto para finales de 2011"), muchos pacientes de todo el mundo podrán tener acceso a él a través de los programas de uso compasivo, que permite administrar un fármaco en situaciones en las que no hay otra alternativa terapéutica.

Pacientes infantiles

Pero no es el único medicamento que actúa de manera diferente de la quimioterapia que llegará en los próximos años a los pacientes con cáncer. Ése es el caso también de GDC-0449 (sin ni siquiera una denominación comercial por el momento), un agente experimental que ofrece beneficios en niños con un tipo de tumor cerebral (meduloblastoma) resistente a otros tratamientos. En este caso, el compuesto actúa en una vía de señalización aberrante en estos pacientes, y que también podría estar implicada en otros tipos de cáncer (denominada 'sonic hedgehog' o SHH).

Se trata, como ha reconocido ante la prensa el doctor Amar Gajjar, del Hospital Infantil St Jude (en Memphis, EEUU), de un fármaco diseñado para pacientes que necesitan "urgentemente" nuevos tratamientos, y que actualmente carecen de alternativas cuando dejan de responder a la quimioterapia (menos del 5% de los niños con meduloblastoma sobrevive a largo plazo a su diagnóstico). Si los ensayos, que ya se están llevando a cabo en fases II y III, confirman los buenos resultados, este compuesto se convertiría en la primera diana dirigida para este agresivo cáncer cerebral.

De los 11 niños de 11 años tratados en esta fase I (cuyo objetivo es, sobre todo, valorar la seguridad del producto), ninguno sufrió toxicidad de carácter grave a causa del fármaco y algunos de ellos siguen libres de progresión al cabo de un año de tratamiento.

En otro orden de cosas, en Chicago también se han conocido los resultados de denosumab, un medicamento diseñado para combatir las metástasis óseas provocadas por el cáncer de próstata. Como ha explicado a la prensa invitada por el laboratorio que fabrica la molécula, Amgen, su responsable médico Sean Harper, "denosumab hace del hueso un terreno hostil para la célula tumoral", impidiendo el "círculo vicioso" de dolor, fracturas y molestias que sufren los pacientes con metástasis óseas.

Aprobado desde junio de 2010 en EEUU para el tratamiento de la osteoporosis en mujeres postmenopáusicas, el medicamento actúa sobre el ligando RANK, encargado de regular los osteoclastos (células que destruyen el hueso); y pese a que se emplean dosis hasta 12 veces superiores en la prevención de las metástasis, el laboratorio no ha observado toxicidades graves.

Fuente: elmundo.es, 6-6-10

 

-Científicos chinos crean un agujero negro artificial

¿Miedo al LHC? Los apocalípticos que temen que un experimento de Física provoque la destrucción de la Tierra tienen otro punto de atención además del Gran Colisionador de Hadrones de Ginebra. Científicos chinos han creado con éxito en laboratorio un agujero negro.

Como es lógico, es diminuto, pero se comporta e imita las propiedades de uno de estos fenómenos en el espacio. De momento, el mini agujero sólo atrapa la luz en frecuencia de microondas, pero los investigadores se plantean ir más allá y desarrollar un agujero que se «trague» la luz visible. Para construir el existente, han utilizado los mismos materiales que se emplean para construir las famosas capas de invisibilidad.

El estudio, que ha publicado en la revista New Journal of Physics, muestra cómo los investigadores provocaron la aparición del agujero. Quiang Cheng Cui, de la Universidad de Nanjing, diseñó y fabricó un dispositivo al que denominó «absorbente omnidireccional electromagnética», con 60 tiras de tarjeta de circuitos dispuestos en capas concéntricas recubiertos de cobre.
Cada capa se imprime con patrones alternantes, que resuenan o no en las ondas electromagnéticas. Para ello, utilizó las propiedades especiales de los metamateriales, una clase de compuestos ordenados que pueden distorsionar la luz y otras ondas, y que se emplean en los experimentos de invisibilidad. Cuando la onda electromagnética llega al dispositivo, es atrapada y guiada hacia el centro del agujero negro hasta ser absorbida por el núcleo. Después de eso, la onda no tiene escapatoria y la luz atrapada se convierte en calor.
Los científicos esperan encontrar aplicaciones importantes


Fuente: abc.es, 5-6-10

 

-La ONU abre su parque al público para celebrar el Día del Medio Ambiente

La sede europea de la ONU, en Ginebra, abrió hoy las puertas de su parque al público para celebrar el Día Mundial del Medio Ambiente, que este año se centra en el lema 'Muchas especies, un planeta, un futuro'.

La sede europea de la ONU, en Ginebra, abrió hoy las puertas de su parque al público para celebrar el Día Mundial del Medio Ambiente, que este año se centra en el lema 'Muchas especies, un planeta, un futuro'.

De forma excepcional, el parque Ariana, de 46.000 hectáreas, privativo del Palacio de las Naciones en Ginebra, fue abierto al público para mostrar su enorme biodiversidad, al tiempo que se organizan decenas de actividades lúdicas para todas las edades. Una jornada de puertas abiertas no tenía lugar en la ONU en Ginebra desde el año 2000 y se complementa con el primer día de puertas abiertas de la historia de la vecina Organización Mundial de la Propiedad Intelectual (OMPI). Los actos de Ginebra son parte de las acciones mundiales que se llevan a cabo en numerosos países con el fin de concienciar sobre el peligro que corren las especies que pueblan la Tierra. Según el programa de Naciones Unidas para el Medio Ambiente (UNEP), el hombre es una de las pocas especies cuya población está en aumento, mientras que la mayoría de las especies de la flora y la fauna están en vías de desaparición. Más de 17.000 especies están amenazadas de extinción, desde plantas e insectos hasta mamíferos o pájaros, y la causa de ello son las actividades humanas, de formas directa o indirecta, señala la UNEP.

'La consecuencia es que estamos perdiendo, inevitablemente, las bases de nuestra supervivencia, ya que la variedad de la vida sobre nuestro planeta, conocida como biodiversidad, nos proporciona alimentos, vestido, carburantes, medicinas y más cosas', afirma Sylvie Motard, una responsable de la UNEP.

Fuente: EFE, 5-6-10

 

 

-Resuelven la paradoja del sol débil, el misterio científico que venció a Sagan

En sus inicios, hace unos 4.000 millones de años, la Tierra era un lugar más sombrío. Apenas llegaban los rayos del Sol. Sin embargo, el planeta no se congeló, ¿cómo fue posible? El motivo ha sido objeto de estudio científico durante años. Incluso el famoso astrónomo Carl Sagan se rompió la cabeza sin éxito intentado resolver lo que él y su colega George Mullen bautizaron como «la paradoja del sol débil». Hace apenas dos meses, investigadores daneses y norteamericanos hacían pública en la revista Nature la solución que habían encontrado al contrasentido. Según explicaban, la primitiva capa de nubes era entonces mucho más delgada que la actual y los rayos del sol permitieron calentar los océanos sin obstáculos, favoreciendo una temperatura más templada y la aparición de la vida. Ahora, otro grupo de científicos aporta una nueva perspectiva al misterio y realiza una pormenorizada descripción de cómo era esa nube primitiva. Y aquí hay una sorpresa. Nada de una fina capa de nubes. La nueva versión dice que la niebla orgánica que envolvía la Tierra era espesa, similar a la que ahora envuelve a Titán, la luna de Saturno. Esta neblina protegió la vida primordial de los efectos dañinos de la radiación ultravioleta al mismo tiempo que permitió que gases como el amoníaco se acumularan, causando el calentamiento de efecto invernadero y evitando que el planeta se congelara. La investigación se publica en la revista Science.

Una niebla parecida a la de Titán (en la imagen) protegió a la Tierra de los daños de la radiación ultravioleta y permitió la aparición de la vida, según un nuevo estudio / NASA/JPL/Space Science Institute.

  Metano como en Titán
El investigador Eric Wolf y su equipo, de la Universidad de Colorado-Boulder, creen que la bruma orgánica se compone principalmente de metano y nitrógeno, subproductos químicos creados por reacciones de la luz. Estas partículas se agruparon en complejas estructuras geométricas, similares a la forma de aerosoles que pueblan la espesa atmósfera de Titán, la única luna del sistema solar con una atmósfera tan densa y lagos líquidos sobre su superficie. «El metano es la clave para que se ejecute este modelo climático, así que uno de nuestros objetivos ahora es precisar dónde y cómo se originó», explican los investigadores.
Si antes los organismos de la Tierra no producían metano, quizás éste pudo haber sido generado por la liberación de gases durante las erupciones volcánicas, ya sea antes o después de que la vida surgiera por primera vez. Los científicos creen que esta hipótesis requiere mayor estudio.
Este nuevo estudio puede volver a encender el interés sobre un controvertido experimento de los científicos Stanley Miller y Harold Urey en la década de 1950, en el que el metano y el amoníaco se unieron con nitrógeno y agua en un tubo de ensayo. Después, los investigadores pasaron una corriente eléctrica a través de la mezcla para simular los efectos de los rayos ultravioleta de gran alcance. El resultado fue la creación de un pequeño grupo de aminoácidos, los bloques de la construcción de la vida.
«Todavía tenemos mucho que hacer en la investigación para perfeccionar nuestra nueva visión de la Tierra primitiva», confiesa Wolf, «pero pensamos que este trabajo resuelve una serie de incógnitas relacionadas con la neblina que existían entonces».

Fuente: abc.es, 4-6-10

 


 

-Un fármaco experimental hace olvidar los malos recuerdos

¿Y si se pudiera borrar de un plumazo el recuerdo de un accidente o un suceso tan traumático como una violación? Médicos de la Escuela de Medicina de la Universidad de Puerto Rico han dado un paso clave en esa dirección con un fármaco experimental. En ratones, han conseguido eliminar la sensación de miedo y reforzar su seguridad, generando una nueva memoria. El tratamiento empleado es un factor natural presente en el cerebro, llamado BDNF. La psicoterapia puede obtener resultados similares con muchas sesiones y dosis de paciencia. Pero nadie lo había logrado con un fármaco, como han demostrado los científicos puertorriqueños. El avance se detalla en la revista «Science».
Para comprobar su efecto, primero sometieron a los roedores a un entrenamiento para inducirles el miedo. Cada vez que sonaba un timbrazo a los ratones se les daba una leve descarga eléctrica en sus patas. Al final, bastaba con que sonara el timbre para que las ratas se quedaran paralizadas porque recordaban sus malas experiencias. Al día siguiente, una inyección del fármaco directa al cerebro (a la corteza prefrontal) les convirtió en ratones «sin miedo». Cuando sonaba el tono, los ratones se mantenían en movimiento e iban a comer, como si no temieran o no pudieran predecir la descarga.
Reflejo condicionado
«El efecto es similar al del reflejo condicionado», explica Gregory Quirk, psiquiatra y autor principal de el estudio. Los experimentos de control revelaron que en ningún caso el BNDF alteró otros patrones de conducta como el movimiento o la ansiedad general.
Para el Instituto Nacional de Salud Mental este experimento proporciona oportunidades para desarrollar fármacos contra el estrés postraumático y otros trastornos de la ansiedad. El problema principal para luchar contra estos problemas es la imposibilidad de eliminar el miedo.

Fuente: abc.es, 4-6-10

 

-Cómo la gripe se volvió resistente al tamiflu

Recreación del virus de la gripe

Durante los ensayos clínicos previos a la comercialización de oseltamivir, más conocido como Tamiflu, los expertos detectaron algunos casos en los que el virus de la gripe era resistente al fármaco. Estos microorganismos que burlaban el efecto del antiviral tenían, por el contrario, una capacidad de replicación muy limitada. Esto, junto con su escasa presencia, evitó que saltaran entonces las alarmas.

Pero durante la temporada de gripe 2007-2008 empezaron a llegar informes del Hemisferio Norte de cepas H1N1 resistentes al oseltamivir, incluso en personas que no habían recibido este tratamiento. Un año después, los virus H1N1 estacionales insensibles a este antiviral eran dominantes a escala global, descartando el uso de este fármaco de primera línea.

De pronto, estas cepas resistentes, que antes apenas eran capaces de replicarse y extenderse, se habían vuelto igual de eficientes que el resto de virus estacionales.

¿Qué había sucedido? Las claves de este salto evolutivo aparecen en el último número de la revista 'Science', desgranadas por David Baltimore, profesor de Biología del Instituto de Tecnología de California (Caltech) y ganador del Nobel de Fisiología en 1975, junto con Jesse Bloom, alumno de postdoctorado en dicho centro.

Una mutación de doble filo

Los virus de la gripe penetran en las células uniéndose mediante la hemaglutinina a una molécula de ácido siálico. Después de replicarse en su interior, los nuevos virus deben salir para infectar otras células. Para ello, utilizan de nuevo el ácido siálico y para liberarse de él lo cortan gracias a la neuraminidasa.

El Tamiflu interfiere, precisamente, en este último proceso. Se une al sitio activo de la neuraminidasa (N), justo en la 'tijera', impidiendo que se corte el ácido siálico. Así, los virus no pueden salir de la célula. Cualquier alteración en la morfología de esa herramienta de corte podría impedir la unión entre el oseltamivir y N, dejando así sin efecto al antiviral. Eso es lo que ocurre con la mutación H274Y.

Pero, tal y como sucedía con las primeras cepas que portaban H274Y, este cambio que confiere a los virus resistencia frente al Tamiflu supone ciertas desventajas para estos microorganismos al dificultar su reproducción. Sin embargo, de algún modo, los virus superaron este escollo y recuperaron su eficiencia.

"Nos pareció un misterio evolutivo muy interesante", ha explicado Bloom. "Algo sucedió para que los virus resistentes al Tamiflu se volvieran además capaces de replicarse y expandirse como los demás virus". La solución es "tener una segunda mutación que solvente este problema de los mutantes H274Y", indica el autor.

Una ventaja exclusiva de los virus estacionales

Así lo confirmaron sus investigaciones, que hallaron no una sino dos alteraciones en el gen de la neuraminidasa que devolvían la capacidad de replicación a estos virus. Estas mutaciones permisivas, según demuestran los autores, aparecieron antes de H274Y. Este sorprendente hecho "demuestra que las mutaciones secundarias pueden preceder a los cambios principales", señala un editorial que acompaña al estudio.

En él, Edward Holmes, del Centro de Dinámica de la Enfermedad Infecciosa de la Universidad Estatal de Pensilvania (EEUU) subraya que, a la luz de estos resultados, "existen linajes virales con una mayor capacidad innata para desarrollar rasgos fenotípicos importantes", como la resistencia a los fármacos.

Por suerte, las mutaciones halladas por Baltirmore y Bloom apenas se han visto en otros virus más peligrosos que el de las infecciones estacionales, como el de la gripe A o el de la gripe aviar. La aparición de las dos alteraciones permisivas en ejemplares de estas cepas "anuncia la aparición de la resistencia al oseltamivir", concluye Holmes.

Fuente: elmundo.es, 4-6-10

 

 

-El año 2010 va camino de convertirse en el más cálido

2010 va en buen camino para convertirse en el año más cálido desde que existen registros, según un estudio llevado a cabo por científicos del Centro Nacional de recogida de datos de Nieve y hielo de EEUU (NSIDC, en sus siglas en inglés).

Además, los nuevos datos recopilados por las principales instituciones que estudian el clima en todo el mundo sugieren que 2010 se está convirtiendo en uno de los años más cálidos, según recoge el diario británico The Guardian, Las cifras de los estadounidenses muestran que el hielo del Ártico se está derritiendo a una velocidad récord para la época del año en la que nos encontramos, mientras que las temperaturas terrestres probablemente alcanzarán nuevos máximos. Las imágenes recopiladas por satélite muestran que el deshielo se está produciendo de manera particularmente rápida este año y los científicos creen que probablemente se batirá el récord de 2007. La estación del deshielo comenzó este año un mes después de lo habitual y se espera que no acabe hasta Septiembre. Por otro lado, una investigación de la Universidad de Washington sugiere que el volumen de hielo en marzo de 2010 era un 38% más bajo que en 1979, cuando empezó a medirse.

 

Una osa polar con sus crías

Huracanes más fuertes

Los científicos del clima de la NASA, liderados por James Hansen, también sostienen que las temperaturas globales podrían batir los registros de 2005: "Es probable que en 2010 las temperaturas globales marquen un récord", afirmó Hansen. Como consecuencia del aumento de las temperaturas en la superficie terrestre, se espera que la temporada de huracanes, que comenzó oficialmente esta semana, sea una de las más intensas de los últimos años.

La pasada semana, la NOAA predijo que habría entre 14 y 23 tormentas con entidad. De ellas, entre o y 14 serían huracanes. Las autoridades ven probable que se produzcan entre tres y siete grandes huracanes, con vientos de al menos 178 kilometros por hora.

Fuente: elmundo.es, 3-6-10

 

 

-Comienza el Gran Hermano marciano

Tres rusos, dos europeos y un chino se encierran en una nave espacial durante 520 días y se imaginan que van a Marte. Podría ser el comienzo de un chiste, pero se trata de Mars 500, un proyecto de investigación único en el mundo que analizará desde mañana los efectos de un viaje tripulado al planeta rojo.

Cien equipos científicos estudiarán día y noche el comportamiento y funciones vitales de los seis voluntarios. Los resultados no sólo serán claves para planear viajes reales, sino también para investigar nuevos tratamientos para enfermedades terrestres como la depresión.

"Nunca se ha hecho nada parecido", explica a Público Patrik Sundblad, jefe de la Unidad de Ciencias de la Vida de la Agencia Espacial Europea (ESA). Esta organización es la encargada de controlar el funcionamiento de la misión junto al Instituto de Problemas Biomédicos de Moscú, donde se encuentra el búnker de unos 180 metros cuadrados en el que se realizará el estudio. "Este experimento nos dará una oportunidad única de estudiar los impactos psicológicos en la salud física", detalla Sundblad. El coste del proyecto ronda los ocho millones de euros.

Encerrados

La escotilla de la instalación de aislamiento se cerrará mañana a las 13.30 hora local (11.30 hora peninsular española). Si todo sale bien, no se abrirá hasta dentro de un año y medio. Los seis voluntarios se prepararán entonces para dejar la Tierra y zarpar rumbo a Marte, mientras un centro de control les da las primeras instrucciones. Durante la misión harán exactamente lo mismo que si su viaje fuera real. Justo en el ecuador de este viaje a ninguna parte, tres de ellos entrarán en un módulo que imita una cápsula de aterrizaje. Enfundados en trajes espaciales rusos bajarán a la superficie y tomarán muestras de su suelo en un habitáculo cubierto de arena y con un falso cielo estrellado, explica Sundblad. Se intentará que sea lo más parecido a Marte, aunque la temperatura, la menor gravedad y la radiación solar son imposibles de reproducir en este caso. Un mes después la tripulación volverá a reunirse para regresar a casa.

Cada faceta de la vida de los voluntarios será objeto de medición y estudio. Dos ingenieros y un médico vigilarán día y noche las dinámicas de grupo, los estados de ánimo de cada participante y su impacto en su rendimiento, así como su salud psicológica. "Los grandes enemigos van a ser el estrés, el aburrimiento y la bajada de rendimiento", explica el neuropsicólogo de la Universidad de Cádiz Gabriel González, que participa en el único experimento español que se llevará a cabo en Mars 500. Junto a expertos de la Universidad de Valencia, la Politécnica de Valencia y la Universidad Jaume I, ha desarrollado un programa de realidad virtual para ofrecer a los astronautas paseos por un parque o experiencias placenteras que ellos mismos pueden programar. "Intentamos comprobar si así se puede mejorar la calidad de vida y controlar los niveles de estrés y ansiedad", explica González.

 

También se probarán otros remedios, como suplementos dietéticos de omega-3 o el uso de luz azul. "Se ha propuesto que la sensibilidad de nuestros ojos al espectro electromagnético es lo que nos dice cuándo es de día y de noche y con esta luz vamos a probar esa teoría", explica Diego Urbina, uno de los dos participantes de la ESA. "En potencia, la luz azul podría ayudar a personas que durante el invierno sufren depresión debido a la falta de luz solar", añade.

Incluso la comida esconde experimentos. Los platos congelados de la empresa alemana Apetito que degustarán los astronautas durante la primera mitad de la misión llevarán cargas de sal altas, medias o bajas. "Los resultados pueden ayudar a las autoridades a regular cantidades máximas de sal por ley", señala Urbina.

Los seis voluntarios fueron seleccionados entre 200 candidatos en función de su edad, estudios universitarios y condiciones psicológicas y físicas, explica Sundblad. Para la anterior misión, de 105 días, hubo más de 5.000. La diferencia se debe en parte a que el plazo de inscripción ha sido menor en esta ocasión, argumenta el experto.

Los elegidos llevan en Moscú desde febrero preparándose para su vida en el módulo y aprendiendo a realizar las pruebas y análisis que llevarán a cabo. También han sido adiestrados en resolución de conflictos. "En caso de que haya un accidente o una pelea deberían ser capaces de solucionarlo por sí mismos", cuenta Sundblad. Espera que no haya problemas, basándose en estudios anteriores sobre personas que pasaron 14 meses en una base antártica en condiciones "aún peores". Los participantes son libres de abandonar en todo momento. En caso de que se ponga en riesgo su vida, los organizadores también podrán abrir la escotilla. "No podemos permitir que se hagan daño", concluye Sundblad.

Fuente: publico.es, 3-6-10

 

 

-En 2030 se diagnosticarán 20 millones de casos de cáncer anuales

El cáncer causará la muerte de más de 13,2 millones de personas por año para el 2030, casi el doble de las que fallecieron por la enfermedad en el 2008, según ha advertido en un comunicado una de las agencias de Naciones Unidas.

La Agencia Internacional para la Investigación del Cáncer (IARC, según sus siglas en inglés) ha señalado también que para entonces serán diagnosticados casi 21,4 millones de nuevos casos por año.  En el lanzamiento de una nueva base de datos sobre la incidencia global del cáncer en el 2008 (Globocan), el último año para el que existen cifras disponibles, la agencia ha advertido además que la carga de la enfermedad se está trasladando desde los países más ricos a los más pobres. "El cáncer no es raro en ninguna parte del mundo ni está confinado a los países de mayores recursos", dijo en un comunicado.

En total, 7,6 millones de personas murieron por esta enfermedad en el año 2008 y se diagnosticaron alrededor de 12,7 millones de nuevos casos. Alrededor del 56% de los nuevos diagnósticos diagnosticados en el 2008 a nivel mundial se registraron en los países en vías de desarrollo, que a su vez sufrieron el 63% de todas las muertes por cáncer, según los datos de este organismo dependiente de la ONU.

El director de la IARC, Christopher Wild, ha declarado que la información representa la evaluación más precisa acerca de los problemas que genera el cáncer en todo el mundo y que ayudará a las autoridades a desarrollar sus respuestas.  Los tumores más diagnosticados en el mundo en el 2008 fueron de pulmón, con 1,61 millones de casos; de mama, con 1,38 millones; y colorrectal, con 1,23 millones. Las causas más comunes de muerte fueron por cáncer pulmonar (1,38 millones), estomacal (0,74 millones) y hepático (0,69 millones). La proyección de la tasa anual de muertes y de diagnósticos, de 13,2 millones y 21,4 millones respectivamente, se ha basado en el supuesto de que las actuales estadísticas del cáncer se mantendrán en las próximas dos décadas, explicó la IARC.

Fuente: elmundo.es 1-6-10