|
NOTICIAS CIENTIFICAS
--Nuevas Noticias Próximamente--
TITULARES DE LAS NOTICIAS DEL MES :
Jeff Wacker: La inteligencia artificial es un gran fracaso
Las erupciones volcánicas calentaron el planeta hace 55 millones de años
Japón y Corea del Sur redactan leyes para regular las conductas de los robots
El hierro influye sobre el cambio climático
Malaria: La vieja condena de África
López-Alegría: Desde el espacio uno se da cuenta de que no hay fronteras
Detectives de toxinas, metales pesados y malas medidas
Descubren el primer planeta habitable fuera del Sistema Solar
A un paso de la visión artificial
Primeras imágenes del Sol en tres dimensiones
Un telescopio extremadamente grande para Canarias
Cobertura para 700 científicos desde un gran centro de biomedicina
El deshielo en el casquete polar glaciar de Groelandia duplica las previsiones
Descubierta una proteína en la sangre humana que actúa contra el virus del sida
Investigadores en auxilio de Arquímedes
Casi 40 millones de dólares para conservar la biodiversidad vegetal
Descubren que los chimpancés han evolucionado más que los humanos
Un fallo informático puso fin a la sonda Mars Global Surveyor
Crean el primer prototipo de hardware evolutivo
El Teide interesa a la NASA, a la espera de la decisión final de la UNESCO
Secuencian el genoma del macaco
Un gen duplicado predispone a la obesidad
El español Joan Massagué consigue dar nuevas explicaciones sobre la metástasis
Detectan agua en un planeta distante
La ONU quiere tratar el cambio climático más en serio
Los restos de Juana de Arco son un fraude
El acelerador de partículas estalla por errores en los cálculos
Dos cosmonautas y un turista llegan en la Soyuz a la Estación Espacial
Diez maravillas de la naturaleza peligran por el cambio climático
Expertos desvelan claves sobre la circulación oceánica de hace 21000 años
El segundo informe del IPCC es más duro que el primero del año 2007
Marte también sufre el cambio climático
Gran Hermano espacial camino de Marte
El Tribunal Supremo de EEUU sanciona las medidas del Gobierno para regular el cambio climático
Maggie parece un muñeco de dibujos animados: tiene unos enormes ojos negros que parpadean con frecuencia, mide aproximadamente un metro cuarenta, levanta los brazos, gira, rueda.
Reconoce gestos y voces humanas.
También puede conectarse a internet y leer las noticias, y -con la ayuda de etiquetas de radiofrecuencia- identifica cajas de medicinas y su modo de empleo, algo que podría ser de ayuda para personas invidentes.
"Nació" en la primavera española de 2005 en el Robotics Lab de la Universidad Carlos III de Madrid y cuando fue presentado recientemente en el II Congreso Internacional sobre Domótica, Robótica y Teleasistencia para Todos, causó sensación.
En los titulares de la prensa Maggie llegó a ser el "robot para ciegos", el "robot capaz de sentir cosquillas", "el robot amable", "el robot lazarillo", y hasta el "humanoide".
Maggie
Plataforma y juguete
Maggie es uno de varios proyectos de robótica que se desarrollan en España.
No es un humanoide, ni un enfermero, ni un lazarillo, sino una plataforma de investigación, dirigida sobre todo a la interacción con las personas explicó a BBC Mundo Miguel Ángel Salichs, catedrático de ingeniería de sistemas y automática de Universidad Carlos III de Madrid.
No es un robot comercial, es un prototipo de laboratorio y continuamente se le están incorporando nuevas funciones.
Según el profesor Salichs, primero podría entrar a las casas como un juguete sofisticado.
"Lo que vamos buscando es que Maggie se perciba como un ser vivo, que se vea como algo que tiene sus propias emociones, que el usuario, en el caso de que sea un niño, piense que es un ser vivo", comentó el profesor Salichs.
Al profesor le gustaría algún día ver a Maggie en nuestros entornos cotidianos "saludando a la gente por el pasillo, ayudando a las personas o dándoles información", pero para llegar a ello hay un largo camino de investigación y mucho trabajo por hacer.
Y con investigación constante se busca que los robots se parezcan cada vez más a los seres humanos, dotarlos de más autonomía, que tomen sus propias decisiones.
Mucho camino por delante
"Una de las cosas que tenemos que tener cuidado es, por una parte transmitir nuestra ilusión pero por otra transmitir que hay que trabajar mucho para tener lo que se vé en las películas de la ciencia ficción", agregó Salichs.
Los expertos se refieren a la sociedad del siglo XXI como una "sociedad robotizada".
Dicen que en este siglo veremos "una masiva intervención de robots en todos los aspectos de la vida cotidiana y productiva", así lo señala el libro blanco de la robótica, publicado recientemente por el Comité Español de Automática.
El libro añade que "los robot no solamente estarán localizados en las factorías y con aspecto de brazo manipulador, sino también saldrán al asfalto y al campo para realizar multitud de tareas de servicios e industriales que hoy en día son efectuadas manualmente".
Fuente: BBC Mundo, 30 de Abril de 2007
-Hawking desafía a la gravedad
El famoso físico británico Stephen Hawking ha cumplido su sueño de volar en gravedad cero. El Boeing 727 en el que lo ha conseguido ha aterrizado con éxito en Cabo Cañaveral.
Todo ha salido bien. El jefe de la misión, Noah McMahon, declaró al término del vuelo: "Es un tipo muy fuerte, estuvo todo el rato sonriendo. Nos ha sorprendido". Además, reveló que "no tuvo ningún problema de ningun tipo. Todo fue mucho mejor de lo esperado y esto demuestra que cualquiera puede hacerlo".
Debido al estado de salud de Hawking, estaba previsto inicialmente que el avión describiese sólo una parábola (subida y bajada) cuando habitualmente son 15. Sin embargo, el avión ha descrito finalmente ocho. Y en cada una de ellas estuvo "alrededor de 25 segundos en situación de ingravidez total", declaró a EL MUNDO McMahon.
Hasta los movimientos del físico dentro de la nave tenían que adecuarse a las necesidades de los dos fotógrafos que acompañaban a Hawking para inmortalizar el momento. Cuando el científico dijo que quería dar varias volteretas, "le levantamos del suelo [del avión], le giramos para que mirara a las cámaras, y después le ayudamos a dar varias vueltas", explicaba Peter Diamandis, consejero delegado de Zero Gravity.
Hawking no ocultó que "hubiera seguido una y otra vez". "Fue increíble", dijo, con el sintetizador de voz que le permite hablar. Y añadió: "¡Espacio, allá voy!". Poco antes había explicado que "no he tenido ningún problema con la gravedad cero. Ha sido maravilloso".
Para salir, un camión con una plataforma se acercó hasta el avión para transportar la silla de ruedas del físico. Desde allí, Hawking saludó, mientras que la tripulación y sus compañeros de viaje le aplaudían.
Horas antes de despegar, el conocido físico británico no podía contener la emoción: "Como podéis imaginar, estoy muy emocionado. He estado en una silla de ruedas durante casi cuatro décadas y la oportunidad de estar en gravedad cero será maravillosa. Nos vemos en la gravedad cero".
"Quiero además despertar el interés de la opinión pública por el espacio. Un vuelo en gravedad cero es el primer paso hacia los viajes espaciales", dijo.
Más allá de un sueño infantil, el autor de 'Breve Historia del Tiempo' ha dado a su paseo ingrávido un tono trascendental. "La vida en la Tierra está en un creciente riesgo de ser destruida por un desastre, como el calentamiento de la atmósfera, una guerra atómica, un virus modificado por medio de la ingeniería genética u otros factores, y no creo que la raza humana tenga futuro a menos que se vaya al espacio", añadió.
En este tipo de vuelos, el avión describe normalmente 15 parábolas (subida y bajada). En las dos primeras, se recrea la gravedad de Marte (un tercio de la de la Tierra), en la tercera, cuarta y quinta la de la Luna (que es la decimosexta parte de la terrestre), y en las otras 10, gravedad cero.
"Esta iniciativa nació cuando en un programa de radio en el Reino Unido le preguntaron cuáles eran las ambiciones que le quedaban por cumplir, y él respondió que siempre había querido salir al espacio", explicó el asistente personal del físico, Sam, un afable joven que respondió a la mayor parte de las preguntas de su jefe en la rueda de prensa horas antes del vuelo, dado que Hawking necesita minutos para emitir sonidos a través del sintetizador con el que habla gracias a los movimientos de sus músculos faciales.
Inmovilizado en una silla de ruedas desde hace 40 años, Stephen Hawking apenas puede mover su cara más que para pestañear y sonreír. Es una sonrisa torcida, casi una mueca, que el físico británico, de 65 años, no dejaba de mostrar a las cámaras de televisión junto a la inmensa pista de aterrizaje de Cabo Cañaveral, antes de subirse al avión.
Vistiendo un traje azul de la NASA, en su silla de ruedas, con las manos cruzadas sobre las rodillas, Hawking sonreía porque estaba en el camino de lograr dos de sus sueños: viajar al espacio y liberarse, al menos momentáneamente, de su silla de ruedas.
Hawking no viajará al espacio hasta el año que viene, como muy pronto. Pero su vuelo ha sido un gran paso en esa dirección. El físico británico ha experimentado lo que es estar en gravedad cero, como si fuera un astronauta fuera del campo gravitatorio de la Tierra
Fuente: El Mundo, 29 de Abril de 2007
-Jeff Wacker: La inteligencia artificial es un gran fracaso
La profesión de Jeff Wacker es la de
futurista corporativo. Este gurú de las nuevas tecnologías, alto cargo de la
empresa de externalización
EDS, se dedica a
investigar cómo será la empresa en las próximas décadas a raíz del impacto de la
innovación. La mejora de la productividad, asignatura pendiente de la economía
española, pasa necesariamente por un cambio en las formas de trabajar y en
establecer nuevas relaciones entre las máquinas y el ser humano.
Pregunta. ¿Qué se podrá hacer con la tecnología del futuro?
Respuesta. Las tecnologías de la información se están convirtiendo en parte de
nuestras vidas. Su implantación supuso primero una revolución en los negocios.
Luego se extendió a los hogares: los ordenadores entraron en las casas, los
consumidores empezaron a sustituir sus calculadoras y sus máquinas de escribir.
Lo que vivimos ahora es Internet y la conexión entre los ordenadores que nos
permite compartir contenidos. La próxima ola será aún más dirigida hacia el
consumidor, pero será menos visible.
P. ¿En qué sentido?
R. Tendré mi coche que, sin que yo ni siquiera me entere, se pondrá en contacto
con el fabricante, para comprobar que no hay averías. Mi móvil servirá para
todo. Será mi yo digital. Así, mis latidos, mi tensión arterial, se transmitirán
en tiempo real al centro médico. Podré hablar con el póster de la calle que
anuncia el concierto de Mozart y comprar la entrada conectando el aparato con el
cartel publicitario. Por lo general, entraremos en la era de la conciencia de la
ubicación. Significa que con mi móvil no sólo podré saber cuál es el restaurante
más cercano, sino comprobar si tienen sitio y qué tienen de menú. Será posible
que mi ordenador detecte en un aeropuerto a otro, cuyo usuario trabaja para una
compañía similar o tiene mis mismos intereses y que nos pongamos en contacto y
cenemos juntos. La tecnología estará en todas partes y tendrá capacidad
sensorial, para oír y ver. ¡Hasta en los tapones de las botellas de agua!
P. ¿Qué problemas supone este nuevo entorno?
R. Uno de los mayores desafíos es la energía. El chip necesita baterías,
electricidad. Pero ya se están desarrollando nanotecnologías que permiten
alimentar un aparato a través de las vibraciones de la voz. Hasta el aire
acondicionado, que produce ondas, podrá también cargar chips. El otro reto es la
tutela de la privacidad. Habrá que tener la posibilidad de poner filtros de
protección y de removerlos cuando queramos. O que incluso el ordenador lo haga
de forma automática, que sepa cuando no quiero ser molestado. También está el
problema del coste. Al comienzo el uso de esta tecnología será caro. Entre 2008
y 2012 habrá un consumo limitado. A partir de entonces los precios bajarán y
habrá un boom.
P. ¿Qué pasará en el mundo de los negocios?
R. Hasta ahora la tecnología proporcionaba un instrumento para que el trabajador
accediera a lo que quisiera hacer. Pero no le explicaba cuál es la mejor manera
para llevar a cabo la tarea. En el futuro el ordenador se convertirá en un
asistente. El PC será proactivo y nos ayudará en nuestro esfuerzo laboral.
Identificará la información que necesitamos incluso antes de que nosotros se la
preguntemos. No perderemos tiempo en detalles. Esto aumentará la productividad.
Y el paso siguiente será el flujo de gestión automático.
P. ¿Qué es esto?
R. Me explico. Si contrato a un nuevo empleado, tengo que enviar un correo al
encargado de la seguridad para que le facilite el acceso al edificio. En el
futuro, no tendré que dedicar tiempo a esta incidencia, sino que lo harán las
máquinas solas.
P. ¿Cuál será entonces el papel del ser humano?
R. La automatización siempre ha sustituido a los hombres. Pero no los
ha eliminado. Ahora las máquinas construyen el producto, pero la aportación del
ser humano seguirá siendo fundamental, no tanto en hacer el proceso, sino en
gestionar las máquinas que elaboran dicho proceso. De hecho, en la actualidad,
el Boeing 777 lo pilota un ordenador y el comandante controla la máquina. En la
empresa, el papel del ser humano será el de la creación, de la innovación y de
saber adaptar el sistema a los cambios.
P. Habrá que cambiar la gestión de las empresas...
R. Ya no habrá que pagar a los empleados según la cantidad de producto, sino de
acuerdo con las mejoras que habrán sido capaces de introducir en el sistema. De
la misma manera que una compañía puede formar a los empleados para hacer tareas
rutinarias, es posible enseñarles a ser innovadores. Así, en el futuro
trabajaremos en equipo, sin respetar un horario, en función de un objetivo.
Algunos trabajos como el comercial, tienen aspectos que sólo pueden desarrollar
los humanos, porque las relaciones personales, en el momento de negociar una
venta, son muy importantes. En cambio, muchas tareas administrativas, frecuentes
en la administración pública pero también en el sector financiero, serán
monopolio de las máquinas.
P. ¿Qué es lo que una empresa no tiene que hacer?
R. Simular. Crear modelos de negocios abstractos en laboratorios con fórmulas
matemáticas es un error, porque la inteligencia artificial es un gran fracaso.
En cambio, la vía adecuada es estudiar los otros modelos de negocios en sus
respectivas condiciones, ver cuáles son las nuestras y adaptarlos entonces a
estas exigencias.
Fuente: La Vanguardia, 27 de
Abril de 2007
-Las erupciones volcánicas calentaron el planeta hace 55 millones de años
El calentamiento que sufrió la Tierra hace 55 millones de años fue causado por erupciones volcánicas en Groenlandia y la zona occidental de las islas británicas, indica un estudio publicado por la revista 'Science'.
Esa actividad volcánica ocurrió durante
la llamada "máxima termal Paleoceno-Eoceno" (PETM, en inglés), que ocasionó un
aumento de cinco grados centígrados en los trópicos y de más de seis en el
Ártico, según el estudio, realizado por científicos del Colegio de Ciencias
Atmosféricas y Oceánicas de la
Universidad de Oregón.
De acuerdo con los geólogos, las erupciones y la contaminación atmosférica
resultante originaron lo que denominan "una emergencia planetaria" de aumento de
la temperatura en la superficie marina, así como una acidificación de los
océanos que causó la extinción de muchas especies.
El estudio es importante, a juicio de sus autores, porque documenta la reacción
del planeta a la liberación de grandes cantidades de gases invernadero en la
atmósfera y vincula, de manera concluyente, un importante acontecimiento
volcánico con un período de calentamiento global.
Se considera que esos gases invernadero, entre ellos el dióxido de carbono y el
metano, actualmente producidos por la actividad industrial, son los componentes
principales de la contaminación y el calentamiento que está sufriendo la Tierra.
"Sin duda esas erupciones y el calentamiento global de entonces están vinculados
y ese fenómeno constituye una analogía para lo que ocurre hoy", señaló Robert
Duncan, uno de los científicos.
"Se habían encontrado vestigios de este calentamiento en residuos marinos así
como evidencia geológica de que las erupciones ocurrieron virtualmente en el
mismo momento. Pero hasta ahora no se había establecido una vinculación directa
entre ambos fenómenos", explicó.
"Existe sin duda una analogía que nos permite ver de qué forma el planeta ha
reaccionado ante el fenómeno", añadió.
Duncan también señaló que, además, con este estudio se ha constatado el hecho de
que en algunos lugares del planeta el calentamiento fue muy rápido y en otras
bastante lento, "como ocurre hoy".
El vínculo entre la actividad volcánica y el calentamiento global surgió de la
correlación de los registros fósiles examinados por los científicos, según el
informe de la investigación.
El PETM se caracterizó por enormes cambios en la composición carbono-isotópica
de los océanos, la corrosión de los caparazones del plancton, así como la
extinción de algunos organismos de las profundidades marinas.
Los científicos también vincularon el PETM con la separación física de
Groenlandia del continente europeo a través del análisis de las capas de cenizas
que se depositaron al culminar las erupciones volcánicas.
Mediante una comparación de las sustancias químicas residuales, establecieron
que la composición de las capas de cenizas en el este de Groenlandia eran
similares a las de los sedimentos marinos en el océano Atlántico, según el
informe.
"Creemos que las erupciones volcánicas comenzaron hace unos 61 millones de años
y que pasaron otros cinco millones (de años) hasta que el manto se debilitó y el
material fundido surgió en la superficie", indicó Duncan.
"Fue como si se destapara una olla. La placa tectónica se partió y así nació el
océano Atlántico", indicó.
La actividad volcánica que se registró en Groenlandia hace entre 55 millones y
61 millones de años llevó a la superficie alrededor de 10 millones de kilómetros
cúbicos de magma.
Según los científicos, esos flujos de lava pueden verse a simple vista en el
oeste de Escocia y en las islas Faroe, puesto que, tras enfriarse, dejaron un
espectro de lava que en algunas zonas tienen una profundidad de hasta seis
kilómetros.
Fuente: EFE, 27 de Abril de 2007
Los robots comienzan a salir de la
cadena de montaje y realizan todo tipo de actividades profesionales y
domésticas. El parque mundial supera las 922.000 unidades, buena parte en el
sector de la automoción. En España funcionan 25.000, el cuarto país europeo por
detrás de Alemania, Italia y Francia, y el séptimo del mundo que más robots
emplea. Sin embargo, la mayor parte son importados y su producción se reparte
entre los fabricantes
ABB Robotics (Suecia),
Fanuc (Japón) y
Kuka (Alemania).
Se calcula que en el mundo existen más
de 31.000 robots de servicios destinados a usos profesionales. El 20% son
submarinos automáticos, el 19% limpiadores y otro 16% realiza tareas de
seguridad y defensa. El 45% restante se reparte entre construcción y demolición,
lecheros, sanitarios y plataformas de uso general.
A pesar de no crear prácticamente robots comerciales, sino adaptaciones de
equipos foráneos, España es una potencia investigadora con grandes perspectivas
a corto plazo: cuenta con 42 grupos científicos muy activos, fundamentalmente de
universidades y centros tecnológicos, según el Libro Blanco de la Robótica en
España, publicado recientemente por el Grupo Temático de Robótica (GTR) del
Comité Español de Automática.
Si en el ámbito automovilístico España ha perdido la partida, aún hay
posibilidades de producir robots manipuladores para la industria del cuero, el
calzado o la alimentación; la recolección en la agricultura intensiva o para
realizar tareas peligrosas en el sector de la construcción. De hecho, la empresa
vasca
Fatronik ha licenciado a
una multinacional norteamericana su manipulador ultrarrápido Quattro.
Sin embargo, las mejores perspectivas para los investigadores españoles se
encuentran en la robótica de servicio, tanto profesional como doméstica. En los
próximos tres años el mercado mundial crecerá en 34.000 unidades de uso
profesional y en 5,6 millones para el hogar, como las aspiradoras automáticas
que limpian solas la casa.
Juan Domingo Tardós, del grupo de Robótica de la
Universidad de Zaragoza, recomienda a los
investigadores que adecuen las aplicaciones científicas a las necesidades reales
y, a las empresas locales, que arriesguen su capital en aplicaciones novedosas.
Porque los beneficios que se obtienen cuando se ponen en marcha proyectos
europeos es del 8%. "Nuestros investigadores en robótica son reconocidos en
Europa y consiguen muchos proyectos y financiación, algo que no se refleja en
las ayudas españolas", afirma Carlos Balaguer, coordinador del GTR y de la Red
Nacional de Robótica.
En
Euron, la red de excelencia europea de
robótica, que se reunió recientemente en Creta (Grecia), la representación
española era la tercera más numerosa, por detrás de Alemania y Francia.
A pesar del gran número de proyectos en los que trabajan los grupos de
investigación, "la empresa española no es receptiva a los encantos de la
robótica", según Carlos Balaguer, del Grupo Español de Robótica (GTR). A su
parecer, "tenemos buenos productos en estado precompetitivo, pero no encontramos
pymes que quieran hacer dinero con ellos". También pesa la elevada competencia
entre los numerosos grupos por la escasa financiación que reciben los proyectos.
Sin ir más lejos, la
Universidad Politécnica de Madrid (UPM)
"cuenta con productos listos para comercializar", asegura el investigador en
robótica Antonio Barrientos.
Su grupo ha creado un robot que ayuda al médico a medir los temblores de los
enfermos de Parkinson y que ha sido probado con 42 pacientes durante seis meses
en el Hospital Ramón y Cajal de Madrid. Mientras esperan a ver si llega algún
inversor, el grupo creará una spin-off que adapte robots aéreos a tareas como la
inspección del tendido eléctrico.
La robótica de servicios puede ser la gran aliada de la investigación española,
que destaca en el desarrollo de robots móviles autónomos, básicamente para
interiores, o en la interacción humano-robot multimodal, mediante la voz, gestos
y visión, según Carlos Balaguer. También en la robótica asistencial, para dar
servicio a ancianos, niños y personas discapacitadas; robots aéreos (pequeños
helicópteros, aviones y dirigibles autónomos) o robots médicos.
'ROBOCÓPTERO'
Aníbal Ollero, responsable de robótica de la
Universidad de
Sevilla, lidera el proyecto europeo Aware, que
durante tres años desarrolla tecnologías que permitan integrar robots
helicópteros con redes inalámbricas de sensores de bajo peso y consumo, que
pueden estar fijos o ser transportados por personas (bomberos, por ejemplo) o
vehículos terrestres.
A cuentagotas, algunos investigadores han podido transferir su tecnología. Como
el grupo de robótica de la
Universidad de Málaga (UM).
La empresa
Sener fabricará el brazo
robótico para operaciones de laparoscopia diseñado por el grupo malagueño y que
ha sido ensayado clínicamente con pacientes.
Su innovación: "No es necesario ligar el dispositivo, una minicámara activada
por voz, ni calibrarlo en cada intervención, explica Alfonso García-Cerezo,
investigador de la UM. En tres años, la empresa espera vender 35 unidades.
El centro tecnológico vallisoletano Cartif está desarrollando equipos para
inspeccionar tuberías o para la limpieza automática de conductos de aire
acondicionado, y ahora trabaja "en el desarrollo de un robot que asista en la
colocación de los clavos en las fracturas de huesos largos", explica Javier
Pérez Turiel, del grupo de robótica de Cartif.
La
Universidad Politécnica de Cataluña (UPC) es
una de las que tiene mayor tradición en robótica y una parte de los esfuerzos de
investigación se decantan hacia la vertiente asistencial. "Trabajamos en
diferentes proyectos y prototipos de sistemas robotizados de ayuda a los
discapacitados y de soporte a los procedimientos quirúrgicos en cirugía
mínimamente invasiva", explica Alicia Casals, del Grupo de Robótica, Automática
y Visión Artificial de la UPC.
El grupo de investigación de la
Universidad
Jaume I (Castellón) que en su día diseñó un
robot bibliotecario que extrae libros de las estanterías, trabaja ahora "en un
autómata que tome decisiones y manipule objetos cotidianos como el pomo de una
puerta", cuenta Pedro Sanz.
MANIPULAR OBJETOS BLANDOS
Si obtienen recursos del VII Programa Marco, este equipo de la Jaume I ampliará
la manipulación a objetos blandos, como un robot planchador. Además,
transferirán su tecnología a la empresa valenciana
Robotnik,
con la que participa en el proyecto europeo Guardians, un enjambre de robots
autónomos que sirven para detectar incendios urbanos.
Más al sur, en la
Universidad de Alicante,
han desarrollado el desensamblador automático de componentes de ordenador,
explica Fernando Torres.
El equipo de Juan Domingo Tardós en la universidad de Zaragoza, trabaja "en
robots móviles autónomos para desplegarlos en el interior de túneles para
informar en accidentes".
¿Veremos coches que recojan pasajeros al llamarlos por el móvil? Aunque parezca
futurista, será una de las pruebas de robots cooperativos con humanos del
proyecto europeo Urus, coordinado por Alberto Sanfeliu, del
Instituto de Robótica Industrial de Barcelona.
Los futuros investigadores también se divierten. Esta misma semana, 200
estudiantes de la UPM han participado en la olimpiada de robots Cibertech 2007.
MÁS VELOZ QUE LA F1
Como un relámpago. Instalado en la cinta transportadora, Quattro identifica y
separa los machos de las hembras de verdel, un pescado azul, a un ritmo de 240
piezas por minuto y con aceleraciones de 200 metros por segundo, el doble de los
robots convencionales y cinco veces más que un bólido de la Fórmula 1. Trabaja
como lo harían tres humanos juntos, pero sin cansarse y una empresa conservera
vasca está probando este ingenio francoespañol para medir si duplica la
productividad.
Quattro es el robot industrial más rápido del mundo y lo ha desarrollado la
fundación española Fatronik con el Laboratorio de Ciencias Informáticas,
Robótica y Microelectrónica de Montpellier (Francia). Han vendido la licencia a
la norteamericana Adept, que los fabricará en serie. Quattro está optimizado
para manejar objetos de hasta dos kilogramos de peso, ya sea para colocar
bombones y galletas en cajas o para empaquetar tabletas de turrón o chocolate.
El autómata ha sido premiado recientemente por Euron, red de excelencia europea
de investigadores en robótica, como ejemplo de transferencia tecnológica. A
mediados de mayo, una spin-off de Fatronik se encargará de la integración
industrial. Jon Sanmartin, ingeniero de I+D de Fatronik, calcula que en España
se venderán 10 unidades al año y unas 300 en todo el mundo.
Fuente: El País, 27 de Abril de
2007
-Japón y Corea del Sur redactan leyes para regular las conductas de los robots
En pocos días se han sucedido dos
noticias hermanas. Los gobiernos de Japón y Corea del Sur están preocupados por
un futuro lleno de robots y no están muy seguros de que se trate en todos los
casos de máquinas amigas. Y ambos, aunque con perfiles un tanto distintos, han
iniciado una política preventiva ante este futuro, parece ser, incierto con los
robots.
El Gobierno japonés ha redactado un
borrador de 60 páginas con el propósito de garantizar que los robots siempre
estarán bajo el control humano. Este documento debe ser discutido por la
industria, investigadores y abogados con el fin de elaborar una ley que
satisfaga este propósito. El título del borrador ya es una muestra del miedo que
preside la iniciativa: "Borrador de guía para asegurar la sana conducta de la
próxima generación de robots".
El periódico británico
The Times informó de su
existencia la semana pasada e incluso le dedicó un editorial un tanto incrédulo
en el que trasladaba este ejercicio legislativo a Gran Bretaña. El diario
simplificaba enormemente, hasta el ridículo, las reglas que deben regir el
futuro de los robots y las circunscribía a conductas como la de no ofenderse si
le preguntaban la edad a la hora de comprar cigarrillos o alcohol, apagar los
teléfonos móviles en el cine y comportarse en los controles por rayos X en los
aeropuertos.
El documento japonés propone evaluar el nivel de riesgo y las fuentes del mismo.
Uno de los remedios preventivos consiste en crear una base de datos en la que se
recojan todos los incidentes en los que un humano haya sido herido por un robot,
las causas del mismo y que esta documentación sea accesible a todos los
fabricantes de robots.
Japón es uno de los países donde está más desarrollada la robótica, no ya en el
sector industrial, sino también en el de la ayuda doméstica y a ancianos. La
próxima generación, inminente, asumirá tarea de patrullaje de seguridad y tutela
de bebés. El mercado de estos robots "de ayuda" ronda los 10.000 millones de
yenes, pero las autoridades creen que en 15 años se disparará a cifras
astronómicas. Algunos analistas atribuyen el empuje de esta industria robótica
auxiliar a que con las máquinas se intentan solucionar problemas, como la
asistencia a ancianos, que de otra manera exigirían altos contingentes de mano
de obra inmigrante, cuya entrada se quiere evitar.
Corea del Sur también ha reunido a un grupo de expertos para elaborar un código
ético que evite que los hombres sean víctimas de los robots... o viceversa.
La carta ética de los robots debería suscribirse antes de que termine este año.
Trabaja en ella un comité que reúne a expertos, futurólogos y autores de ciencia
ficción. De acuerdo con un comunicado oficial, recogido por la BBC, el Gobierno
quiere implantar un criterio de conducta sobre las funciones de los robots
porque éstos pueden desarrollar una vida inteligente en un futuro próximo.
Park Hye-Young, miembro del despacho de robótica del ministerio surcoreano de
Comercio e Industria, explicó que el código se iba a inspirar en las reglas
establecidas por Isaac Asimov. El objetivo de la iniciativa es garantizar el
control del hombre sobre estas máquinas, evitar su uso clandestino, tenerlas
perfectamente identificadas y asegurar que el uso de los datos adquiridos por
los robots no vulnere derechos como el de la privacidad.
El imaginario de la ciencia-ficción no ha sido muy amable con los robots. Menos
todavía el cine, más proclive a presentarlos como criaturas, almas de metal, que
se rebelan contra su creador, en una repetición del relato bíblico. Sin embargo,
en la realidad, el empleo de los robots es pacífico y creciente. Sólo en el
sector industrial, en 2004, había 850.000 robots, de los que más del 40%
habitaban en Japón. El parque de robots en España rondaba los 22.000.
LAS TRES LEYES DE ISAAC ASIMOV
Asimov fijó las tres leyes que deben regir la existencia de los robots:
Fuente: El País, 26 de Abril de 2007
-El hierro influye sobre el cambio climático
Las variaciones en la cantidad de hierro que emerge de las profundidades a la superficie marina pueden tener un efecto mayor en el cambio climático de lo que hasta ahora se creía, según advierte un estudio de científicos franceses y australianos.
Esta investigación, que recoge en su
última edición la revista científica 'Nature',
analiza la función de ese elemento como nutriente del fitoplancton, conjunto de
organismos acuáticos responsable de casi la mitad de los procesos de
fotosíntesis que tienen lugar en la Tierra.
La cantidad de este microorganismo marino, que varía en función del hierro que
emerge a la superficie, es clave, por tanto, en el procesamiento del dióxido de
carbono de la atmósfera, uno de los principales causantes del calentamiento del
planeta.
Para analizar este proceso, los científicos estudiaron un fenómeno de
florecimiento natural del fitoplancton en el Océano Índico meridional, a unos
2.000 kilómetros al norte de la costa de la Antártida, cerca del archipiélago de
las islas Kerguelen.
Hasta ahora, las investigaciones sobre el florecimiento del fitoplancton, que
consiste en la multiplicación de este microorganismo por un exceso de nutrientes
y una temperatura favorable, habían provocado artificialmente este fenómeno
mediante la fertilización de las aguas durante un corto período de tiempo.
"Hemos descubierto que el suministro de hierro y otros nutrientes a la
superficie marina desde la profundidad es la causante del gran florecimiento de
fitoplancton que observamos sobre la meseta Kerguelen en el Océano Índico Sur",
indica el informe.
"Esta fertilización natural es al menos diez veces más eficaz que la que
propició los florecimientos artificiales de algunos experimentos a corto plazo",
añade.
Para los científicos, esto demuestra que el efecto del hierro sobre el
fitoplancton y, en consecuencia, sobre el nivel de dióxido de carbono de la
atmósfera, es mayor que el que hasta ahora se atribuía.
Fuente: EFE, 26 de Abril de 2007
-Malaria: La vieja condena de África
Más de 300 millones de infectados, un millón de muertos. Estas son sólo algunas de las dramáticas cifras que cada año se cobra la malaria en el mundo, fundamentalmente en el África subsahariana y en los niños menores de cinco años.
Decididos a hacer frente a la
situación, en el año 2000, los gobiernos africanos se comprometieron a reducir
la incidencia de la malaria en África a la mitad para el año 2010. Los 53 países
firmantes de la Declaración de Abuja fijaron el 25 de abril como el Día de la
Malaria en África.
En estos años, se han producido diferentes avances en la lucha con el paludismo
(desde la secuenciación del genoma del mosquito y el parásito culpables de la
enfermedad al éxito de los ensayos clínicos con la vacuna antimalárica).
Los organismos internacionales son optimistas. La iniciativa Roll Back Malaria
(el programa contra el paludismo de múltiples organismos, como la
OMS
y el
Banco Mundial) ha
establecido unos ambiciosos objetivos para 19 países africanos, que en los
próximos meses presentarán sus proyectos al Fondo Global contra el Sida, la
Malaria y la Tuberculosis sus proyectos para obtener fondos. La UE, por su
parte, acaba de anunciar la creación de la Alianza Europea contra la Malaria.
Sin embargo, es inevitable recordar que estos organismos han recibido en años
anteriores críticas por su gestión de la lucha contra la malaria y que, en
muchas ocasiones, las donaciones de los países pudientes dejan mucho que desear.
Según un informe de la
Organización para la Cooperación y el Desarrollo
Económicos, las contribuciones de Occidente
durante 2006 disminuyeron un 5%.
El abordaje de la enfermedad 'sobre el terreno' también presenta sus luces y
sombras. En los últimos años ha aumentado en empleo de mosquiteros impregnados
con antimosquitos (una solución simple y barata para prevenir la picadura del
Anopheles). Sin embargo, al mismo tiempo, se está produciendo un aumento de las
resistencias a los tratamientos antimaláricos.
Fuente: El Mundo, 25 de Abril de 2007
-López-Alegría: Desde el espacio uno se da cuenta de que no hay fronteras
Los astronautas estaban al caer cuando
Jordi Gasull, miembro voluntario del grupo de apoyo psicológico de la
NASA,
se palpó el trozo de jamón ibérico que llevaba oculto bajo su forro polar. La
misión 'pata negra' seguía adelante.
Con ochocientos gramos de jamón
escondidos bajo su pelliza, Gasull acudió a bordo de un helicóptero Mi-8 el
pasado sábado al encuentro de su amigo, el astronauta de la NASA Miguel
López-Alegría (Madrid, 1958), que aterrizó en las yermas planicies de Kazajistán
a bordo de la cápsula Soyuz TMA-9, donde también viajaban el ruso Mijail Tiurin
(autor el pasado noviembre del primer golpe de golf en el espacio) y el quinto
turista espacial, el multimillonario de origen húngaro Charles Simonyi, uno de
los cerebros pioneros de Microsoft.
Integrado en el equipo de rescate, Gasull tenía la sana intención de cambiar la
clásica manzana con que celebran los astronautas su encontronazo con la ley de
la gravedad por el jamón ibérico. ¿Qué mejor reconstituyente para un español
tras una odisea de siete meses en el espacio? "Lo sabía. Sabía que me lo
traerías", le dijo López-Alegría nada más ver la mercancía en cuanto salió de la
cápsula.
Aunque los médicos de la NASA desaconsejaron la ingesta 'in situ' del jamón
debido al delicado estado de su estómago, López-Alegría no ha tardado ni
veinticuatro horas en hincarle el diente.
Después de permanecer 215 días en órbita como comandante de la XIV misión
tripulada de la Estación Espacial Internacional (es el primer español que llega
tan alto), López-Alegría ya camina y se recupera satisfactoriamente en una
clínica de la Ciudad de las Estrellas, el centro de entrenamiento de astronautas
a las afueras de Moscú.
Al igual que hizo cuando se subió al cohete Soyuz en el cosmódromo de Baikonur (Kazajistán),
el pasado mes de septiembre, López Alegría, profirió al poco de aterrizar un "¡salut
y força al canut!" dirigido a su amigo Jordi Abusada, director de fotografía que
le sigue como un satélite inseparable con su cámara para grabar un documental
sobre el mundo interior de los astronautas.
Hace unos años Abusada ya estuvo tres meses en la NASA y rodó a López-Alegría en
Houston y Cabo Cañaveral para la película documental 'Mira la Luna' de Elías
Querejeta que se estrenará próximamente.
P. En tus siete meses en órbita has batidos dos récords, el de mayor número de
horas en paseos espaciales (67 horas y 40 minutos en diez salidas), así como el
récord de permanencia en órbita jamás logrado por un astronauta de la NASA...
R. Los récords sólo muestran el trabajo bien hecho. Además, están hechos para
ser batidos. Mi compañera Suni Williams batirá pronto mi récord de permanencia.
Me satisface como anécdota, pero nada más.
P. Este año Rusia celebra el 50º aniversario del lanzamiento del 'sputnik' y del
comienzo de la carrera espacial. ¿Cómo ves el papel de Rusia en el futuro de la
aventura espacial?
R. El papel de Rusia será cada vez más importante en los próximos años, ya que a
partir de 2010, cuando el transbordador deje de funcionar y hasta que esté lista
la nueva nave que irá a la Luna, la estación estará en manos de los rusos. Ellos
van a tener un papel fundamental en la continuidad del trabajo en el espacio.
Creo que es importante recordar que la estación es un proyecto de cooperación
internacional y que el futuro del espacio pasa por el diálogo y el entendimiento
de todas las naciones.
P. ¿Cómo has visto la Estación Espacial Internacional? ¿Crees que es un proyecto
con futuro o crees que -como auguran algunos críticos- los planes de EE.UU. para
viajar a la Luna o a Marte pueden condenarla a desaparecer?
R. Yo diría que la Estación Espacial es un paso, un eslabón más para poder
llegar a la Luna y a Marte. Hay que entender que en la ISS se desarrollan
experimentos que permiten estudiar las consecuencias de las largas estancias en
el espacio para el ser humano y el efecto de las radiaciones solares. Pensemos
que un viaje a Marte duraría no menos de 18 meses.
Fuente: El Mundo, 25 de Abril de 2007
-Detectives de toxinas, metales pesados y malas medidas
Frutas emponzoñadas por hongos tóxicos,
atún contaminado con metales cancerígenos, salmones ahumados con hidrocarburos
aromáticos policíclicos (HAP) que, a pesar de lo amable de su adjetivo
intermedio, pueden causar mutaciones genéticas. El peor menú imaginable se sirve
sobre las poyatas de laboratorio del
Instituto de Materiales de Referencia y Medidas (IRMM)
en Geel (Bélgica), institución de referencia europea en la metrología, la
ciencia de la medición.
Afortunadamente, su propósito no es
gastronómico: la Comisión Europea ha inaugurado recientemente tres nuevos
laboratorios en el IRMM. Se dedicarán a mejorar el análisis de la presencia en
alimentos de micotoxinas (toxinas de los hongos), de metales pesados como el
mercurio, el cadmio y el plomo, y de los HAP. El objetivo es que todos los
laboratorios de los 27 países miembros de la UE detecten por igual estas
sustancias perjudiciales para la salud.
Una red de unos 1.200 laboratorios de referencia vigila la calidad alimentaria
en Europa, pero sólo 40 cuentan con el máximo rango, el de laboratorios de
referencia comunitaria. Como los tres nuevos del IRMM.
El fantasma de las crisis en seguridad alimentaria que han venido alarmando
Europa en los últimos años sobrevuela los discursos de inauguración: vacas
locas, lengua azul, dioxinas del pollo o gripe aviaria. En palabras del
comisario europeo de Salud y Protección del Consumidor, el chipriota Markos
Kyprianou, el objeto de instalaciones como éstas es que en el continente se siga
consumiendo "la comida más segura del mundo". Jörg Stroka, director del
laboratorio de micotoxinas, matiza: "Sí, pero puede mejorarse".
No es casual que los nuevos laboratorios se instalen en el IRMM. La función de
este instituto es homogeneizar las referencias de medición, medir las medidas, y
actuar como un laboratorio de laboratorios: "Asesoramos a los laboratorios que
no hacen las cosas bien", dice el onubense Alejandro Herrero, bioquímico y
doctor en tecnología alimentaria. Herrero es director del IRMM desde 2002 y no
oculta que existen "deficiencias" en algunos países nuevos, "aunque el proceso
de adhesión ha sido muy intenso".
Piotr Robuch dirige el nuevo laboratorio de metales pesados. En referencia a las
crisis de seguridad alimentaria se pregunta: "¿En situaciones de riesgo quién
tiene la razón? ¿La industria o el consumidor? La primera pregunta que nos
hacemos es, sea lo que sea: ¿Se ha medido bien? Los ciudadanos tienen derecho a
saber quién está comprobando la seguridad de nuestra comida. Y qué calidad del
control en seguridad se ha realizado. Y los operadores de comida pueden
preguntarse: "¿Estamos siendo controlados por laboratorios de confianza?".
La seguridad alimentaria también es cuestión de rapidez: "si a un puerto de
Europa llega un barco con mercancías sospechosas, ¿se descarga o no?", se
cuestiona Stroka. "Si no se hace bien el análisis, se puede estar poniendo en
riesgo la salud de los consumidores. Si se tarda demasiado en hacer los
análisis, puede perderse una mercancía en buen estado", añade.
Herrero destaca que su instituto es independiente de los grupos de presión de la
industria alimentaria. "Aquí medimos las medidas y contribuimos así a lograr
confianza en ellas y a asegurar que sean comparables". En pocas palabras, que la
calidad de un paquete de harina comprado en Malta se haya comprobado igual que
la de uno adquirido en Lituania. O que el kilo de plátanos que un supermercado
vende en Portugal se haya pesado igual que si se hubiera vendido en Estonia.
El IRMM, al igual que otros centros comunes de investigación de la Comisión
Europea, ayuda a elaborar las políticas de la UE y las pone en práctica. El
reciente Séptimo Programa Marco de I+D refuerza el papel orientativo de estos
centros y su conexión con la comunidad científica, y destina 1.751 millones de
euros a su financiación. Más de 2.700 personas en toda Europa trabajan en ellos.
Y colaboran con más de mil organizaciones públicas y privadas.
La confianza de la Comisión Europea en el IRMM se puede medir en términos
económicos, según Herrero. El diagnóstico de la encefalopatía espongiforme
bovina, las vacas locas, que supone un gran impacto económico, ha reducido su
coste en unos 250 millones de euros gracias a medidas propuestas por el IRMM.
Esta cantidad supera su presupuesto para los próximos siete años.
Hasta un 20% de todos los productos alimenticios, especialmente los de origen
vegetal, pueden verse afectados por micotoxinas. La dificultad de su análisis
estriba en que a menudo afectan sólo a una parte del alimento. Como forzosamente
hay que analizar una muestra, se corre el riesgo de que se escape la parte
infectada. El IRMM ha desarrollado una novedosa técnica de muestreo que permite
recoger una parte de partículas de la superficie del alimento.
Stroka ilustra en la presentación del laboratorio que dirige: "En la Edad Media,
el ergot alcaloides causó grandes estragos entre la población, que sufría el
fuego de San Antonio, una urticaria que retrató Peter Brueghel en sus cuadros".
Hoy, las micotoxinas siguen siendo a veces un enemigo difícil de prever. Así
ocurre con las T-2 y las HT-2, frecuentes en Escandinavia, que aparecen en la
naturaleza sin que se sepa bien la causa. La lista, además, sigue creciendo:
"Pensamos que el cambio climático pueda tener repercusiones en el surgimiento de
nuevas micotoxinas", señala Stroka.
Los metales pesados que ayuda a analizar el IRMM también causan importantes
daños. El cadmio -que contienen las pilas eléctricas-, se acumula en los riñones
y los ataca, al igual que al sistema respiratorio. El plomo -presente en las
cañerías antiguas- destruye neuronas, como el mercurio, fundamentalmente de
origen industrial, que también es cancerígeno. El nuevo laboratorio los buscará
con técnicas avanzadas en el pescado. Y ya ha contribuido a regularizar más de
2.000 laboratorios para adaptarlos a los estándares europeos.
Los HAP, presentes en los alimentos ahumados y en los cocinados en barbacoa,
pueden tener efectos cancerígenos y causar mutaciones en el ADN. Su detección es
fundamental. Thomas Wenzel, el director del laboratorio específico, se maravilla
de los avances en el terreno: "Ya somos capaces de identificar tan sólo 2 gramos
de HAP dispersos en mil toneladas de material".
Además de estos laboratorios, el IRMM se dedica a otras aplicaciones de la
metrología. "Nuestro reto", apunta su director, "es medir las biomoléculas. Una
proteína no es una especie molecular única, sino una familia de moléculas.
Dentro de ellas puede que sólo sea una la que es tóxica y hay que detectar
exactamente cuál".
Además, el IRMM acoge uno de los centros de apoyo del proyecto internacional
Avogadro. Toma su nombre de la constante de Avogadro, el número de átomos de
carbono 12 contenidos en 12 gramos de este elemento. El proyecto intenta
encontrar una referencia física para la unidad de masa, el kilogramo.
Sustituiría a la actual unidad, un cilindro de platino e iridio guardado en
París."La cuestión es saber qué parte de esa materia -el kilo- equivale
exactamente a un número de veces el número de Avogadro. Medir la constante es
fundamental", indica Philip Taylor, investigador principal del proyecto.
Del iridio y el platino se ha pasado a usar tres isótopos de silicio, 28, 29 y
30, un material muy puro producido en Siberia con la tecnología del uranio. Así
se ha logrado un grado de incertidumbre de sólo 0,0000002, pero todavía es
necesario llegar al octavo decimal, uno más, para que la incertidumbre sea
despreciable y el kilo guardado en París pase a la historia. "El IRMM es el
único instituto del mundo capaz de hacer esa medida en preparados de silicio
para calcular el número de átomos, su densidad y llegar a una definición del
kilogramo con una precisión absoluta", asegura Taylor, para quien lograr ese
gemelo eterno del kilo de París, llevará aún dos o tres años.
Fuente: El País, 25 de Abril de 2007
-Descubren el primer planeta habitable fuera del Sistema Solar
Un equipo de astrónomos de Suiza, Francia y Portugal acaba de anunciar el descubrimiento del primer planeta extrasolar que podría, por lo menos hipotéticamente, ser habitado por el hombre. O lo que es lo mismo, el primer planeta hallado más allá de las fronteras de nuestro Sistema Solar y cuyas condiciones son parecidas a las de la Tierra.
Recreación artística del planeta
El nuevo mundo, con un diámetro apenas
un 50% mayor que el terrestre y una masa cinco veces superior, reúne, en efecto,
las condiciones necesarias para disponer de agua en estado líquido, el
ingrediente fundamental de la vida. Se trata del planeta extrasolar más pequeño
y similar al nuestro de los cerca de dos centenares que han sido descubiertos
hasta ahora. La «súper Tierra», término con el que se refieren los astrónomos al
hallazgo, gira alrededor de Gliese 581, una estrella bien conocida por los
científicos, más pequeña y fría que el Sol.
Se trata de una «enana roja» que se encuentra en la constelación de Libra, a
20,5 años luz de distancia (recordemos que un año luz equivale a casi diez
billones de kilómetros) y en cuya órbita ya se habían descubierto otros dos
planetas, gigantes gaseosos con quince y ocho masas terrestres, mucho más
parecidos a Neptuno que a nuestro propio mundo.
El nuevo planeta «viaja» alrededor de su astro mucho más deprisa que la Tierra
alrededor del Sol, y efectúa una órbita completa cada trece días. Además, se
encuentra catorce veces más cerca de Gliese 581 de lo que la Tierra está de su
estrella particular. Sin embargo, debido a las diferencias de tamaño,
luminosidad y temperatura entre Gliese 581 y el Sol, el nuevo mundo está
exactamente en la «zona habitable» de su estrella, una estrecha franja orbital
en la que un planeta debe estar situado para que en él se den las condiciones
necesarias para la vida.
MUY FRÍOS O MUY CALIENTES
Alrededor de cada estrella, según su tamaño y temperatura, la «zona habitable»
es el área concreta en la que sería posible que se formara un planeta con agua
en estado líquido. Los mundos que se encuentran fuera de esta zona quedan, en
principio, descartados como candidatos. En efecto, si estuvieran más cerca de la
estrella, serían tan calientes que cualquier resto de agua se evaporaría al
instante, como es el caso de Mercurio en nuestro Sistema Solar. Si estuvieran
más lejos, serían tan fríos que el agua sólo sería posible en forma de hielo,
como sucede en Marte. Para nuestro Sol, la zona habitable se encuentra
exactamente entre las órbitas de Venus y Marte. Lugar que ocupa nuestro propio
mundo, la Tierra.
El segundo factor que se tiene en cuenta es el tamaño y la masa del planeta
candidato. Los mundos con menos de la mitad de la masa terrestre no tienen
gravedad suficiente para retener una atmósfera bajo cuyo abrigo pueda
desarrollarse la vida, como sucede, una vez más, con Marte. Y al otro extremo,
los planetas con una masa superior a diez veces la de la Tierra tienen gravedad
suficiente para seguir atrayendo gases y elementos abundantes en el espacio,
como hidrógeno y helio, y terminan por convertirse en gigantes gaseosos, como es
el caso, en nuestro sistema, de Júpiter, Saturno, Urano y Neptuno.
ENTRE 0 y 40 GRADOS
Pero la «Súper Tierra» descubierta alrededor de Gliese 581 cumple ambos
requisitos: está en la zona habitable de su estrella y no tiene más de cinco
masas terrestres. «Estimamos -afirma Stéphane Udry, del
Observatorio de Ginebra y
coautor del descubrimiento- que la temperatura en esta «Súper Tierra» debe
oscilar entre los 0 y los 40 grados, con lo que el agua debería ser líquida.
Además -añade-su radio es 1,5 veces el de la Tierra, y los modelos existentes
predicen que el planeta debería ser rocoso, como nuestra Tierra, o cubierto por
océanos».
«Por lo que sabemos -asegura por su parte Xavier Delfosse, del
Observatorio de Grenoble,
en Francia, y también miembro del equipo- el agua líquida es crítica para la
vida. Y a causa de la temperatura y de su relativa proximidad, este planeta se
convertirá probablemente en un importante objetivo para futuras misiones
espaciales dedicadas a la búsqueda de vida extraterrestre. En el mapa del tesoro
del Universo, uno estaría tentado de marcar este mundo con una «X»».
LAS MÁS ABUNDANTES
Gliese 581 se encuentra entre las cien estrellas más cercanas a la Tierra. Se
trata de una «enana roja», la clase de estrellas más abundantes en nuestra
galaxia, pequeñas y relativamente frías (con temperaturas superficiales que
rondan los 3.500 grados, la mitad que el Sol). «Las enanas rojas -dice Xavier
Bonfill, otro de los autores del estudio, de la
Universidad de Lisboa-
son los objetivos ideales para buscar planetas de baja masa en los que pueda
haber agua en estado líquido. Debido a que emiten menos luz, las «zonas
habitables» de estas estrellas están mucho más cerca de ellas de lo que sucede
en el Sol». El descubrimiento se ha realizado gracias al espectrógrafo HARPS, en
el telescopio de 3,6 metros en
La Silla, en Chile.
Fuente: ABC, 25 de Abril de 2007
-A un paso de la visión artificial
La visión es el más útil y apreciado de
los sentidos humanos. No es para menos, ya que los científicos calculan que más
del 40 por ciento de toda la información que llega al cerebro lo hace a través
del sistema visual. La
OMS estima que en el
mundo hay más de 65 millones de ciegos, y que en los próximos quince años la
cifra se puede duplicar.
Durante más de dos milenios de
Medicina, la posibilidad de devolver la visión a los ciegos ha sido una utopía,
pero los avances en Oftalmología, Genética, Ingeniería... sugieren desde hace
décadas que hay luz al final del túnel en determinados tipos de ceguera.
La degeneración macular, la retinitis pigmentosa, el glaucoma o los traumas
oculares son algunas de las principales causas de la ceguera y se deben, todas
ellas, a la inutilización del ojo, órgano de la visión, pero estas causas no
anulan el resto del sistema visual -nervios, tálamo o corteza cerebral-. En
relación a estos casos se investiga desde 1918 la posibilidad de generar
mediante impulsos eléctricos externos en la corteza cerebral percepciones
subjetivas de luz, denominadas fosfenos, que reemplacen las señales que el ojo
transmite al cerebro. Con impulsos eléctricos, al fin y al cabo, trabaja el
sistema nervioso.
REPRODUCIR EL «MAPA VISUAL»
Hasta ahora, dos son los campos abiertos en estas investigaciones: la
implantación de electrodos en determinadas zonas de la retina, que reproducen la
función neuronal de los conos y los bastones; e implantar electrodos en la
corteza cerebral, concretamente, en la región primaria del córtex, la V1, en la
que se reproduce el «mapa visual» enviado por la retina. Ambas técnicas han
logrado resultados prometedores, pero muy limitados en los dos casos.
Ahora, un equipo de investigadores del Departamento de Neurobiología de la
Escuela de Medicina de Harvard,
encabezados por John S. Pezaris y R. Clay Reid, ha abierto una tercera vía para
atacar el problema. Han probado que la estimulación eléctrica del sistema visual
puede facilitar mucho el diseño y la aplicación de elementos protésicos para
solucionar o mitigar la ceguera si dichos estímulos se aplican, mediante
electrodos, directamente al centro de proceso de datos de la visión, es decir,
al tálamo, y más en concreto a su núcleo geniculado lateral dorsal (NGL), que es
la región que recibe las señales de la retina, las procesa y, posteriormente,
las remite a la región V1 del córtex cerebral, en la que se reciben y analizan
los distintos mensajes de la visión -colores, tamaños, profundidad,
movimientos...-.
La investigación, publicada en «PNAS»,
la revista de la Academia Nacional de Ciencias estadounidense, detalla cuatro
razones por las cuales es más eficaz la implantación de electrodos en el núcleo
geniculado que en el córtex cerebral.
La primera es que el campo receptor de las neuronas del NGL es simple y similar
al de la retina, pero la estimulación neuronal es más sencilla. La segunda,
porque presenta una mayor respuesta a las corrientes funcionales, en particular
a las enviadas por los sistemas magnocelular y parvocelular de la retina. La
tercera, es que una sencilla craneotomía permite, por medio de un tubo de
diámetro muy pequeño, implantar los electrodos de forma que reproduzcan la mayor
parte del campo visual, con especial atención a las neuronas que recogen la
información enviada por la fóvea, la parte de la retina que, en los primates,
carece de bastones, pero presenta una gran cantidad de conos y es el punto de
máxima agudeza visual. Cuarta y más importante razón: el acceso quirúrgico al
NGL requiere de muy pocas innovaciones y es una técnica conocida, ya que el
núcleo geniculado lateral dorsal es adyacente a las regiones cerebrales que se
estimulan en la actualidad con electrodos como terapia contra enfermedades como
el párkinson.
Los experimentos desarrollados por Pezaris y Reid se llevaron a cabo sobre dos
macacos -macho y hembra- sanos, es decir, sin perturbaciones en su sentido de la
visión. Les fueron implantados electrodos de tungsteno en diferentes
localizaciones del NGL.
IMPULSOS ELÉCTRICOS
En el experimento se examinó el impulso eléctrico que llegaba al núcleo
geniculado lateral dorsal cuando los monos veían sobre una pantalla de ordenador
puntos luminosos -inmóviles, en movimiento, de mayor o menor intensidad...-. La
información fue recogida en una base de datos o «mapa visual». El siguiente paso
en el experimento fue examinar los movimientos de los ojos de los macacos en
respuesta a la estimulación eléctrica del tálamo.
Los investigadores comprobaron que los monos, durante la estimulación eléctrica,
dirigían su mirada hacia los puntos de la pantalla correspondientes a la
localización del electrodo en la región del cerebro estimulada, de acuerdo con
el «mapa visual» elaborado anteriormente, con más de un 80 por ciento de
aciertos. La «exactitud» del método fue comprobada en centenares de
localizaciones, con diferentes intensidades y voltajes, con resultados «muy
satisfactorios».
Este hecho prueba que el sistema visual del primate, similar al del ser humano,
recibió, procesó y reaccionó al estímulo eléctrico como si de una señal visual
se tratase.
Los investigadores concluyen en su trabajo que el núcleo geniculado lateral
dorsal del tálamo (NGL) es el lugar más apropiado para conectar al cerebro un
sistema protésico de visión artificial.
Fuente: ABC, 24 de Abril de 2007
-Primeras imágenes del Sol en tres dimensiones
Un equipo de científicos de la Universidad de Gales, en el Reino Unido, ha obtenido las primeras imágenes en tres dimensiones del Sol a partir de los datos enviados por el Observatorio de Relaciones Terrestres Solares (STEREO) de la NASA.
"Por primera vez" -dice la agencia en
un comunicado- "los científicos podrán ver las estructuras de la atmósfera del
Sol en tres dimensiones, lo que les será de gran ayuda para comprender la física
solar, así como para mejorar la predicción de las tormentas solares".
Según los autores, se trata "del mayor avance de la ciencia solar de los
últimos diez años".
Los científicos han desarrollado un programa que convierte en imágenes en tres
dimensiones los datos que envían las dos sondas del observatorio STEREO que,
desde el pasado mes de octubre, están en dos órbitas distintas en torno al Sol.
Las dos naves pueden detectar las turbulencias de las partículas de alta energía
que ocurren en la corona solar, también denominadas erupciones solares, un
fenómeno que puede tener graves consecuencias sobre astronautas, satélites e
incluso la Tierra, puesto que afectan gravemente a las comunicaciones.
Hasta ahora, "cuando había una erupción (solar) y el Sol desprendía materia al
espacio, sólo podíamos verlo en plano, en dos dimensiones, a pesar de que era
una estructura en tres dimensiones", explicó Andy Breen, un de los responsables
de la investigación, que remarcó la importancia de este avance para entender las
"complejas estructuras de la atmósfera solar".
"Va a revolucionar nuestros conocimientos sobre el Sol y sobre el modo en que la
Tierra y el Sol están conectados", añadió el científico, quien participa además
en la misión para la Investigación Coronaria y Heliosférica de la Conexión entre
el Sol y la Tierra (SECCHI) de la Administración Nacional de la Aeronáutica y el
Espacio de EE.UU. (NASA).
Las imágenes a simple vista parecen de tonalidades grises, puesto que para verse
en tres dimensiones hacen falta unas gafas que la NASA ayuda a fabricar en casa.
Basta un poco de cartulina, acetato, plástico de colores, pegamento o celofán y
una buena dosis de paciencia, que junto con algo de maña permiten a cualquier
aficionado disfrutar de unas imágenes nunca antes vistas de nuestro astro rey.
Fuente: El Mundo Digital, 24 de Abril de 2007
-Un telescopio extremadamente grande para Canarias
España apuesta "firmemente" por que se
ubique en el Observatorio del Roque de los Muchachos, en la isla canaria de La
Palma, el ambicioso proyecto de Telescopio Europeo Extremadamente Grande (E-ELT),
promovido por el
Observatorio Europeo Austral (ESO),
un organismo al que acaba de adherirse España.
Así lo manifestó Xavier Barcons, jefe
de la Delegación española en ESO, que es el Centro Europeo para la Investigación
Astronómica en el Hemisferio Sur y el principal organismo mundial del ámbito
europeo en el campo de la astrofísica, integrado por Alemania, Bélgica,
Dinamarca, Finlandia, Francia, Italia, Países Bajos, Portugal, Reino Unido,
Suecia y Suiza, aparte de España.
Esta semana la directora general del Centro Europeo para la Investigación
Astronómica en el Hemisferio Sur (ESO, sus siglas en inglés), Catherine Cesarsky,
junto con la ministra de
Educación y Ciencia,
Mercedes Cabrera, presentaron públicamente durante un acto celebrado en Madrid,
la adhesión de España a este organismo.
Actualmente, ESO trabaja con astrónomos y astrofísicos para definir un nuevo
telescopio gigante para la próximo década, el E-ELT, que con un espejo primario
de 42 metros de diámetro compuesto por 906 segmentos hexagonales y un espejo
secundario de 6 metros de diámetro será clave en el futuro en la observación
astronómica en la banda óptica e infrarroja desde Tierra.
Con ese diámetro de 42 metros y su sistema de óptica adaptativa, el E-ELT
superará en más de 100 veces la sensibilidad de los mayores telescopios ópticos
actuales y permitirá grandes avances en el conocimiento astrofísico,
posibilitando estudios detallados de planetas extrasolares, de los primeros
objetos que se formaron en el Universo o de agujeros negros supermasivos.
Entre las ubicaciones del mismo, se manejan dos, dijo Barcons, la del Roque de
los Muchachos (Canarias), junto al Gran Telescopio de Canarias (GTC), pero
también Chile, en donde ESO opera tres observatorios; los planes de ESO es que,
en menos de dos años esté decidido dónde se situará el E-ELT, agregó.
Esa decisión respecto a la futura ubicación del telescopio es fundamental para
el diseño del proyecto, ya que sus características variarán en función de dónde
se sitúe. Así, por ejemplo, explicó, si se erigiera en Chile, el telescopio
debería dotarse de elementos capaces de soportar movimientos sísmicos.
Según Barcons, que es además miembro del
Instituto de Física de Cantabria (IFCA),
algunas de las tecnologías usadas para la construcción del GTC se usarán en el
E-ELT de 40 metros, "lo que confirma que España dispone de empresas e industrias
que han adquirido experiencia muy competitiva en tecnologías clave en el plano
internacional".
Uno de los planteamientos expresados por España desde el inicio de las
negociaciones con ESO, al que se adhirió formalmente el pasado 14 de febrero, es
que el Telescopio Europeo Extremadamente Grande se ubicara en el Observatorio
del Roque de los Muchachos. "El apoyo que daría España a esta posibilidad sería
muy decidido", dijo.
Precisamente una parte importante del diseño de este telescopio consiste en
buscarle una ubicación, y para ello, prosiguió, "se está haciendo un trabajo
técnico de prospección de la calidad de las distintas posibles ubicaciones".
"Creemos que sería muy conveniente para Europa que este telescopio de ESO
pudiera estar en territorio europeo", y para ello, explicó Barcons, la
delegación española pondrá en su día sobre la mesa "un estudio muy serio", no
sólo técnico, sino también político y económico sobre las ventajas de instalar
el proyecto en Canarias.
El coste estimado para su diseño, construcción e inicio de operaciones es de
unos mil millones de euros.
Fuente: EFE, 23 de Abril de 2007
-Un nuevo micro-robot para operar el corazón
Mide apenas dos centímetros y se mueve
como una oruga. Se trata de un pequeño robot que se introduce en el pecho a
través de una pequeña incisión y puede desplazarse por la superficie del corazón
para aplicar tratamientos o insertar dispositivos como los marcapasos.
Las posibilidades de este aparato,
llamado HeartLander, suenan a ciencia ficción, pero ya han sido probadas con
éxito en cerdos vivos.
Científicos estadounidenses de la
Universidad de Carnegie Mellon de Pittsburgh (EE.UU.)
trabajan en este prototipo que podría acabar con las operaciones a corazón
abierto que requieren anestesia general y la retirada de algunas costillas,
provocando recuperaciones largas y complicadas.
OPERACIONES CON ANESTESIA LOCAL
Sus creadores afirman que, si la investigación tiene éxito, gracias al robot
podrían realizarse en un futuro operaciones cardiacas mientras el corazón sigue
latiendo, sin necesidad de abrir la caja torácica y usando simplemente anestesia
local.
Según recoge la revista
New Scientist, el
dispositivo se introduce en el pecho del paciente a través de una pequeña
incisión y, después, se acopla en la superficie del corazón. A través de una
especie de ventosas que lleva instaladas, el pequeño robot puede desplazarse por
la zona en un movimiento que emula al que realiza una oruga y que es controlado
por los científicos desde el exterior con un joystick. En total, el dispositivo
puede recorrer 18 centímetros en un minuto.
El robot lleva acoplada una aguja que permite inyectar determinados fármacos o,
incluso, podría usarse para la aplicación de células madre en determinados
tejidos dañados.
En los experimentos realizados en cerdos, a los que se les implantó un
marcapasos y aplicó un líquido similar al de algunos fármacos, el pequeño robot
se desplazó por todo el corazón sin ningún problema.
En este sentido, los científicos destacan que esta técnica podría ser muy útil
para llegar a algunas zonas del corazón que no son fácilmente accesibles
mediante la cirugía tradicional.
"Muchas operaciones pueden realizarse introduciendo instrumentos en el corazón a
través de las venas, pero esto no es posible si existe tejido dañado o enfermo
cerca de la superficie del corazón. Este dispositivo sí sería útil en esos
casos", explica el cardiólogo británico Andrew Rankin en declaraciones a
NewScientist.
En este momento, los investigadores trabajan en varios puntos para mejorar el
funcionamiento del robot. Entre otras cosas, piensan en incluir una cámara o
sonda de radiofrecuencia que podría servir, por ejemplo, para el tratamiento de
las arritmias.
Con todo, los científicos reconocen que aún faltan muchos años para que este
dispositivo pueda utilizarse en humanos.
Fuente: El Mundo Digital, 20 de Abril de 2007
-Cobertura para 700 científicos desde un gran centro de biomedicina
La investigación sobre células madre,
la nanociencia, estudios clínicos sobre diversas enfermedades o el campo de la
medicina regenerativa son algunas de las parcelas que cubrirá el nuevo Centro de
Investigación Biomédica de Aragón (CIBA), cuyo proyecto fue presentado en
Zaragoza.
Desde estas instalaciones se dará
cobertura al trabajo de setecientos investigadores, según destacó la consejera
aragonesa de Salud, Luisa Noeno, quien explicó que el CIBA se edificará sobre un
solar de 2.140 metros cuadrados y que en la construcción de este centro se
invertirán más de 13 millones de euros.
El CIBA pretende convertirse en un centro de referencia en la investigación
médica en España y ser una plataforma básica de apoyo al trabajo de cientos de
investigadores en un amplio número de disciplinas de biomedicina.
El proyecto de edificación arranca el proceso para que se convierta en una
realidad. La previsión apunta a que estará listo en el año 2009.
El director del
Instituto Aragonés de Ciencias de la Salud,
Esteban de Manuel, afirmó que este centro, que calificó de «avanzado y
completo», será una «pieza clave» para la investigación sanitaria de esta
Comunidad Autónoma y que se plantea, entre otros objetivos, generar conocimiento
acorde con las necesidades sanitarias de los aragoneses, resultar competitivo y
ser capaz de que los resultados de su trabajo den lugar a retornos económicos.
En el CIBA trabajarán alrededor de 160 personas entre las áreas de gestión,
unidades y grupos de investigación, infraestructuras y servicios. El edificio
tendrá cinco plantas, que sumarán un total de 4.500 metros cuadrados útiles.
Incluirá, entre otras dotaciones, unidades de transgénesis, equipos de
resonancia magnética, cuatro quirófanos y laboratorio de microcirugía, cultivo y
separación celular, ácidos nucleicos, protómica, anatomía patológica y
microscópica, así como áreas para grupos de investigación clínica y básica.
Fuente: ABC, 20 de Abril de 2007
-El deshielo en el casquete polar glaciar de Groelandia duplica las previsiones
La aceleración del deshielo en el casquete glaciar de Groenlandia en los últimos 25 años duplica lo que se pensaba y equivale a un tercio de la superficie de Francia, informó el Centro Nacional francés de Investigación Científica (CNRS).
Entre 1979 y 2005, la superficie de Groenlandia afectada por
el deshielo al menos un día al año aumentó en un 42%, mientras que la
temperatura media de la estación estival aumentó 2,4 grados centígrados.
El norte de Groenlandia es donde el fenómeno se hace más espectacular, con
episodios importantes de deshielo que han sido observados desde el año 2000 a
más de 1.500 metros de altitud, algo nunca registrado antes por los satélites,
según el CNRS.
Se trata de los resultados de un estudio efectuado por investigadores del
Laboratorio de
glaciares y geofísica del medioambiente (LGGE), con sede en Grenoble
(sureste de Francia), y de la
Universidad católica de Lovaina, en Bélgica.
Otros científicos franceses han demostrado la teoría planteada en 1998 por los
estadounidenses Paul Hoffman y Daniel Schrag de que la Tierra era una bola de
nieve hace 715 millones de años, informa la Academia de Ciencias en su sitio de
Internet.
Esa demostración y recreación del escenario posible de la primera glaciación del
planeta ha sido efectuada en el marco del programa "Eclipse" (Medioambiente y
clima del pasado: historia y evolución), lanzado en 2000 por el CNRS.
Fuente: EFE, 20 de Abril de 2007
-Descubierta una proteína en la sangre humana que actúa contra el virus del sida
La clave para el control de la infección del VIH podría estar en la sangre de los propios afectados. Investigadores de la Universidad alemana de Ulm han descubierto que una proteína -llamada por eso inhibidora de virus- se une al agente infeccioso e impide que entre en los linfocitos. El hallazgo se publica hoy en la revista Cell.
Los científicos llevan casi desde el principio de la epidemia
buscando una explicación para la variabilidad de la actuación del VIH en las
personas. En unas, bastan pocos meses para que, si no recibe medicación, el
sistema inmunitario se destruya y aparezca el sida. Otras, sin embargo, viven
durante años -hay casos registrados de más de dos décadas- sin tomar pastilla
alguna y sin desarrollar la enfermedad. La presencia del péptido identificado
podría explicar esta situación.
Pero, aparte de saciar una curiosidad, el hallazgo puede tener a medio plazo
efectos prácticos. Si se desarrolla un fármaco o un tratamiento genético que
estimule la producción de este péptido, se podría disponer de un nuevo
medicamento para controlar la infección.
Este fármaco tendría dos ventajas: por un lado, al tratarse de una proteína
humana, se supone que sus efectos secundarios serían mucho menos agresivos que
los de los antivirales que se usan actualmente. Por otro lado, como el péptido
actúa bloqueando el virus e impidiendo que entre en los glóbulos blancos, se
abre una nueva línea terapéutica que serviría para tratar los casos en los que
el virus ha desarrollado resistencias a los fármacos ya existentes.
Fuente: El País, 19 de Abril de 2007
-Investigadores en auxilio de Arquímedes
Un mecenas cuya identidad se mantiene en secreto, un mohoso libro de oraciones del siglo XIII que se ha reescrito sobre documentos mucho más antiguos de trabajos de Arquímedes y una red de investigadores que recurren a las técnicas más modernas y a los mejores expertos sobre el saber más antiguo son los elementos de un detectivesco proyecto de investigación en el que las ciencias experimentales ayudan a revelar la historia.
Dos de estos expertos, Revel Nezt y William Noel, cuentan en
El código de Arquímedes (Editorial Temas de Hoy) los detalles de este curioso
proyecto de investigación, que comenzó en 1999 y todavía no ha terminado.
España es el primer país en que se publica este libro, cuyos autores iniciaron
la investigación que pronto se convirtió en el Proyecto Palimpsesto, privado,
que utiliza herramientas de integración de sistemas y planificación estratégica.
Lo está financiando el todavía desconocido comprador del manuscrito (por dos
millones de dólares), cuando éste salió a la luz en una subasta en Nueva York en
1998 tras mantenerse oculto y minusvalorado durante casi todo el siglo XX. Según
los autores, se ha confirmado que es el manuscrito más antiguo que existe sobre
Arquímedes, el único que contiene en griego original el famoso ensayo Sobre
los cuerpos flotantes y la única fuente en griego para el revolucionario
El método y el ameno Stomachion. Y además, contiene diagramas.
Noel es conservador del Museo de Arte Walters en Baltimore (Estados Unidos),
donde fue depositado el manuscrito tras la subasta. Netz es matemático y experto
en Arquímedes, al que considera el científico más importante de la historia,
como queda meridianamente claro en el libro. Del trabajo artesanal de desmontaje
y conservación de las mohosas páginas del palimpsesto a su análisis en el
sincrotrón de Stanford, la investigación ha hecho un largo camino. En paralelo
se ha reconstruido el azaroso recorrido del manuscrito por las orillas del
Mediterráneo, de Alejandría a Constantinopla y luego en Europa, desde que se
escribieron en el siglo IX los pergaminos originales.
El libro presenta positivamente el funcionamiento de la comunidad científica
internacional, en la que sobresale Estados Unidos, donde, además de existir el
dinero y el interés por hacerse con este tesoro histórico, existe también la
masa crítica científica para poder investigarlo, recurriendo sin problemas a
expertos de otros países. También es un recordatorio de aquellos tiempos no tan
lejanos en que artistas y científicos tenían algo en común: ser financiados por
mecenas.
Fuente: El País, 19 de Abril de 2007
-Casi 40 millones de dólares para conservar la biodiversidad vegetal
La lucha contra el hambre no puede
garantizarse sin la diversidad de los cultivos agrícolas, y éstos desaparecen a
un ritmo pavoroso en los últimos años. La diversidad agrícola es cada vez menor,
un hecho al que se enfrenta desde hace años el Fondo Mundial para la Diversidad
de Cultivos, que ha recibido ahora una ayuda vital de la
Fundación Bill y Melinda Gates:
37,5 millones de dólares para ayudar a la conservación de las semillas de las
especies agrícolas más amenazadas del mundo.
"Esta iniciativa servirá para rescatar
las colecciones más importantes de cultivos alimentarios de países en vías en
desarrollo", destacó Cary Fowler, secretario ejecutivo del Fondo. "Podremos no
sólo asegurar colecciones en riesgo en países pobres, sino también documentar su
asombrosa diversidad, haciéndolas disponibles para satisfacer las necesidades de
los países menos ricos", destacó.
"Ésta es la mayor donación jamas realizada para la preservación de la
biodiversidad de los cultivos, y ahora tenemos que enfrentarnos al reto que
supone gestionarla de la mejor manera posible, para que sus efectos sean los
mejores posibles", remarcó.
La donación financiará la investigación de técnicas de conservación económicas
para cultivos como la mandioca, la papa, la batata, el ñame, la malanga o el
coco. Entre los 21 cultivos prioritarios cubiertos por la iniciativa financiada
por el matrimonio Gates están multitud de los denominados 'cultivos huérfanos',
que son "particularmente importantes para los pobres, porque han sido pasados de
alto en gran parte del fitomejoramiento moderno".
Este tipo de cultivos huérfanos, como el ñame, no pueden ser cultivados con
semillas, sino que deben serlo a partir de esquejes, raíces o cultivos
celulares, haciendo su conservación mucho más compleja y costosa. Se espera que
las nuevas tecnologías reduzcan el coste de la conservación de estas especies un
75%, así como que mejore la seguridad de las colecciones de los cultivos.
Otro de los objetivos del Fondo es financiar un sistema de información que
incluirá cuatro millones de muestras de más de 2.000 especies de 150 cultivos,
lo que equivale al 85% de la diversidad de los cultivos agrícolas.
Además, también asegurará que los países en vías de desarrollo y los centros de
investigación agrícola internacionales puedan enviar al menos 450.000 muestras
distintas de semillas al 'Arca de Noé' de Svalbard, un gigantesco proyecto que
se lleva a cabo a Noruega, donde se construye en el permafrost ártico un
depósito gigantesco con tres millones de duplicados genéticos de plantas
hortícolas y derivados salvajes. "Nuestro Fondo se encargará del mantenimiento
de las instalaciones del 'Arca' una vez que entre en funcionamiento, a partir de
2008", señaló Fowler.
Otro de los problemas a los que pretende hacer frente la iniciativa es la
adaptación de muchos de los cultivos a los nuevos retos de este siglo,
especialmente el cambio climático. "Sabemos que el ambiente está cambiando, y
eso tendrá un efecto muy grave en muchas plantas, y se notará muy rápido. Por
eso es vital que tengamos cultivos que se adapten a las nuevas necesidades, y
para eso es necesario que los científicos vayan a los bancos de semillas y
busquen fórmulas para obtenerlos", matizó.
La misión del Fondo es asegurar la conservación y la disponibilidad de los
cultivos para la seguridad alimentaria a nivel mundial, una diversidad que
resulta fundamental para la lucha contra el hambre y el para el futuro de la
agricultura.
Fuente: El Mundo, 19 de Febrero de 2007
El robot Opportunity, uno de los dos vehículos de la NASA que exploran Marte desde enero de 2004, se adentrará en mayo en el cráter Victoria para desentrañar la historia geológica del planeta rojo. Se trata de una maniobra que, según los responsables de la misión, será "como viajar atrás en el tiempo".
En estos tres años, Opportunity y su
gemelo Spirit, situados en extremos opuestos de Marte, han recorrido unos 11
kilómetros cada uno y han enviado a la Tierra más de 175.000 fotografías del
relieve marciano y datos sobre las características geológicas y atmosféricas del
planeta, que han permitido constatar la existencia de agua en un pasado muy
remoto.
Los responsables de la NASA dieron inicialmente una vida útil de unos 90 días a
estos dos vehículos que, para "sorpresa" de los científicos, siguen funcionando,
pese a pequeños contratiempos, y aportando información de interés cuarenta meses
después, según explica Steven Squyres, máximo responsable científico de la
misión, que ha visitado Barcelona invitado por la Obra Social de La Caixa.
En las próximas "cuatro o cinco semanas", y tras muchos meses de espera para
reunir las condiciones técnicas y ambientales necesarias, Opportunity culminará
una de las principales misiones de la NASA en Marte, al penetrar en el cráter
Victoria, de 800 metros de diámetro y 75 de profundidad, con el objetivo de
hacer nuevos descubrimientos sobre la historia del planeta rojo. Según Squyres,
las paredes de este cráter albergan un enorme cúmulo de información sobre el
pasado geológico de Marte, ya que las rocas, expuestas en forma de estratos,
revelan cómo eran las condiciones medioambientales hace siglos o milenios y las
características del agua que fluyó por ese planeta.
"No sabemos qué encontraremos, pero queremos que Opportunity entre dentro del
cráter porque se pueden observar las diferentes capas sedimentarias en la pared,
mientras que desde donde está ahora, en superficie plana, se ven siempre las
mismas rocas", explica Squyres. "Sería como viajar atrás en el tiempo, porque
así podríamos llegar hasta las capas más profundas, que son las más antiguas",
subraya el científico, quien añade que, por el momento, se sabe que Marte fue un
planeta frío, "muy violento", que ha sufrido muchos impactos de meteoritos y
erupciones volcánicas, y que tuvo agua en el subsuelo.
Squyres, que el 26 de abril recibirá la medalla Benjamin Franklin en Ciencias de
la Tierra y el Medio Ambiente, no espera encontrar restos de vida en esta
misión, ya que si la hubo "fue de tipo bacteriológica". "Pero esperamos aprender
mucho del agua, del entorno y de la naturaleza geológica de Marte", subraya el
científico. Steven Sqyres lleva más de 20 años trabajando en misiones robóticas
de exploración en Marte, por lo que es considerado el padre científico de
Opportunity y Spirit, dos vehículos de seis ruedas y del tamaño de una nevera
que, según el astrónomo, han mejorado con el tiempo", haciéndose más
inteligentes, a medida que se les ha ido añadiendo software.
Tras más de tres años de arduo trabajo, las duras condiciones ambientales y
geológicas de Marte empiezan a hacer mella en los robots, aunque Opportunity "se
encuentra en mejor forma", ya que la rueda delantera del Spirit no gira y sus
dientes están "desgastados" por la dureza de las rocas. En cualquier caso,
Steven Sqyres está orgulloso del trabajo que están llevando a cabo estos robots,
cuya vida, a tenor de los resultados obtenidos, es impredecible. "Los vehículos
pueden seguir funcionando tres años más o dejar de funcionar mañana mismo, no lo
sabemos. Nuestros planes abordan tres meses vista, por eso intentamos hacer uso
de ellos día tras día pensando que igual en el futuro no funcionen. Intentamos
sacar el máximo provecho de estas máquinas", aseguró el científico.
Fuente: EFE, 17 de Abril de 2007
-Descubren que los chimpancés han evolucionado más que los humanos
La comparación de 14.000 genes humanos con otros tantos de chimpancé acaba de dar a los científicos una sorpresa mayúscula. En efecto, al contrario de lo que la mayoría pensaba, los mecanismos evolutivos de «selección positiva» de genes parecen haber «funcionado» más y mejor entre los chimpancés que entre nosotros mismos desde que ambas especies se separaron a partir de un antepasado común, hace cerca de seis millones de años. O dicho de otra forma, un mayor número de genes de chimpancé que de ser humano han seguido los procesos de selección natural previstos por las teorías darwinistas.
El hallazgo,
realizado por un equipo del Departamento de Biología Evolutiva de la
Universidad de Michigan y dirigido por el
investigador Jihanzhi Zhang, contradice de lleno la creencia común de que los
humanos, con cerebros más grandes y equipados con una serie de habilidades
cognitivas únicas en todo el reino animal, habríamos sido especialmente
favorecidos por los procesos de selección natural.
En un artículo que publica la revista «Proceedings»,
Jianzhi Zhang y sus colegas explican que «a pesar de que los humanos y sus
parientes vivos más cercanos, los chimpancés, son enormemente parecidos a nivel
genómico, ambos difieren en numerosos rasgos morfológicos, fisiológicos y
psicológicos». Lo cual implicaría que, aparentemente, los humanos modernos han
«cambiado considerablemente más que los chimpancés modernos con respecto de sus
antepasados comunes». Y sin embargo no es así.
PEQUEÑAS POBLACIONES
Los investigadores proponen una solución para explicar esta sorprendente
realidad. El número de los primeros pobladores de nuestra especie, dicen en su
estudio, debió de ser mucho menor de lo que se pensaba hasta ahora, lo cual
reduciría también automáticamente la efectividad de la selección natural, cuyas
leyes se desarrollan mejor en grandes que en pequeñas poblaciones. Por esa misma
razón, aunque menores en número, cualquier cambio (incluidos los genéticos)
habría tenido una mayor importancia entre los humanos que entre los chimpancés.
La propuesta, por añadidura, explicaría el motivo por el cual los seres humanos
cuentan con un menor número de genes sujetos a procesos de selección positiva, y
una cantidad mucho mayor, sin embargo, de carga genética «neutral» o incluso
«negativa» de la que tienen los chimpancés.
GENES DIFERENTES
Durante su análisis, los investigadores se dieron cuenta también de que la
selección positiva actúa sobre genes diferentes en las dos especies, y que los
genes seleccionados, tanto en una como en otra, están implicados en procesos
biológicos muy dispares.
Por ejemplo, muchos de los genes seleccionados positivamente en los seres
humanos están implicados en la transmisión de enfermedades hereditarias, en
modificaciones del metabolismo y en el transporte de moléculas a través de las
membranas celulares.
Una de las conclusiones del estudio es, precisamente, que queda mucho para saber
cuáles rasgos genéticos son actualmente beneficiosos para la evolución de las
dos especies.
Fuente: ABC, 17 de Abril de 2007
-Un fallo informático puso fin a la sonda Mars Global Surveyor
La cápsula 'Mars Global Surveyor' (MGS), tras estar en funcionamiento cuatro veces más tiempo de lo planificado en su misión de estudio del planeta rojo, dejó de funcionar el mes de noviembre pasado aparentemente por un fallo informático, según ha revelado la NASA.
Una comisión especial, creada por la Administración Nacional de Aeronaútica y el Espacio (NASA) de EEUU para estudiar la pérdida repentina de la 'MGS' hace más de cinco meses, indicó que probablemente la culpa la tuvo un fallo de programas de ordenador y los comandos desde la Tierra.
La cápsula, lanzada al espacio en 1996, funcionó durante un período cuatro veces más prolongado que lo que habían planificado los técnicos que la concibieron y duró más que cualquier otra nave espacial.
Entre sus muchos logros, permitió el seguimiento de la evolución de las tormentas de polvo en el planeta de destino, encontró pruebas muy convincentes de zanjas cavadas por el agua en su superficie, y mostró que el famoso "rostro sobre Marte" es un fenómeno natural.
El 2 de noviembre pasado, después de que los técnicos ordenaran a la MGS ajustes rutinarios de sus paneles solares, la cápsula dio una serie de alarmas y luego indicó que se había estabilizado. Pero aquella fue su última comunicación.
Posteriormente la nave se reorientó en un ángulo que exponía directamente a la luz del Sol una de sus dos baterías. Esto causó un recalentamiento de la misma y, en última instancia, el agotamiento de ambas baterías en unas once horas.
La posición incorrecta de la antena impidió que la cápsula informara de su situación a los técnicos de control, y la respuesta de seguridad programada no incluía el asegurarse de que su orientación fuese segura desde el punto de vista térmico.
"La causa de la pérdida fue resultado de una serie de acontecimientos vinculados con un error de computadora cometido cinco meses antes del probable fallo de baterías", dijo Dolly Perkins, subdirectora técnica del Centro Goddard de Vuelo Espacial en Maryland, y una de las integrantes de la junta revisora.
Fuente: El Mundo
-Crean el primer prototipo de hardware evolutivo
Un equipo de investigadores noruegos ha
creado la primera pieza de un hardware que usa la evolución para cambiar su
diseño y adaptarse a la función que tiene que desempeñar. Este hardware
evoluciona como lo harían las especies animales o vegetales y se adapta al medio
sin que sufra su funcionalidad y en apenas unos segundos. En vez de actualizar
software, el hardware es capaz de evolucionar, probar soluciones ante los
problemas y adoptar la decisión más adecuada. Esta investigación abre la puerta
a desarrollos de Inteligencia Artificial más avanzados.
Los profesores Kyrre Glette y Jim Torresen de la Facultad de Informática de la
Universidad de Oslo han publicado un artículo
en el que presentan un prototipo de hardware evolutivo capaz de adaptarse en
unos segundos a la función que desarrolla en cada momento. La Universidad de
Oslo ha explicado este proyecto en su revista
Apollon, del que se ha hecho eco
Bitsofnews.
Durante décadas, el ser humano ha intentado construir una réplica de su propio
cerebro. Para ello, ha ido utilizando software cada vez más potente para crear
Inteligencia Artificial sofisticada. Sin embargo, la Inteligencia Artificial más
avanzada no se acerca todavía a la potencia y complejidad de nuestra mente.
Quizá uno de los problemas es que todo el desarrollo y el esfuerzo relacionado
con la Inteligencia Artificial en las últimas décadas se han hecho sobre todo
respecto al software y no respecto al hardware.
El anuncio del equipo de la Universidad de Oslo puede cambiar esta tendencia al
abrir la posibilidad de crear una nueva generación de hardware que evoluciona
por sí mismo. En vez de actualizar software, el hardware es capaz de
evolucionar, probar soluciones ante los problemas y adoptar la decisión más
adecuada.
TÉCNICAS EVOLUTIVAS
El campo en el que se encuentra su investigación es el hardware evolutivo. El
hardware evolutivo suele referirse principalmente a dos cosas. En primer lugar,
al que es capaz de adaptarse solo en tiempo real, reconfigurando su arquitectura
dinámicamente y de manera autónoma mediante una interacción con su ambiente.
Por otro lado, se refiere al uso de técnicas evolutivas para la síntesis de
circuitos, es decir, algoritmos basados en el mismo mecanismo de selección
natural que impera en el reino animal.
La línea que divide ambas acepciones del término es muy delgada. Desde los años
90 esta rama de la informática se ha convertido en un campo clave y prometedor
para el diseño de nuevos circuitos electrónicos complejos y robustos.
CHIP QUE SE ADAPTA
El desarrollo de este campo nos acerca al sueño de crear chips capaces de operar
en cualquier parte y con independencia de las condiciones externas, capaces de
adaptarse inmediatamente en función de la aplicación para el que fueron
asignados. Aunque el hardware ha evolucionado mucho en los últimos años, este
paso sería clave para que el ser humano se aproxime a una Inteligencia
Artificial "real".
Lo que hace el hardware del equipo de la Universidad de Oslo es incorporar el
equivalente de los genes de los seres vivos, y los utiliza para mejorar su
propio diseño. "Une genes" en el hardware para encontrar el diseño de hardware
más efectivo para desarrollar la tarea que se le asignó.
Sin embargo, mientras que en el mundo real tienen que pasar 20 ó 30 generaciones
(o sea, 800.000 ó 900.000 años) antes de que el sistema encuentre el diseño
perfecto para resolver el problema, en el hardware esto pasará en tan solo unos
segundos.
HENRIETTE
Este mismo equipo comenzó su aproximación al hardware evolutivo en 2004 cuando
crearon un robot con forma de gallina al que bautizaron como Henriette. Este
robot usó hardware evolutivo sobre un software hecho para que aprendiese a
caminar y a hablar solo.
En estos casos, el hardware puede resolver muchos problemas que no puede
resolver el software. Por ejemplo, un programador informático no puede pensar en
todos los problemas con los que se puede encontrar un robot recorriendo la
superficie de Marte. Mediante el hardware evolutivo el robot puede aprender por
él mismo y resolver una situación problemática sin la intervención humana.
El equipo quiere ahora diseñar un robot para ayudar en la instalación de
tuberías en oleoductos a 2.000 metros de profundidad, profundidades a las que es
prácticamente imposible comunicarse con un robot.
Fuente: Tendencias 21, 16 de Abril de 2007
-El Teide interesa a la NASA, a la espera de la decisión final de la UNESCO
También se han interesado por la candidatura la NASA, la Word Wild Fundation y la Asociación Americana para el Avance de la Ciencia
La dirección del Parque Nacional del Teide ha organizado una campaña internacional de apoyo a la candidatura del volcán y punto más elevado de España como Bien Natural del Patrimonio Mundial, a la que se han adherido instituciones como National Geographic España y por la que ha mostrado interés la NASA.
En la lista de apoyos a esta iniciativa figuran también el Consejo Nacional del Ambiente del Perú, el Museo Nacional de Historia Natural de Chile, el Indian Nacional Trust for Art and Cultural Heritage, la Fundación Antonio Núñez Jiménez de la Naturaleza y el Hombre de Cuba y la Asociación para el Avance de la Ciencia de Panamá.
También han firmado el documento la Universidad de Chile, el alcalde de la ciudad de Miami Manuel Díaz, la Comisión Nacional de Energía de España o el Cuban Heritage Collection de la Universidad de Miami.
Otras sociedades que han dado su respaldo a la candidatura son el Grupo para el Estudio y Conservación de los Espacios Naturales, el Eastern Africa Environmental Network de Kenia, la Secretaría Regional de Ambiente y la Dirección Regional de Ambiente de Azores y la Asociación Peruana para la Conservación de la Naturaleza, entre otras.
También se han interesado por la candidatura la Agencia Espacial de Estados Unidos (NASA), la Word Wild Fundation de Nueva Zelanda y la Asociación Americana para el Avance de la Ciencia.
Otras entidades internacionales han mostrado su interés en conocer detalles de esta candidatura, como son el Parque de los Volcanes de Hawai, la Autoridad Israelí para la Naturaleza y los Parques, el Consejo Nacional para Investigaciones Científicas y Tecnológicas de Costa Rica y la Fundación para la Paz Global y el Medioambiente de Japón.
Todas las instituciones coinciden en reconocer la extraordinaria singularidad de este parque considerado entre los espectáculos volcánicos más impresionantes del planeta, cuyo paisaje se encuentra dominado por una excepcional geología, fauna y flora de extraordinaria belleza.
Así las cosas, cada vez queda menos tiempo para que el Comité Internacional de la Unesco encargado de decidir si el Teide se convierte en sitio natural Patrimonio Mundial se reúna. Será entro los días 23 de junio y 2 de julio próximo en Nueva Zelanda.
La reunión del mes de junio próximo es la número 31 del Comité Internacional. En ella, representantes de los países indicados analizarán los expedientes presentados con el objeto de engrosar la lista actual de lugares Patrimonio Mundial, tanto en la categoría cultural como en las de bienes mixtos y naturales.
Cada país sólo puede presentar una candidatura por año. En 2007, el candidato español es el Parque Nacional del Teide, que opta a ser declarado bien natural Patrimonio Mundial este año. Asimismo, como propuesta compartida con Francia, España participa en la candidatura del Macizo de la Albera, en este caso como bien mixto.
Tras un largo camino, el Teide se enfrenta de este modo a la decisión definitiva acerca de su entrada o no en la lista de sitios naturales Patrimonio Mundial. Con el objeto de que sean reconocidos sus valores naturales al máximo nivel internacional, sobre todo porque son sobresalientes y excepcionales, el Parque Nacional del Teide inició en 2002 su andadura hacia la declaración como Patrimonio Mundial por parte de la Unesco.
El 17 de junio de 2005, el Consejo de Patrimonio Histórico (dependiente del Ministerio de Cultura) seleccionó al Teide como candidato oficial de España en la categoría de Patrimonio Natural y remitió a la Unesco la propuesta, tras analizar de forma detalla la integridad, singularidad, universalidad y el estado de conservación de este espacio protegido.
Fuente: Vocento, 14 de Abril de 2007
-Los científicos dicen que lograron hacer células inmaduras de esperma a partir de muestras de médula ósea humana
De conseguir que las células se conviertan en esperma desarrollado, algo que los investigadores esperan lograr antes de cinco años, éstas podrían usarse en tratamientos de fertilidad.
Esta es la primera vez que este tipo de células humanas se crean artificialmente de esta manera.
Sin embargo, los expertos advirtieron que los hallazgos del estudio realizado en Alemania deberían interpretarse con cautela en esta etapa tan temprana.
Los investigadores de la universidades de Gotinga y Münster y de la Escuela Médica de Hanóver aislaron células madre adultas -que tienen la capacidad de convertirse en muchos tipos de tejido del cuerpo- obtenidas de muestras de médula ósea tomadas de varones voluntarios.
Las células precursoras
Normalmente, estas células madre sacadas de la médula ósea se convierten en diferentes tipos de células del tejido muscular.
Pero los investigadores lograron inducir a un pequeño grupo de ellas para que se desarrollaran hasta lo que parecen ser células precursoras, presentes en los testículos, y que normalmente se convierten en células de esperma maduras.
El investigador principal, el profesor Karim Nayernia, dijo que esperaba que sus hallazgos signifiquen que algún día pueda tratar a jóvenes infértiles por causa de la quimioterapia.
Nayernia, quien ahora trabaja con la universidad británica Newcastle upon Tyne, dijo: "Estamos muy emocionados con este descubrimiento. Nuestro próximo objetivo es ver si podemos lograr que las células se desarrollen en esperma maduro en el laboratorio y esto puede llevar de tres a cinco años de experimentos".
El profesor reconoció que pueden surgir algunos escollos legales.
En el Reino Unido, una propuesta en un documento conocido como el "Informe Blanco", propone la prohibición de usar esperma u óvulos artificiales en la reproducción asistida.
Precaución
Por otro lado, el profesor Harry Moore del Centro de Biología de Células Madre de la Universidad de Sheffield, adviritió contra saltar a conclusiones demasiado rápido.
Según Moore, "este es un campo que avanza rápidamente pero aún estamos a muchos años de desarrollar cualquier terapia contra la infertilidad mediante el uso de tales técnicas", aunque reconoció que se trata de un hallazgo "de interés".
Moore dijo que casi todas las observaciones similares de transdiferenciación en células madre adultas no se habían confirmado cuando eran sometidas a rigurosas, de manera que los resultados pueden ser engañosos.
La transdiferenciación es el cambio de los tipos de células madre observado por los investigadores, que pasan de células pre-musculares a células pre-reproductivas.
También advirtió que manipular células madre para que se conviertan en esperma maduro puede causar cambios genéticos permanentes en el esperma, lo que haría que las células sean inseguras para la reproducción asistida.
Sin embargo, el doctor Allan Pacey, secretario de la Sociedad Británica de Fertilidad, dijo que "este tipo de trabajo será muy útil para ayudarnos a entender la biología de cómo se hace el esperma".
"Eso por sí mismo puede permitir ver por qué a veces las cosas no funcionan y pueden llevar a nuevos enfoques para tratar la infertilidad masculina".
Los hallazgos fueron presentados en una conferencia internacional de fertilidad.
1) Células madre aisladas de la médula ósea de voluntarios varones.
2) En el laboratorio, las células madre se cultivan y son identificadas. A algunas se les induce para que se conviertan en células precursoras, que normalmente se convierten en células de esperma
3) Transplante de células dentro del testículo. Hasta ahora, sólo se ha hecho en ratones.
Fuente: BBC, 13 de Abril de 2007
-Secuencian el genoma del macaco
Los resultados muestran que humanos,
chimpancés y macacos comparten el 97,5% de sus genes y que este porcentaje se
reduce al 93% cuando se comparan las secuencias de ADN que humanos y macacos
comparten.
Los macacos divergieron hace 25 millones de años de los ancestros del Homo
Sapiens, y desde entonces estos primates, los primeros en llegar al espacio y
considerados sagrados en la cultura hindú, han seguido una evolución genética
distinta a la de los humanos. El trabajo supone, según sus autores, una poderosa
herramienta para comprender las claves de la biología humana que se refieren a
la salud y la enfermedad.
El ADN empleado para el estudio, liderado por Roger Gibbs del
'Baylor
College of Medicine Human Genome Sequencing Center'
en Houston, se obtuvo de una hembra de macaco rhesus del Centro Nacional de
Investigación de Primates Southwest. Esta muestra se combinó con otras de otros
centros hasta alcanzar una muestra final a comparar con el genoma humano, un
borrador nuevo del genoma del chimpancé, la secuencia de más de una docena de
especies, el HapMap humano y la Base de Datos de las Mutaciones Genéticas
Humanas.
Una de las principales características es que el genoma del macaco es menos
parecido al genoma humano que el del chimpancé, que posee una similitud del 99%
con el humano, lo que significa que la comparación entre el genoma humano y el
del macaco podrá ofrecer más datos sobre las características que se han
conservado en los primates con el paso del tiempo que la que ofrecería la
comparación entre chimpancés y humanos.
Los investigadores han identificado cerca de 200 genes que podrían ser claves
para determinar las diferencias entre las especies de primates. Estos genes
intervienen en aspectos como la formación del pelo, la respuesta inmune, las
proteínas de membrana y la fusión entre esperma y óvulo.
Muchos de estos genes se localizan en áreas del genoma del primate que han
sufrido una duplicación, lo que indica que tener una copia extra de un gen
podría permitir una evolución más rápida y que las pequeñas duplicaciones son
una característica clave de la evolución de los primates.
Los científicos también descubrieron que existen casos en los que la forma
normal de ciertas proteínas del macaco se parece a la de proteínas humanas
enfermas. Este es el caso de la fenilcetonuria, un trastorno genético que puede
causar daños en el cerebro y retraso mental en los humanos debido a los defectos
existentes en una enzima.
VIH Y ADN BASURA
Entre los trabajos realizados por el Consorcio, constituido por 170
investigadores de 35 instituciones, y publicados esta semana en 'Science' se
encuentra uno dirigido por Kyudong Han, de la
Universidad
del Estado de Louisiana, que realiza una
comparación entre los elementos móviles del genoma, el denominado 'ADN egoísta'.
Los científicos han identificado unos 100.000 de estos elementos móviles en el
genoma de macaco que aparecieron después de la divergencia con el genoma humano.
Estos elementos, descubiertos por Barbara McClintock que recibió el Premio Nobel
por su trabajo, suponen casi la mitad del genoma pero se cree que no poseen
ninguna función. Según los investigadores, este 'ADN egoísta' puede causar
estragos al provocar enfermedades genéticas que incluyen el cáncer de mama, la
hemofilia o la hipercolesterolemia en los humanos, por lo que el interés se
centra en determinar la evolución de estos elementos móviles en los diferentes
genomas de primate y su impacto.
Los macacos rhesus son considerados el mejor modelo animal del virus de la
inmunodeficiencia humana (VIH). Así, otra de las investigaciones que publica 'Science'
se centra en el análisis genético de dos poblaciones de estos primates,
procedentes de China e India respectivamente, que divergieron hace 162.000 años.
La determinación de las variaciones genéticas en estas dos poblaciones es
importante por sus implicaciones biomédicas ya que estos subgrupos responden de
forma diferente a algunas enfermedades como por ejemplo el VIH. El estudio,
dirigido por Ryan D. Hernández, de la
Universidad de Cornell en Ithaca (Estados
Unidos), muestra que cuando son infectados por el VIH, los macacos chinos
desarrollan más lentamente los síntomas que aquellos procedentes de la India.
Fuente: El Mundo, 13 de Abril de 2007
-Un gen duplicado predispone a la obesidad
Un grupo de científicos británicos han descubierto que la duplicación de un gen es un factor crucial del sobrepeso de muchas personas, según revela un estudio divulgado por la revista Science. Según los investigadores de Wellcome Trust, el mayor organismo de investigaciones médicas del Reino Unido, cuando una persona tiene dos copias o alelos del gen, identificado como FTO, corre el 70 por ciento más de riesgo de ser obesa.
Según las autoridades de la
Organización Mundial de la Salud, la obesidad
es uno de los principales factores de enfermedades graves, entre ellas la
diabetes tipo 2, los problemas cardiovasculares y el cáncer.
En Estados Unidos, el problema se ha convertido en una epidemia y las
autoridades de la salud señalan que alrededor del 60 por ciento de la población
de más de 300 millones tiene problemas de sobrepeso o es obesa.
El descubrimiento fue hecho durante un análisis de 37.000 muestras del gen
procedentes de Briston, Dundee y Exeter, así como de otras regiones del Reino
Unido y Finlandia y, según el estudio, uno de cada seis europeos blancos tiene
una duplicación del gen.
"Estamos comiendo más y haciendo menos ejercicio. Por lo tanto, estamos
aumentando de peso. Sin embargo, dentro de esta misma población hay quienes
engordan más que otros", según Andrew Hattersley, de la
Escuela de Medicina Península.
"Existe, sin duda, un componente en la obesidad que es genético", señala
Hattersley. Sin embargo, los científicos reconocen que, pese al descubrimiento
hecho en su estudio, todavía desconocen por qué algunas personas tienen dos
copias del gen y otras ninguna.
Fuente: EFE, 13 de Abril de 2007
-El español Joan Massagué consigue dar nuevas explicaciones sobre la metástasis
Para que surja una metástasis, la diseminación de un cáncer, una célula tumoral debe realizar un largo y peligroso viaje y tiene que hacerlo en unas condiciones precisas para que su misión última, la formación de un nuevo tumor en un órgano distante, tenga éxito. Esas condiciones, de acuerdo con los resultados de un estudio sobre el cáncer de mama liderado por Joan Massagué, dependen de la activación anómala de unos pocos genes. Gracias a ellos se forman nuevos capilares por donde escapa la célula tumoral del tumor primario y se abre paso hasta alcanzar el pulmón.
El equipo del investigador español
Joan Massagué, director del programa de Biología y Genética del Cáncer en el
prestigioso
Memorial Sloan-Kettering Cancer Center
de Nueva York (MSKCC) y director adjunto del
Instituto de Investigación Biomédica de Barcelona (IRB),
ha identificado hasta la fecha un paquete de 18 genes fuertemente implicados
en la aparición de metástasis. De todos ellos, según su nuevo trabajo, la
acción conjunta de tan sólo cuatro provoca al menos dos fenómenos esenciales
para que las metástasis tengan lugar. Por un lado, la formación de nuevos
vasos sanguíneos alrededor del propio tumor y, del otro, la perforación de los
pequeños capilares que proporcionan alimento y oxígeno a un órgano
determinado. En el estudio de Massagué, que publica la revista
Nature, los órganos
afectados son las mamas y los pulmones.
Los cuatro genes estudiados dan lugar a la formación de sendas proteínas "bien
conocidas", describía Massagué en conversación telefónica. Se trata de la
epirregulina, COX2 y de dos variantes de metaloproteasas que la célula excreta
en su espacio exterior. De estas proteínas era conocida su implicación en
procesos inflamatorios y su presencia en procesos tumorales, pero se ignoraba
el papel esencial que juegan en la diseminación de tumores y, aún más, que se
precisara de la actividad conjunta de todas ellas. "Es como una caja de
herramientas", ilustra Massagué. "Para hacer un agujero en la pared necesitas
una escarpia y un martillo, pero ambos deben usarse conjuntamente".
La acción conjunta de estas cuatro proteínas provoca, según se ha visto en
experimentos realizados en 738 tumores de mama humanos inducidos a ratones, la
formación de nuevos vasos sanguíneos alrededor del tumor, fenómeno conocido
como angiogénesis. Gracias a estos nuevos vasos, el tumor se nutre de oxígeno
y alimentos adicionales, factor que favorece su crecimiento. Pero estos vasos
presentan algo así como una imperfección, son porosos. A través de los poros
escapan las células tumorales hacia el torrente sanguíneo. "Sabíamos que por
cada centímetro cúbico de un tumor agresivo [tamaño equivalente a un garbanzo]
puede llegar a escaparse hasta un millón de células malignas", señala Massagué.
Lo que no se sabía era exactamente cómo ni cuáles eran los genes y proteínas
implicados.
También se sabía que, una vez alcanzado el torrente sanguíneo, las células
tumorales deben estar "suficientemente preparadas" para resistir la embestida
del sistema natural de defensas y, en un momento dado, salirse del sistema
circulatorio para anidar en un órgano distante. El trabajo publicado por
Massagué explica cómo la célula maligna se sale de los capilares que alimentan
a los pulmones y propone claves para entender su resistencia en un medio tan
hostil como la sangre.
De nuevo, es la acción conjunta de las cuatro proteínas lo que permite que una
célula cancerosa se abra paso literalmente entre las células que forman la
pared de un minúsculo capilar. Y lo que se ha visto es que lo hacen casi como
resbalando entre las sustancias que cementan las células del capilar.
En otro trabajo, publicado en la revista
PNAS,
Massagué y científicos de otras instituciones y países exploran el papel de
todo el grupo de 18 genes, que denominan la firma de la metástasis, en el
crecimiento del tumor de mama y su extensión a los pulmones.
En el estudio de estos 18 genes, de los cuales el científico español vaticina
que "más de la mitad podrían tener un papel "relevante", participará el
investigador Roger Gomis, actualmente miembro del Laboratorio de Metástasis
que el propio Massagué impulsa en el IRB de Barcelona. Gomis, junto con
Cristina Nadal, ha participado en el trabajo que se refleja en el artículo
publicado en Nature.
EL VIAJE DEL CÁNCER
La acción conjunta de las cuatro proteínas provoca, según se ha visto en
experimentos realizados en 738 tumores de mama humanos inducidos a ratones, la
formación de nuevos vasos sanguíneos alrededor del tumor. Los vasos son
porosos. A través de los poros escapan las células tumorales hacia el torrente
sanguíneo desde donde vuelven a salir en el pulmón. Cuando llega a un nuevo
órgano, la célula anida. Las proteínas crean nuevos capilares y se produce un
nuevo cáncer.
OBJETIVO: ANULAR LOS PODERES DE LAS CÉLULAS CANCEROSAS
El 90% de las muertes atribuidas a un cáncer se debe a su diseminación a
órganos vitales como el pulmón, el hueso, el hígado o el cerebro. Este
proceso, que puede durar desde unos meses hasta varios años dependiendo del
origen del tumor original y de su agresividad, provoca en España la muerte de
casi 95.000 personas cada año para un total de unos 160.000 casos nuevos
diagnosticados en el mismo periodo, según datos del
Centro
Nacional de Epidemiología.
En el cáncer de mama, la proporción varía enormemente con respecto a la total.
De 16.000 casos nuevos diagnosticados por año, la mortalidad se reduce a 6.000
personas en el mismo tiempo, una cifra que tiende a disminuir en los últimos
años. Hoy la supervivencia global a los cinco años del diagnóstico supera con
creces el 70%.
La mejora de los resultados para esta y otras formas de cáncer depende en
buena medida del éxito de programas de detección precoz mediante pruebas de
cribado específico y de la incorporación al arsenal terapéutico de fármacos
que en lugar de perseguir la destrucción de la célula tumoral, pretenden
interferir en la acción de genes cuya mutación determina que esta misma célula
adquiera capacidades anómalas, entre otras, las de replicación ilimitada,
invadir tejidos y provocar metástasis o producir nuevos vasos sanguíneos para
asegurarse su supervivencia. Cada una de estas capacidades representa un
conjunto de dianas terapéuticas sobre las que se están ensayando unos 500
productos farmacéuticos.
El hallazgo del equipo liderado por Massagué se inscribe en esta línea, puesto
que aporta luz y taquígrafos al conocimiento de los mecanismos básicos que
median en las metástasis gracias a la identificación de las proteínas que
intervienen en ellas. Los fármacos capaces de frenar la metástasis, por tanto,
deberían ser capaces de bloquear la acción de estas proteínas.
UNA ENTRE MILLONES
Del proceso de metástasis suele decirse que es muy poco eficaz en términos
biológicos. Para que una sola célula maligna provoque la aparición de un tumor
en un órgano a distancia es preciso que cada día, por espacio de meses o
incluso años, se escapen millones de células del tumor original.
La gran mayoría de ellas fracasa en su intento apenas iniciado el proceso. En
esencia, explica Massagué, porque incorporan mutaciones "tan aberrantes" que
hace que las células que se escapan sean "simplemente inviables". Las
mutaciones que contienen algunas pocas células, sin embargo, favorecen un
viaje casi imposible en el que deben sobrevivir en el torrente sanguíneo (se
han detectado células malignas que emplean a las distintas células de la
sangre como vehículo de transporte), vencer los ataques del sistema
inmunológico, adherirse y traspasar los capilares, adaptarse a un nuevo medio
(huesos, pulmones, hígado y cerebro son los más temidos) y ahí volver a
proliferar hasta formar un nuevo tumor. Todas estas acciones tienen lugar,
"muy probablemente", según Massagué, gracias a la participación de medio
centenar de genes. De ellos, tan solo 18 se han identificado como
participantes en el trayecto. Otros 30 participan exclusivamente, al parecer,
en el mecanismo de nidificación en los pulmones. Por lo que se está viendo,
estos 30 genes reactivarían parte del proceso embrionario, de modo que las
células tumorales se comportarían como células madre.
DOS FÁRMACOS EN EL MERCADO
El descubrimiento de Joan Massagué, en el que han participado investigadores
del Hospital Clínico y del Instituto de Investigación Biomédica, ambos de
Barcelona, cuenta con trascendencia clínica de aplicación "casi inmediata". La
razón es la existencia de dos fármacos, cetuximab y celecoxib, ambos ya
disponibles en el mercado, cuya acción conjunta frena extraordinariamente la
progresión de la enfermedad. En modelos animales, ha señalado Massagué a este
diario, la actividad metastásica se detiene hasta quedar en un 10% con
respecto a la original. A efectos prácticos, esto significa que se forman
muchísimos menos vasos sanguíneos en el tumor original, con lo que recibe
nutrientes por debajo de sus necesidades energéticas, y las células tumorales
parecen perder su capacidad para atravesar los capilares.
Cetuximab es un anticuerpo monoclonal que ya se está usando para combatir las
metástasis de cáncer colorrectal, mientras que celecoxib es un
antiinflamatorio cuyo uso está siendo investigado en algunas formas de cáncer.
Aunque su éxito terapéutico por separado está en discusión, el uso conjunto de
ambos fármacos se presume que podría frenar la progresión de metástasis de
cáncer de mama a pulmón, a tenor de lo que indican los hallazgos de Massagué.
Para ello, indica, es necesario "diseñar estudios clínicos" que validen su
eficacia en forma de cóctel. Este tipo de estudios, añade, pueden ponerse en
marcha "de inmediato".
Fuente: El País, 12 de Abril de 2007
-Detectan agua en un planeta distante
Un científico estadounidense dijo que detectó agua en la atmósfera de un planeta fuera de nuestro Sistema Solar.
Si las conclusiones del astrónomo Travis Barman, del observatorio Lowell en Flagstaff, Arizona, son correctas, sería la primera vez que se descubre agua en un planeta de otra estrella.
La estrella evapora el agua del planeta
El planeta, conocido como HD 209458b, es un gigante de gas parecido a Júpiter, situado a 150 años-luz de la Tierra, en la constelación Pegaso.
En un estudio dado a conocer en febrero, otros investigadores habían dicho que no pudieron encontrar indicios de la existencia de agua en la atmósfera de este planeta ni en la de otro similar.
Sin embargo, en un artículo publicado en la revista especializada Astrophysical Journal, Barman dijo que halló evidencias de que hay absorción de agua en la atmósfera de HD 209458b.
Sus conclusiones se basaron en un análisis de mediciones realizadas con ayuda del Telescopio Espacial Hubble por una astrónoma de la Universidad de Harvard, Estados Unidos, Heather Knutson, y en nuevos modelos teóricos que él mismo desarrolló.
¿Hay vida?
Barman señaló que el resultado de su investigación permite inferir que otros planetas fuera del Sistema Solar también tienen vapor de agua en sus atmósferas.
"Me siento muy seguro", dijo, "sin duda es una buena noticia porque desde hace tiempo se había predicho la existencia de agua en la atmósfera de este planeta y en las de muchos otros".
El astrónomo añadió que es muy poco probable que en planetas gaseosos como éste haya vida.
"Entender la distribución de agua en otros sistemas solares es importante para comprender si es posibles o no que haya vida", dijo.
Gran proximidad
La principal dificultad para detectar agua y otros componentes en planetas como éste es la gran proximidad con que orbitan alrededor de sus estrellas.
El calor generado por la estrella es tan grande que la atmósfera exterior del planeta se expande y trata de escapar de su fuerza de gravedad.
La investigación de Barman se basa en el hecho de que HD 209458b, visto desde la perspectiva de la Tierra, pasa directamente frente a su estrella cada tres días y medio.
Cuando un planeta pasa frente a su estrella, su atmósfera bloquea una cantidad diferente de luz de ésta, a diferentes longitudes de onda.
En particular, la absorción de agua en la atmósfera de
un planeta gigante lo hace parecer mayor en un fragmento específico del espectro
infrarrojo, en comparación con las longitudes de onda del espectro visible.
Fuente: BBC, 11 de Abril de 2007
-La ONU quiere tratar el cambio climático más en serio
La ONU considera convocar en septiembre una reunión de alto nivel para tratar el cambio climático antes de la conferencia de Bali en diciembre, según lo ha manifestado el secretario general, Ban, de la organización, Ban Ki-moon.
En una entrevista concedida al diario 'Financial Times', Ban afirma que se trata de un plan "práctico y realista", pues participarían ministros e importantes delegaciones de los distintos países que acudan a la Asamblea General de la ONU en septiembre.
Esta reunión "podría aportar algunas directrices claras al encuentro de Bali en diciembre", añade el secretario general. Suponiendo que tenga éxito, "una cumbre tendrá que celebrarse después. Tal vez en 2008 o 2009", agrega.
El secretario general de Naciones Unidas se mostró a favor de un encuentro menos ambicioso que una cumbre pero que sea de alto nivel para que los países tengan flexibilidad a la hora de decidir quienes les representarán.
Además, ha puntualizado que, después de acudir el próximo junio a la cumbre del Grupo de los Ocho (G8, los siete países más ricos y Rusia) en Alemania, "tal vez esté en una posición más clara para proponer una iniciativa" concreta, en referencia a una reunión en septiembre.
En la conferencia sobre el clima de Bali se deben sentar las bases para un nuevo Protocolo postKioto para después de 2012.
Fuente: El Mundo, 11 de Abril de 2007
-Los restos de Juana de Arco son un fraude
Las presuntas reliquias de santa Juana de Arco no son restos de la heroína francesa quemada en la hoguera en 1431, sino una falsificación realizada a partir de una momia egipcia, según publica la revista británica Nature.
Un equipo de científicos franceses al
mando del doctor Philippe Charlier obtuvo en 2006 el permiso de la Iglesia
francesa para investigar los restos de huesos y ropa que supuestamente
pertenecieron a la Doncella de Orleans.
Tras someter las reliquias a complejos análisis biológicos, radiológicos,
toxicológicos y de carbono 14 durante seis meses, los forenses concluyeron que
los presuntos restos de la heroína francesa provienen de una momia egipcia de
entre los siglos tercero y sexto antes de Cristo.
En la investigación también se utilizó el olfato de los perfumistas Sylvaine
Delacourte y Jean Michel Duriez, de las perfumerías francesas Guerlain y Jean
Patou, respectivamente, cuyas sensitivas narices revelaron que los restos olían
a yeso quemado y a vainilla, lo que sugiere que se trató de una descomposición
natural y no de un proceso de combustión.
"Podrías encontrar el olor a vainilla en un momia, pero no en los restos de
alguien que murió en la hoguera", sostiene Charlier, cuyos análisis microscópico
y químico también indican que no se trataba de huesos carbonizados.
Tras un proceso legal manipulado por los ingleses, a los que Juana de Arco
combatió para expulsarlos de Francia, la guerrera de diecinueve años fue
condenada a morir en la hoguera en Rouen (norte de Francia).
Aunque una leyenda asegura que los restos de la santa fueron arrojados al río
Sena para que no quedara nada que sus partidarios pudieran venerar, otra versión
apunta a que se recuperaron de entre los leños quemados restos de su cuerpo y
sus pertenencias, que se han conservado hasta ahora en el arzobispado de Tours.
Bajo la descripción "Reliquias encontradas en la hoguera de Juana de Arco,
doncella de Orleans", los supuestos restos de la heroína fueron descubiertos en
1867 en una jarra en una farmacia de París.
El recipiente contenía una costilla humana aparentemente carbonizada, restos que
parecen ser madera quemada, un trozo de lino y el fémur de un gato, ligado a la
práctica medieval de lanzar gatos negros a la hoguera de las mujeres quemadas
por brujería.
Charlier, científico forense del hospital
Raymond Poincaré de Garches,
se mostró "atónito" con los resultados del análisis de las reliquias y explicó
que nunca se le habría ocurrido pensar que perteneciesen a una momia.
El investigador atribuye la relación entre las supuestas reliquias de Juana de
Arco y los restos funerarios de la época faraónica a que en la Edad Media
algunos remedios medicinales utilizaban restos de momias egipcias.
Charlier, que en su estudio tuvo que afrontar la escasez de datos reales sobre
Juana de Arco por la multitud de leyendas que pesan sobre ella, sostiene que el
redescubrimiento de los supuestos restos en el siglo XIX coincidió con el
periodo en que los historiadores franceses la erigieron en mito nacional.
Quemada el 29 de mayo de 1431, beatificada en 1909 y canonizada en 1920, Juana
de Arco, nacida en una familia campesina, llegó a encabezar varias campañas
militares francesas en la Guerra de los Cien Años, tras proclamar que se le
habían aparecido ángeles y santos para transmitirle el mandato divino de
expulsar de Francia a los ingleses.
La Doncella de Orleans fue capturada en 1430 y juzgada al año siguiente por
herejía y brujería por un tribunal eclesiástico que la condenó a la hoguera.
Fuente: EFE, 10 de Abril de 2007
-El acelerador de partículas estalla por errores en los cálculos
El acelerador de partículas más famoso del mundo, el que se aloja en el subsuelo del Consejo Europeo de Investigación Nuclear (CERN) en Ginebra (Suiza), ha sufrido un daño catastrófico después de producirse una gran explosión en sus profundidades. El 'big bang' tiene una explicación absolutamente científica: un error matemático en el diseño de los grandes imanes que se utilizan en la estructura.
Según publica el
diario
'The Times', la explosión
se produjo el pasado 27 de marzo, y levantó de sus sujeciones un imán de 20
toneladas de peso, llenando de helio una de las galerías y obligando a evacuar
el complejo. "Fue una explosión enorme. El túnel que aloja los imanes se llenó
de helio y polvo y tuvimos que llamar a los bomberos para evacuar el edificio y
tratar de ver los daños causados por la explosión", relató al diario británico
un científico presente en el centro en el momento del suceso.
Para que el acelerador de partículas vuelva a funcionar, los técnicos deberán
desmontar y reparar 24 imanes situados a lo largo de los 27 kilómetros del
túnel, denominado 'Gran Colisionador de Hadrones'. Tendrán que ser desmontados y
reparados o actualizados. Según explicó el CERN en una nota de prensa, "el fallo
matemático afecta al sistema de anclaje, que resultó ser insuficiente una vez el
mecanismo entró en funcionamiento".
Una vez reparados los gigantescos imanes -elaborados con un material denominado
G-11- los técnicos del CERN someterán las infraestructuras a toda una serie de
pruebas para ver su resistencia, aunque esperan que vuelva a funcionar con
normalidad en el mes de junio.
El incidente deja en muy mal lugar a Fermilab, el laboratorio de física
estadounidense que construyó los imanes y los anclajes que han explotado. Según
informa 'The Times', este laboratorio cometió "errores elementales de cálculo en
el diseño de los imanes y sus sujeciones".
Lo ha reconocido el propio director de Fermilab, Pier Oddone, que en un correo
electrónico enviado tras la explosión a sus empleados -y que cita 'The Times'-
asegura que habían provocado "una cagada mundial".
El Gran Colisionador de Hadrones es el mayor acelerador de partículas del mundo
y ayudará a los científicos a conocer mejor el momento inmediatamente posterior
al Big Bang. Su función es crear un potente campo magnético en una zona concreta
del gran acelerador, donde se construye un detector de dimensiones
espectaculares y a 45 metros bajo tierra, encargado de recoger datos de las
partículas que son aceleradas y colisionadas en esa gran circunferencia.
Con el campo magnético creado, los científicos podrán alterar la ruta de las
partículas, hacerlas colisionar y estudiarlas, lo que dará más pistas a la
comunidad científica sobre qué tipo de elementos había en el universo justo
después de que se produjera el Big Bang.
También permitirá avanzar en saber de qué está hecho el 96% de lo que se
desconoce del universo, por qué las partículas tienen masa o por qué la
naturaleza prefiere la materia que la antimateria, según explica el CERN.
El túnel donde explotaron los imanes es una instalación de 46 Kilómetros de
largo, 25 metros de ancho y otros 25 de alto, que se tardaría en recorrer a pie
más de cuatro horas. Al ser liberados, los hadrones colisionarán unos 800
millones de veces por segundo, reproduciendo así la situación próxima a la
inmediatamente posterior a la del Big Bang.
Fuente: El
Mundo, 10 de Abril de 2007
-Dos cosmonautas y un turista llegan en la Soyuz a la Estación Espacial
La nave Soyuz TMA-10 con los cosmonautas rusos Fiódor Yurchijin y Oleg Kótov y el millonario estadounidense Charles Simonyi ha atracado con éxito en la Estación Espacial Internacional (ISS).
La operación de enganche de la Soyuz TMA-10 al módulo ruso Zvezdá de la ISS se efectuó de forma automática a las 21.11 (hora española), un minuto antes de la hora inicialmente prevista, informó el Centro de Control de Vuelos Espaciales de Rusia.
Conforme las normas vigentes, la Soyuz antes de acoplarse dio una vuelta en torno a la plataforma orbital, y sus tripulantes hasta el final de la maniobra y la apertura de las escotillas visten sus escafandras espaciales, dijo a la prensa un portavoz del Centro.
Horas antes, se había informado de que los dos cosmonautas y el turista espacial se estaban adaptando bien a la ingravidez.
Una particularidad de esta misión consiste en que ninguno de los astronautas que viajan con Simonyi tenía hasta ahora experiencia de vuelo en las naves rusas Soyuz, pues sólo Yurchijin ha cumplido una misión, en un transbordador estadounidense.
Simonyi, de 58 años, desarrollará durante su permanencia de diez días en el espacio un ciclo de experimentos para agencias espaciales de varios países de Europa, entidades científicas y empresas comerciales, y ofrecerá entrevistas a través de internet.
El quinto turista espacial es un millonario reconocido en el mundo de la informática y uno de los fundadores de la empresa Microsoft, donde trabajo hasta 1981 en el desarrollo de proyectos como el editor de texto Word y la hoja de cálculo Excel.
Según fuentes oficiosas, Simonyi desembolsó unos 25 millones de dólares por cumplir su sueño de emprender una aventura espacial, que incluye una misión de doce días, ocho de ellos a bordo de la ISS.
Yurchijin y Kotov -quien se convirtió en el centésimo cosmonauta ruso y el número 452 en la clasificación internacional- integran la decimoquinta expedición permanente (ISS-15) que llevará a cabo una misión de al menos 189 días a bordo de la plataforma orbital.
Los dos cosmonautas reemplazarán en la órbita al ruso Mijail Tiurin y al estadounidense de origen español Michael López-Alegría, que junto a su compatriota Sunita Williams integran la actual tripulación ISS-14 que habita el ingenio espacial.
Tiurin y López-Alegría, quienes también pasaron en el espacio medio año, regresarán a la Tierra junto con Simonyi el próximo 20 de abril en la nave 'Soyuz TMA-9', actualmente adosada al laboratorio orbital.
Williams, que llegó al ingenio en el transbordador 'Discovery' el pasado diciembre, se quedará a bordo para integrarse como tercera tripulante de la ISS-15.
Fuente: Agencias, 9 de Abril de 2007
-Diez maravillas de la naturaleza peligran por el cambio climático
Algunas de las joyas naturales que atesora el planeta pueden desaparecer si no se mitiga el cambio climático. Esta es la dura advertencia lanzada por el Fondo Mundial para la Vida Silvestre (WWF/ Adena), que ha elaborado un informe que diagnostica la salud ambiental de diez maravillas naturales seleccionadas por esta organización.
El blanqueo de los arrecifes de coral
del Pacífico, las consecuencias de la pérdida de caudal en los grandes ríos de
Asia que se alimentan del Himalaya o la muerte anunciada de las tortugas del
Caribe son algunas de las etapas de este viaje. Los hábitats del tigre de
Bengala o del oso panda en el alto Yangtsé están amenazados, como el alerce de
la región chilena de Valdivia, un árbol que puede vivir 3.000 años y cuyos
anillos son una fotografía retrospectiva del cambio climático.
ARRECIFES BLANQUEADOS
El cambio climático hace que esté en juego la gran barrera de coral de Australia
y del Pacífico, cuyos ecosistemas albergan el 25% de la fauna marina, aunque
sólo ocupan el 0,25% de los océanos.
El calentamiento de las aguas provoca la muerte de las algas (zooxantelas) que
viven adheridas al coral y que le dan color. Sin ellas, los corales pierden su
color, no se pueden recuperar y mueren. Además, la acidificación de las aguas
(al absorber CO2) les resta capacidad para afrontar ésta y otras enfermedades.
Los arrecifes están valorados en unos 30.000 millones de dólares y sirven de
sustento a muchos países en desarrollo.
CARIBE SIN PLAYAS PARA LAS TORTUGAS
El calentamiento puede ser la puntilla para las tortugas marinas del Caribe, ya
muy amenazadas. WWF/ Adena alerta de que la subida del nivel de las aguas hará
desaparecer las playas en donde ponen sus huevos. Además, las tortugas no serán
capaces de reproducirse si aumenta la temperatura, pues este fenómeno alterará
la ratio entre hembras y machos. Otro problema es que sus fuentes de alimentos
desaparecerán en la medida en que los arrecifes de coral mueran.
ALERCES MILENARIOS DE CHILE, TESTIGOS
Los bosques de alerces de Chile y Argentina pueden sucumbir. Este árbol, que
puede vivir hasta 3.000 años y es un testigo de la evolución climática (es el
segundo más viejo del mundo, sólo crece un milímetro al año y puede alcanzar los
100 metros) afronta un nuevo reto. Y eso, cuando los anillos de su tronco han
demostrado el rápido aumento de las temperaturas en los últimos cien años. Ahora
se enfrenta a la rápida desaparición de los glaciares en los Andes (que va a
causar drásticos cambios en los recursos hidráulicos en la región) y a las
nuevas pautas meteorológicas, con lluvias cada vez más raras, largas sequías y
fuegos forestales frecuentes.
EL DESIERTO QUE CRUZA UN RÍO
El desierto de Chihuahua (México y EE.UU.), atravesado por Río Grande (Río
Bravo), es otro escenario en transformación. Una región con 3.500 especies de
plantas, rica por su variedad de yuca y cactus, depende de las erráticas nevadas
en las montañas de Estados Unidos. Además, el río Conchos, principal afluente
del Río Grande, suele sufrir las sequías, por lo que algunos años ni siquiera
alcanza el mar. El desierto de Chihuahua ya ha sufrido una fuerte explotación
agrícola y ganadera y una sobreextracción del río. Ahora, cambios en las pautas
de lluvias y de la nieve han intensificado los bombeos de las reservas del
subsuelo.
LA 'SABANA' AMAZÓNICA
Las predicciones indican que hacia 2050 la Amazonia aumentará su temperatura
entre 2 y 3 grados, lo que, unido al descenso de las lluvias los meses secos,
expandirá la sequía. Un medio ambiente más seco y más cálido podría convertir
entre un 30% y un 60% de la región en un bosque parecido a una sabana seca. La
cuenca amazónica (con unos 6,9 millones de km2 ,40.000 especies de plantas y 427
de mamíferos) es la selva tropical más extensa del mundo y actúa como un gran
laboratorio hidrológico que juega un papel clave en el clima mundial.
EL TIGRE DE BENGALA
Otra región amenazada son los bosques de manglares del delta de Sundarbans, en
el golfo de Bengala, en donde convergen el Ganges y el Brahmaputra. Aquí, el
cambio climático incide sobre el único hábitat de manglares que alberga el tigre
de Bengala (Pantera tigris tigris).
Las tormentas en la estación de los monzones son ahora incluso más violentas, y
la subida del nivel del mar ya se está produciendo, dice WWF. Los científicos
estiman que, para el 2020, entre el 15% del territorio de las 12 islas
Sundarbans más vulnerables desaparecerá. Y más de un millón de personas se verán
afectadas. Se han construido diques para proteger asentamientos y campos de
arroz, pero las aguas siempre abren la brecha y se requiere redoblar esfuerzo
para mantenerlos intactos. Dos islas en la zona india han desaparecido en pocos
años, agrega el mismo informe.
EL YANGTSÉ PIERDE CAUDAL
El Yangtsé, el río más largo de Asia y tercero del mundo, puede pagar las
consecuencias de los deshielos en la altiplanicie del Tíbet, en donde nace. Los
glaciares de la meseta tibetana probablemente se reducirán. Medían 1.168
kilómetros cuadrados en 1970 y bajarán a 1.087 en la década de 2030. La falta de
nieve supondrá una pérdida de recursos de agua. Los principales ríos que se
nutren de los glaciares y que recorren China han perdido ya caudal en verano. La
parte alta del Yangtsé es una de los dos regiones donde el oso panda sobrevive
en estado salvaje.
GLACIARES DEL HIMALAYA
Algunos glaciares del Himalaya están retrocediendo a un ritmo de 10 a 15 metros
por año, y esta pérdida afectará a los flujos de agua en las estaciones secas de
China e India, lo que causará escasez de agua dulce en los meses del verano,
justo cuando el deshielo aporta más del 75% del caudal de los grandes ríos que
nacen en esta zona (Ganges, Indus, Brahmaputra, Mekong, Yangtsé). En el Ganges
(India), la pérdida de agua por el deshielo glaciar provocará penurias a
millones de personas y afectará a tierras regables. En Nepal, deslizamientos e
inundaciones causan unas 400 muertes anuales y destruyen infraestructuras
valoradas en 2,5 millones de dólares.
Y EL SALMÓN
El informe también se detiene en analizar el incierto destino del salmón
silvestre en el mar de Bering, teniendo en cuenta lo extremadamente vulnerable
que es la región ártica, así como las zonas costeras del este de África. "Además
de presionar a los gobiernos para que establezcan medidas serias de reducción de
emisiones, también trabajamos en estrategias de adaptación que ofrezcan
protección a algunos de los lugares mas maravillosos del planeta y a sus
habitantes", afirmó Lara Hansen al presentar el informe. En España, Mar
Asunción, de Adena, reclamó al Gobierno medidas drásticas para frenar los gases
invernadero.
Fuente: La Vanguardia Digital, 9 de Abril de 2007
-Expertos desvelan claves sobre la circulación oceánica de hace 21000 años
Un equipo de científicos, uno de ellos de la Universidad Autónoma de Barcelona, ha desvelado nuevos datos sobre la circulación de las aguas del Atlántico Norte en la época del Ultimo Máximo Glacial, hace unos 21.000 años, a partir del análisis de sedimentos enterrados en las profundidades oceánicas.
El estudio, que podría dar claves sobre el
cambio climático, aparece publicado en el último número de la revista 'Science'
y se basa en el análisis de una serie de datos obtenidos a partir de restos de
productos almacenados en el fondo del océano, que incluyen isótopos de carbón de
antiguas conchas marinas y uranio en sedimentos.
Según las conclusiones de la investigación, la circulación del Océano Atlántico
Norte durante la época del Ultimo Máximo Glacial habría sido distinta respecto a
la actualidad, de forma ligeramente más lenta que hoy en día.
En la actualidad, las aguas más superficiales en el Atlántico Norte fluyen hacia
el norte, antes de sumergirse mar adentro y convertirse en aguas profundas con
destino hacia el sur, formando lo que se denomina circulación de cambio
meridional.
Este proceso juega "un papel crítico" en el clima, según los expertos,
especialmente en la redistribución del flujo calorífico; las aguas en la
superficie que fluyen hacia el norte son cálidas, mientras que las más profundas
con destino al sur son frías.
En la investigación participaron científicos como Rainer Zahn, de la Universidad
Autónoma de Barcelona, o Juan Carlos Herguera, de
CICESE, Oceanología (Baja California, México),
junto con otros de instituciones científicas de Estados Unidos, Reino Unido,
Rusia, Francia, Alemania, Noruega, Holanda o China, dirigidos por Jean Lynch-Stieglitz,
del
Georgia Institute of Technology,
en Atlanta.
Una de las preguntas que se planteaban los científicos y que propició esta
investigación era conocer si este modelo actual de circulación de las aguas
funcionaba del mismo modo durante una época antigua mucho más fría en el
Atlántico Norte.
A partir de los resultados de las investigaciones, los científicos sugieren que
aunque el proceso de cambio de la circulación oceánica durante el último Máximo
Glacial se produjo de forma ligeramente más lenta que hoy en día, tampoco
ocurrió excesivamente despacio.
La temperatura de la superficie marina y de la densidad del agua serían entonces
muy distintas respecto a la actualidad, lo que hace pensar que los mecanismos
causantes del cambio de circulación del Atlántico también podrían ser
diferentes.
Fuente: EFE, 9 de Abril de 2007
-El segundo informe del IPCC es más duro que el primero del año 2007
Representantes de más de 100 países reunidos en Bruselas han logrado cerrar un acuerdo sobre el informe de la ONU sobre los efectos del cambio climático en la Tierra. Según los científicos, la sequía y el deshielo de los glaciares dejarán sin agua dulce a más de 1.000 millones de personas, mientras en otras regiones se sufrirán fuertes trombas de agua e inundaciones.
El segundo de los cuatro informes sobre cambio climático elaborados por el panel de expertos de la ONU ha sido si cabe más apocalíptico que el primero: entre el 20 y el 30% de las especies animales y vegetales del planeta se extinguirá irremediablemente si el calentamiento prosigue al ritmo actual.
"Nos enfrentamos a una extinción masiva", señalan algunos de los autores, mientras desde las organizaciones ecologistas llaman a "luchar de inmediato" para tratar de frenar las terribles consecuencias.
"Lo que hemos conseguido es un muy buen documento", señaló a la BBC Rajendra Pachauri, presidente del Panel Intergubernamental del Cambio Climático (IPCC). El estudio señala que el cambio climático está teniendo "impactos muy importantes" en los ecosistemas, y unos efectos "discernibles, aunque menos evidentes" de impacto en las actividades humanas.
El próximo martes se presentarán los escenarios regionalizados de los efectos del cambio climático en diferentes lugares: en Madrid el de los países mediterráneos; en Ginebra el de las zonas alpinas; en Alejandría, el del Sáhara y el Medio Este; en Nueva Delhi, el de Asia; en Buenos Aires, el de Suramérica, en Nairobi, el del 'cuerno' de África, etc. Los informes serán enviados a los principales líderes mundiales antes de la próxima cumbre del G8 en junio, mientras que la tercera parte del informe, que analiza cómo mitigar los efectos de las concentraciones de gases de efecto invernadero, verá la luz en mayo.
Si en la primera parte del estudio –publicada el pasado mes de febrero- los científicos concluyeron que el causante del calentamiento del planeta era el hombre, con sus emisiones de gases de efecto invernadero a la atmósfera, ahora se han centrado en determinar cuáles serán sus efectos en la Tierra, así como lanzar una advertencia a los gobiernos de que deben "adaptarse a las consecuencias del cambio climático". "Los políticos no pueden ignorar los resultados de este estudio, porque el calentamiento ya está cambiando el mundo", dicen.
Según el informe, un incremento de 1,5ºC respecto a la temperatura media registrada en 1990 pondría al menos un tercio de las especies animales y vegetales e grave riesgo de extinción. Pero los daños no sólo los sufrirían animales y plantas. Más de 1.000 millones de personas padecerían escasez de agua, fundamentalmente debido al deshielo de los glaciares de montaña, una de las principales reservas de agua dulce del mundo.
Seis años han tardado los expertos que conforman el Panel Intergubernamental de Cambio climático (IPCC), auspiciado por la Organización Meteorológica Mundial y el Programa de Naciones Unidas para el Medio Ambiente, en plasmar en papel sus conclusiones. La primera de ellas, publicada el pasado mes de febrero, utilizaba un lenguaje claro para constatar que el calentamiento global es "muy probablemente" provocado por el hombre, y además el futuro del planeta no es demasiado halagüeño: "el cambio climático es como un tren que ha tomado la salida, y no podrá se podrá parar en siglos", señalaba.
En la segunda parte del exhaustivo estudio, que se debía publicar hoy en Bruselas, advierte que ya es demasiado tarde para prevenir algunos de los efectos del calentamiento del planeta: "El hombre sólo puede adaptarse a ello, sobre todo en lo que se refiere al incremento del nivel del mar y el impacto que eso tendrá en las islas", anuncia.
Y como casi siempre, serán las zonas más desfavorecidas de la Tierra las que sufran si cabe más las consecuencias de el constante incremento de emisiones de gases contaminantes a la atmósfera. "Cientos de millones de personas se verán amenazados por las inundaciones provocadas por el aumento del nivel del mar, especialmente cuando se derritan los polos", auguran los científicos. Por primera vez en un estudio de tal calado internacional, se ponen fechas concretas. En Europa, por ejemplo, de este año al 2080 las fuertes trombas de agua e inundaciones afectarán anualmente a dos millones y medio de personas.
Los científicos coinciden en que un incremento de 2ºC en la temperatura global del planeta significaría "una seria conversión de algunos hábitats", mientras que toda temperatura superior a esos 2ºC implicaría "un colapso de la mayoría de los ecosistemas". En su informe de febrero, los expertos predecían un incremento de entre 1,8ºC y 4ºC al final del siglo XXI, aunque en los polos el incremento sería de 6,4ºC. El deshielo de los polos ha incrementado el nivel del mar en 17 centímetros en el siglo XX, aunque desde el año 1993 ese ritmo crece a un ratio de 3,1 milímetros anuales.
Sin embargo, las diferentes posturas entre países, especialmente entre EEUU y la UE, han estado a punto de llevar al traste la publicación final del informe. Tras casi una semana de negociación, a última hora de la mañana del viernes varios países se mostraron contrarios a rubricar el texto final, ente otros EEUU, Rusia, China, La India o Arabia Saudí, lo que obligó a la ONU a posponer la presentación del estudio.
Y es que después del trabajo de los científicos, vinieron los políticos a editar el texto. Mientras los primeros habían mostrado en las 1.400 páginas del texto una gran dureza en sus conclusiones, los segundos ponían el grito en el cielo por algunos párrafos del estudio, que hablaban de certezas "muy elevadas" de consecuencias en los ecosistemas y pedían "acciones concretas" a algunos gobiernos.
Los negociadores de EEUU, China, La India, Arabia Saudí y Rusia optaron por bloquear la firma del informe hasta que no se suprimeran determinados párrafos, o al menos se 'suavizaran'.
Según Reuters, China se negó a primera hora de la mañana a firmar un párrafo que subraya "el riesgo muy elevado, basado en numerosas observaciones en muchos países y la mayor parte de los océanos, de que numerosos ecosistemas se verán muy afectados por el cambio climático". Según fuentes consultadas por la agencia, la delegación china quiere que se retire la frase "riesgo muy elevado".
Por su parte, los delegados de Estados Unidos han pedido -y obtenido- la eliminación de un párrafo que indicaba que América del norte "se enfrentará a graves consecuencias económicas y perturbaciones sustanciales de su sistema socio económico y cultural" de proseguir este ritmo de calentamiento.
España sufrirá los efectos del cambio climático a partir del 2025
"España está en una zona especialmente vulnerable al impacto del cambio climático y notará sus efectos adversos en los recursos hídricos, las costas, la biodiversidad y el ecosistema mediterráneo que, al padecer temperaturas más elevadas, sufrirá con más frecuencia incendios y olas de calor".
Así se expresó al término de la reunión internacional que dio el visto bueno al informe sobre cambio climático la subdirectora de la Oficina española de cambio climático, Concepción Martínez, que matizó que "existe una alta probabilidad de que empiecen a notarse ya a partir de 2020".
En declaraciones a la prensa al término de la maratoniana reunión –más de 24 horas en la que, para disgusto de la comunidad científica, los negociadores políticos han 'suavizado' algunas partes del texto-, Martínez destacó que "por primera vez se cuantifican los impactos del calentamiento, y existe una alta probabilidad de que empiecen a notarse ya a partir de 2020. Evidentemente si no se toman medidas y si se superan los dos grados centígrados, que es el objetivo que se ha marcado la UE, podrían agravarse más".
Según Greenpeace, "con cada informe de IPCC, desde el primero en 1990, ha aumentado la escala de riesgo". "Los primeros y peores impactos del cambio climático los están sufriendo los más pobres de los países en vías de desarrollo, que son muy vulnerables y tienen menos recursos para enfrentarse a ellos", señalan.
"Se vislumbra un futuro apocalíptico. La tierra será transformada por el cambio climático causado por el hombre, a no ser que hagamos algo pronto y rápido", dijo Stephanie Tunmore, responsable de la campaña de Energía y Cambio Climático de Greenpeace Internacional, en Bruselas. "Este informe nos dice que nos quedamos sin tiempo", matizó.
"Todos aquellos a los que les interese el destino de la Tierra deben exigir a los gobiernos que reduzcan las emisiones de gases de efecto invernadero, para prevenir lo peor y que esta pesadilla no llegue a ser realidad. Si fallamos y no hacemos algo rápido, decidido y contundente no habrá ningún lugar al que correr y ni en el que esconderse", dijo Tunmore.
Por su parte, fuentes de WWF/Adena señalaron a elmundo.es, que "el segundo informe del IPCC demuestra que la inacción no es una opción". "Los gobiernos tienen que actuar con la mayor urgencia y tienen que tomar medidas, porque si no lo hacen, el panorama al que nos enfrentaremos es desolador", sostienen.
El informe explica
cómo las variaciones de los rayos del sol en la superficie del planeta
rojo están relacionadas con el mayor movimiento de las partículas de polvo en
el aire y el incremento de la circulación del viento que Marte experimenta,
lo que, a su vez, propicia el aumento de las temperaturas.
Hasta ahora sólo se había atribuido a las radiaciones solares el mayor
movimiento del polvo marciano, pero no el aumento de la circulación de los
vientos ni su efecto en las temperaturas del planeta.
Además, los cambios en la cantidad de radiación solar que incide sobre la
superficie de Marte y que ésta refleja, relación que en términos científicos se
conoce como albedo, refuerzan los vientos que generan el cambio climático.
Los científicos estadounidenses, entre los que se encuentra Robert M. Haberle de
la NASA, describen cómo en las últimas tres décadas se ha producido un
aumento de la circulación del viento en las áreas más oscuras de Marte, mientras
que se ha reducido en las áreas más luminosas del planeta.
El informe concluye que los cambios en el albedo pueden dar lugar a nuevos
fenómenos climáticos en el planeta rojo y sugiere que en el futuro se consideren
los cambios en las radiaciones solares en Marte a la hora de investigar su
atmósfera y clima.
Fuente: Terra,
4 de Abril de 2007
-Gran Hermano espacial camino de Marte
Seis personas se encerrarán 500 días sin más conexión con el exterior que una comunicación posible cada 40 minutos para simular lo que sería un viaje tripulado a Marte, según ha informahoy la Agencia Espacial Europea (ESA), que elegirá a dos de los voluntarios para la misión, bautizada como 'Mars500'.
La misión, organizada y desarrollada por el Instituto para Problemas Biomédicos Ruso (IBMP) con la colaboración de la ESA, tiene como objetivo averiguar los efectos médicos y psicológicos de un encierro tan prolongado, algo menos del que sería necesario para hacer realidad un viaje tripulado a Marte.
La selección de los candidatos será muy parecida a la que la ESA ya desarrolla con los astronautas, y por ello los que quieran participar tendrán que tener conocimientos médicos, científicos y de ingeniería, aunque las condiciones físicas podrán ser "un poquito menos exigentes" que las que tienen que cumplir los tripulantes espaciales.
El proceso de selección comenzará, probablemente, a mediados de junio -convocado a través de la web de la agencia espacial- y estará concluido para el mes de noviembre, según la ESA.
En la misión, la tripulación deberá "vivir" todas las situaciones y escenarios posibles, es decir, tanto el lanzamiento como el viaje de más de 250 días hasta Marte, la llegada al planeta rojo, la "excursión" por su superficie y, por supuesto, la vuelta a casa. Instalados en un recinto especial y totalmente aislado en Moscú (Rusia), la tripulación deberá enfrentarse a situaciones "normales" pero también a emergencias técnicas, enfermedades o accidentes.
En lugar de tener una nave como vivienda, la tripulación vivirá en una serie de módulos metálicos, por los que, moviéndose a través de estrechos pasillos, podrán ir a un área médica, a los laboratorios, la habitación común y la cocina. En total, 200 metros cuadrados.
También se ha construido un módulo que simula el vehículo de descenso para el paseo por la superficie de Marte.
El principal objetivo de los investigadores es conocer cómo reacciona un ser humano en un encierro tan prolongado, en el que tendrán que resolver por ellos mismos todos los problemas que se les planteen.
La única ayuda disponible será la que puedan proporcionarles desde "tierra" a través del sistema de intercomunicaciones que estará activo solo cada 40 minutos. Al comienzo de la misión, se proporcionará a la tripulación todos los alimentos que precisen para los 500 días, es decir, deberán administrar las raciones y pactar cómo hacerlo, lo que puede crear tensiones adicionales.
La ESA, con gran experiencia en estancias prolongadas a partir de la Estación Espacial Internacional, propondrá dos de los seis voluntarios, y además estará implicada en la definición global de la misión.
Según la ESA, 'Mars500' "se parece y no se parece" a un programa de televisión como 'Gran Hermano', en el que varias personas se encierran voluntariamente durante unos tres meses vigilados constantemente por cámaras.
También aquí se trata de gente interactuando en diferentes situaciones y aislada del exterior pero los encerrados del programa espacial necesitan hacer esta prueba porque es la única forma de preparar la misión, es decir, es lo más alejado a un espectáculo de entretenimiento.
Sin embargo, la ESA también está considerando si deberían simular la presión informativa que generarán todos los detalles del desarrollo de la misión cuando ésta sea una realidad.
Los voluntarios para la simulación tendrán que estar un año y medio aislados pero también tendrán un periodo anterior y posterior de distintas pruebas porque a los astronautas reales habrá que hacerles seguimiento después de que hayan regresado.
Fuente: El Mundo, 2 de Abril de 2007
-El Tribunal Supremo de EEUU sanciona las medidas del Gobierno para regular el cambio climático
El Tribunal Supremo de EEUU ha dictaminado que la Agencia de Protección Medioambiental (EPA), dependiente del Gobierno, "no ha ofrecido explicaciones suficientes" sobre su negativa a regular las emisiones de gases invernadero, que impulsan el calentamiento global.
Tras la demanda presentada por 12 estados y 13 grupos ecologistas, el Supremo tenía ante sí tres preguntas: "¿Tienen los estados el derecho de demandar a la EPA para cuestionar su decisión?", "¿Otorga la Ley de Aire Limpio ('Clean Air Act') autoridad a la EPA para regular las emisiones de gases invernadero?" y "¿Tiene la EPA la discreción de no regular esas emisiones?".
A las dos primeras respondió que sí. En cuanto a la tercera, pidió a la EPA que reconsidere su afirmación de que tiene la discreción de no regular las emisiones.
"La EPA no ha ofrecido una explicación lo suficientemente razonada sobre su negativa a decidir si los gases invernadero causan o contribuyen al calentamiento global", explicó el juez John Paul Stevens, encargado de redactar la opinión de la mayoría del tribunal.
Las emisiones de dióxido de carbono (CO2) se producen cuando se queman combustibles fósiles como el petróleo. Una forma de reducir esas emisiones es utilizar vehículos más eficientes.
La mayoría de la comunidad científica cree que los gases invernadero son los responsables del calentamiento del planeta, que a su vez provoca una subida del nivel de los mares y otros cambios ecológicos adversos.
El debate político sobre esta cuestión ha cambiado de forma radical desde que el Supremo aceptó revisar el año pasado su primer caso sobre la subida de temperaturas. Desde entonces, los demócratas se han hecho con el control del Congreso con la promesa de prestar mayor atención a los problemas del cambio climático.
Además, un grupo de científicos líderes a nivel mundial señaló en febrero que resulta "muy probable" que el calentamiento global haya sido causado por el hombre y que el fenómeno es tan severo que "continuará durante décadas".
A ello se suman los dos Oscar que obtuvo el ex vicepresidente Al Gore por su documental 'Una verdad incómoda', en el que insta a actuar con celeridad para frenar el cambio climático. Destacados líderes empresariales también se han sumado al coro de voces que invitan a actuar.
Fuente: El Mundo, 2 de Abril de 2007