Inicio

 

Ya puedes DESCARGAR todos nuestros PROGRAMAS DE RADIO "EL ALEPH" en la Sección NOSOTROS-PROGRAMACIÓN--

 

NOTICIAS CIENTÍFICAS


NOTICIAS DE ULTIMA HORA

--Nuevas Noticias Próximamente--

NOTICIAS EXTENDIDAS

Mayo 2008

TITULARES DE LAS NOTICIAS DEL MES

 

Exitoso lanzamiento del transbordador Discovery

"Phoenix" descubre indicios de hielo bajo el suelo de Marte

Un pequeño frankenstein genético de agua dulce

El exceso de sal impediría la creación de vida en Marte

Unas cámaras camufladas graban el primer video del rinoceronte de Java

El complejo arqueológico de Stonehenge fue un cementerio durante más de 500 años

"En poco tiempo los robots tomarán decisiones"

Nuevo Windows: para tocar y jugar

Steve Bratt y el desarrollo de la web semántica

Phoenix por fin llega a Marte

"Yo iré a Marte"

A Júpiter le sale una nueva "peca"

Captan muerte de una estrella

La NASA afina el tiro para posar la sonda Phoenix en Marte

Tecnología del futuro para visitar una ciudad en el pasado

Google anuncia la salida de un servicio de salud

La ciudad de A Coruña fue dos islas y después una estepa antes de ser península

El cambio climático amenaza con una nueva edad de hielo

Los cometas, mensajeros de la muerte

Asimo dirige la orquesta sinfónica de Detroit

Los monstruos marinos del Cretácico llegan al Museo de Historia Natural de New York

La NASA y el pasado mexicano

Astrónomos de Estados Unidos descubren una supernova en la Vía Láctea

La sonda "Phoenix" está a punto de llegar al polo Norte marciano

Comer con miedo

La sonda "Cassini"  busca un océano de agua en el polo sur de la luna Encedalo

Siete plumas de hace 100 millones de años avalan la evolución de los dinosaurios en aves

"Moko", la delfín que salvó a dos ballenas

Científicos españoles trabajan en un prototipo para llevar a cabo la transportación cuántica

Descubierto un planeta de volumen similar a la Tierra

Ciencia pasada por agua

La NASA contará con uno de los ordenadores más potentes del mundo

La zona de aterrizaje del Phoenix a color

El desierto del Sáhara se terminó de formar hace tan sólo 2700 años

La NASA homenajea a "2001: una odisea del espacio"

América se pobló mil años antes

Don "Carlos" Darwin, el naturalista curioso que hablaba español

El ornitorrinco: mitad reptil, mitad mamífero

Física cuántica contra "hackers"

Sondas: al servicio de la ciencia hasta el último aliento

Detectan materia ordinaria nunca antes vista

Objetivo: una red inalámbrica  de última generación para todo Estados Unidos

El apocalipsis de los insectos

Craig Venter: "Confiamos en crear la primera forma de vida este año"

El gordo ¿ nace o se hace?

Un avión volará cinco años sin parar

Robots detrás del juego de la Bolsa

Descubren en Argentina los restos de un armadillo gigante

Tristán Guillot: puede haber sorpresas en la detección de vida

Confirmada la existencia de un nuevo tipo de estrella

El cambio climático crea desiertos en los océanos

Diseñan la primera nave espacial privada rusa para turistas cósmicos

La ciencia, vista desde el cielo

 

Archivo

 

 


-Exitoso lanzamiento del transbordador Discovery

El transbordador estadounidense Discovery se encuentra listo para el lanzamiento a una importante misión rumbo a la Estación Espacial Internacional (ISS) donde los astronautas tiene como objetivo principal instalar el lujoso módulo principal del laboratorio japonés Kibo.  El transbordador ya estaba dispuesto en el sitio de lanzamiento del Centro Espacial Kennedy en las últimas horas de ayer, mientras ingenieros de la NASA chequeaban los equipos y se preparaban para el próximo paso, llenarlo de combustible durante esta mañana.

El comandante Mark Kelly y el piloto Kennet Ham  en la cabina del Discovery, vuelo STS-124



El lanzamiento ocurrió a las 18 (hora argentina) desde el centro espacial, en Cabo Cañaveral, Florida.  Además de trasladar el segundo componente del complejo japonés, durante los 14 días de misión, los astronautas inspeccionarán los daños en el mecanismo de rotación de una antena solar de la ISS, reemplazarán un tanque de nitrógeno del sistema de climatización y repararán uno de los baños.



El especialista en robótica estadounidense Greg Chamitoff, viaja para reemplazar a su compatriota Garrett Reisman, quien regresará a Tierra luego de tres meses en la Estación Internacional.  En una de las tres salidas espaciales previstas, el astronauta Ronald Garan pasará 20 minutos amarrado a un gigantesco brazo robótico para reemplazar un depósito de nitrógeno agotado. Funcionarios de la NASA describieron la caminata hasta el receptáculo como un planeo con "movimiento de limpiaparabrisas". "Será un paseo bien espectacular", comentó Garan de 46 años, astronauta especialista de la misión.

Tripulación del vuelo STS-124

Dosa astronautas haciendo prácticas con sus trajes presurizados



El nuevo laboratorio. Su compañero japonés de la tripulación, Akihiko Hoshide, supervisará la instalación del módulo presurizado del laboratorio Kibo. Esa sección incluirá un sector externo donde se podrán realizar experimentos de exposición al ambiente espacial . Su tamaño similar al de un autobús hace del componente la mayor estructura jamás añadida a la ISS. Se trata de un gran cilindro de 11,2 metros de largo por 4,4 metros de diámetro, con una masa vacío de 15,9 toneladas. Está dotado de su propio sistema de manipulación a telecomando, un brazo articulado que también servirá para tareas de mantenimiento en la estación.

El laboratorio japonés, que es cuatro metros más largo que el "Columbus" y tiene una extensión dos metros superior a la del laboratorio "Destiny" de EEUU, cuenta con 23 plataformas para investigaciones sobre medicina espacial, biología, observaciones de la Tierra, producción de materiales, biotecnología y comunicaciones.  Buzz Lightyear también viaja. Cinco de los siete tripulantes nunca viajaron al espacio, al igual que el pequeño astronauta de juguete Buzz Lightyear, uno de los personajes de la película de Disney "Toy Story", que se une con sus 30 cm de alto a la tripulación en el marco de una iniciativa de la NASA para alentar a los niños a seguir estudios científicos.

El sábado la agencia espacial lanzará en simultáneo con Discovery Kids, un programa infantil interactivo en su sitio web.  Un primer elemento de Kibo -el módulo presurizado que servirá de almacén- fue añadido a la ISS en marzo. El traslado del tercer y último componente, que corresponde a una especie de terraza abierta, está programado para marzo de 2009.

La NASA tiene previstas otras 11 misiones de los transbordadores para continuar el montaje de la EEI antes de que sean retirados en 2010.

Con Kibo, que significa "esperanza" en japonés, Japón se convierte en miembro pleno de la ISS, sumándose a Estados Unidos, Rusia y Europa, cuyo laboratorio Columbus fue enviado en febrero por el transbordador Atlantis.
 

Fuente: lanacion.com, 31 de Mayo de 2008

 

 

-"Phoenix" descubre indicios de hielo bajo el suelo de Marte

La sonda Phoenix ha encontrado posibles rastros de hielo en torno a la zona próxima al polo norte de Marte donde descendió, según informó el Laboratorio de Propulsión a Chorro (JPL).

Lo que parece ser hielo está en una imagen captada debajo de la nave por la cámara que tiene instalada el brazo robótico del Phoenix, cerca de una de sus tres patas, indicó el organismo de la NASA en un comunicado. "Podríamos estar viendo rocas, o podríamos estar viendo hielo en el lugar del descenso", indicó Ray Arvidson, científico de la Universidad de Washington encargado de las operaciones del brazo robótico.

Ese hielo pudo haber quedado al descubierto como resultado de la emisión de gases candentes de los cohetes que redujeron la velocidad del descenso de la nave, que llegó a Marte el pasado domingo. "Tendremos que recibir más datos, incluyendo colores, de la cámara en el brazo robótico. Pensamos que si se trata de hielo, éste se hará más brillante porque el aire atmosférico se condensará y se convertirá en escarcha sobre ese hielo", señaló.

En el centro de la imagen, bajo Phoenix, una pequeña capa de hielo. Encima se pueden ver los retrochoetes

que posiblemente apartaron la tierra que estaba encima del hielo encontrado. La imagen fue tomada por la cámara del brazo robótico

 

 

Imagen de los movimientos que se han realizado con el brazo robótico

"La confirmación total ocurrirá cuando comencemos a excavar y a analizar las capas (de suelo) cercanas", agregó el científico.

A expensas del problema en la sonda

Sin embargo, el análisis podría sufrir algunos problemas debido a un cortocircuito detectado el jueves durante las pruebas realizadas al instrumento que examina las muestras.

Un boletín de JPL indicó que se trata del Analizador Termal y de Gases, que incluye un medidor de calor así como un espectrómetro de masa para examinar los vapores producidos por el aumento de temperatura. "Hemos desarrollado una estrategia para comprender mejor este comportamiento y hemos identificado la forma de resolver este inconveniente", dijo William Boynton, científico de la Universidad de Arizona y uno de los encargados del instrumento.

Pese a ese problema, los científicos de la misión, cuyo objetivo es analizar el hielo marciano y buscar la presencia de materiales orgánicos, señalaron que ésta avanza sin mayores contratiempos. "Hemos evaluado el rendimiento de la nave en la superficie y hemos determinado que está lista para continuar", manifestó David Spencer, subdirector del proyecto.

Un problema de comunicaciones con la nave de enlace, que se había presentado el martes en las operaciones, fue resuelto el jueves cuando los ingenieros transmitieron comandos para destapar su brazo robótico. Una portavoz de JPL aclaró que el problema no fue de Phoenix sino del Mars Reconnaissance Orbiter (MRO) que sirve como enlace de comunicaciones. "Hemos completado todas las tareas básicas de ingeniería y se han hecho todos los despliegues cruciales", indicó Barry Goldstein, director del proyecto.

"Nos encontramos ahora en una etapa de la misión en la que estamos revisando todos los instrumentos científicos" que lleva la sonda para analizar el hielo marciano y estudiar su suelo en busca de materiales orgánicos, agregó.

Fuente: elmundo.es, 31 de Agosto de 2008

 

 

-Un pequeño frankenstein genético de agua dulce

El análisis del ADN de un animal microscópico llamado rotífero bdeloide ha revelado que su genoma es un extraño puzzle que incluye fragmentos prestados de otros organismos, como bacterias, hongos y plantas. El descubrimiento ayuda en parte a explicar cómo estos organismos han evolucionado a lo largo de los años sin reproducción sexual, pero al mismo tiempo plantea nuevas cuestiones sobre su misteriosa biología.

Todos los rotíferos bdeloides son hembras, lo que durante años ha mantenido a los científicos preguntándose cómo podían intercambiar material genético para conferir variabilidad genética a las 500 especies que forman este grupo y poner así en marcha los mecanismos evolutivos.

Según publica en Science un grupo de científicos de la Universidad de Harvard (EEUU), en condiciones de sequía estos animales se deshidratan, rompen sus membranas y su ADN y permanecen en estado latente. Cuando el agua regresa, reconstruyen su material genético, incorporando en él todo fragmento que encuentran a mano. Así los distintos individuos intercambian genes, pero al precio de llenar su ADN de basura genética que, sin embargo, no parece perjudicarles. De hecho, los investigadores sospechan que algunos de estos genes invasores son funcionales.

Fuente: publico.es, 30 de Mayo de 2008

 

 

-El exceso de sal impediría la creación de vida en Marte

Uno de los artículos que publica Science esta semana le debe de haber parecido una broma pesada a los responsables de la NASA que aún celebran el aterrizaje en Marte de la sonda Mars Phoenix Lander. Este aparato recorrió más de 650 millones de kilómetros para comprobar si el suelo del polo norte marciano habría tenido las condiciones de albergar vida en algún momento y, si los autores del artículo tienen razón, habría hecho el viaje en balde.

Sin moverse de sus laboratorios de Harvard y Nueva York, tres científicos de EEUU –también con financiación de la NASA– han emitido ya un veredicto. El agua en Marte habría sido demasiado salada para permitir la existencia de vida tal y como se conoce.Para llegar a esta conclusión, analizaron los depósitos salinos en una roca de 4.000 millones de años estudiada por el explorador marciano de la NASA Opportunity y por varias sondas orbitales. Fue precisamente la información recogida por estas máquinas la que proporcionó indicios sobre la presencia de agua en Marte en épocas pasadas y avivó la esperanza de encontrar indicios de vida en tiempos antiguos.

Océanos de salmuera
Los análisis indican que incluso hace varios millones de años, cuando sin duda había agua en Marte, sus porcentajes de salinidad excedían los niveles en los que la vida sobrevive en la Tierra. El agua sería más bien una especie de salmuera espesa nada acogedora.

“Nuestra percepción era que, aunque Marte es un entorno pésimo, para permitir la existencia de vida hoy, hace mucho tiempo ese entorno se podría haber parecido más al de la Tierra”, afirma el coautor del estudio y profesor de Harvard (EEUU) Andrew Knoll. “Sin embargo, estos resultados sugieren que incluso hace 4.000 millones de años, la superficie de Marte habría sido muy difícil para la vida. No importa cuánto retrocedamos en el tiempo, es posible que nunca lleguemos a un punto en el que Marte se parezca realmente a la Tierra”, añadió.

Los investigadores no descartan que se puedan encontrar en Marte tipos de organismos distintos de los que se conocen hasta ahora. No obstante, “un tipo de vida que pudiese aparecer y sobrevivir en un entorno tan salado requeriría una bioquímica distinta de cualquiera conocida entre los halófilos [especies que pueden tolerar niveles muy altos de salinidad] de la Tierra.

Sobre la posibilidad de que organismos con gran resistencia a la salinidad hubiesen habitado Marte en épocas pasadas, los autores del estudio recuerdan que los halófilos terrestres son descendientes de otras especies que evolucionaron primero en aguas más puras. Basándose en lo que se conoce sobre la vida en la Tierra, consideran que es difícil imaginar que ésta surja en un mar de salmuera ácida y oxidante. Otro de los autores del estudio, Nicholas Tosca puso un ejemplo para ilustrar la incompatibilidad entre vida y sal. “La gente ha sabido desde hace cientos de años que la sal impide el crecimiento microbiano. Por ese motivo la carne se salaba”, explicó.

Mars Phoenix Lander ya ha desplegado su brazo robótico y pronto enviará datos sobre la posible vida pasada en Marte. La respuesta a si algún día hubo marcianos se acerca.

Niveles de salinidad insoportables

Los autores del artículo han realizado una estimación de los niveles de salinidad de los mares marcianos. Han estudiado los depósitos minerales en rocas del planeta para calcular la actividad de agua, un baremo que sirve para medir la cantidad de este líquido disponible para procesos biológicos, una cifra que se ve limitada por la cantidad de materiales disueltos en ella. La actividad del agua pura es 1, es decir, que ninguna de sus moléculas se ve afectada por elementos disueltos y todas están libres para propiciar procesos biológicos.

El agua del mar tiene una actividad de 0,98. Numerosas investigaciones (muchas de ellas desarrolladas por la industria alimentaria) han mostrado que muy pocos de los organismos que se conocen pueden crecer cuando la actividad de agua cae por debajo de 0,9 y casi ninguno es capaz de sobrevivir cuando desciende hasta 0,85.

Basándose en la composición química de las sales que quedaron de las antiguas aguas marcianas, los investigadores calcularon que la actividad del agua marciana se encontraba, como mucho, entre 0,78 y 0,86, y consideran muy posible que esa cifra alcanzase el 0,5 a causa de la evaporación, que concentraría aún más la salmuera.

En la Tierra, un lugar con unos niveles comparables de salinidad es el mar Muerto, donde la actividad de agua es de 0,66. En este lugar sobreviven varios tipos de microorganismos halofílicos que se estudian para comprender cómo podría ser la vida fuera de la Tierra. 
 

Fuente: publico.es, 30 de Mayo de 2008

 

-Unas cámaras camufladas graban el primer video del rinoceronte de Java

Quedan apenas 70 ejemplares de esta especie, la más rara y amenazada | Las grabaciones pueden aportar mucha información a los expertos para luchar contra su desaparición

Cinco cámaras de vídeo ocultas entre la maleza de un parque natural de Indonesia han obtenido las primeras imágenes de uso científico del rinoceronte de Java, una especie que se encuentra al borde de la extinción, ya que quedan menos de 70 ejemplares en todo el mundo.

 

La escena más impactante es la de una madre que embiste a la cámara de grabación para proteger a su cría, de entre tres y cuatro años, que avanza junto a ella.

El resto de las imágenes, grabadas sobre todo de noche con infrarrojos, muestran 37 ejemplares distintos en actividades cotidianas como comer, beber, andar o bañarse.

Para la grabación de estos animales en estado salvaje se han utilizado unas cámaras con los últimos avances tecnológicos dentro de un pequeño maletín, provistas de una batería y un sensor de movimiento. El método mejora al de la observación humana directa porque, según los científicos, resulta menos invasivo y permite una mayor proximidad a los animales.

Información clave

"Las grabaciones van a ser muy útiles para estudiar a esta especie de rinocerontes", ha asegurado a Efe Adhi Rachmat Hariyadi, responsable del proyecto en el grupo ecologista WWF en Indonesia, que ha recalcado que el análisis de sus costumbres puede ofrecer información clave para evitar que desaparezcan.

Adhi Rachmat Hariyadi también ha señalado que "es muy raro poder contemplar a estos animales en medio de la jungla" y ha subrayado el interés de los especialistas por descubrir "cómo usan su hábitat".

El rinoceronte de Java, considerado en peligro crítico de extinción, es un gran desconocido de la ciencia y, aunque históricamente habitó en gran parte del Sudeste Asiático, en la actualidad se encuentra confinado a los parques nacionales de Ujung Kulon, en Java, y de Cat Tien, en el sur de Vietnam.

Los ejemplares de esta especie son similares a la variedad que habita en la India y Nepal por lo que cuentan también con un sólo cuerno pero su tamaño es menor, llegan a pesar una tonelada y media y miden entre dos y dos metros y medio de largo.

 

Proyecto de diversificación geográfica

El director del Parque Nacional de Ujung Kulon, Agus Priambudi, ha manifestado en una rueda de prensa en Yakarta que estos primeros resultados les animan a seguir adelante para llegar a "entender mejor las dinámicas de población y comportamiento de los rinocerontes de Java", además de ayudarles "a gestionar de una manera más científica los peligros que afronta" esta especie.

El objetivo final del estudio es conocer lo suficientemente bien a esta clase de rinocerontes como para poder trasladar a unos cuantos ejemplares a otro emplazamiento, ya que la diversificación geográfica favorece la supervivencia. El traslado está previsto "en un plazo de tres o cuatro años", como ha explicado Adhi Rachmat Hariyadi, por lo que necesitan "datos fiables para poder elegir un lugar adecuado".

De no llevar a cabo este trasvase de población, ha continuado el responsable del Fondo Mundial para la Naturaleza-Indonesia, una epidemia o una catástrofe natural podrían poner en jaque al rinoceronte de Java, y esto es algo relativamente frecuente en el país debido a su gran actividad sísmica y volcánica.

La iniciativa se enmarca dentro de un programa gubernamental indonesio para salvar a esta especie llamado Proyecto Rinoceronte del Siglo y en el que colaboran el Fondo Mundial para la Naturaleza, la Fundación Internacional Rinoceronte, Yayasan Badak Indonesia y el Servicio estadounidense de Pesca y Vida Salvaje. De las cinco especies de rinocerontes que se conocen, la javanesa es la más rara y amenazada, así como la segunda más pequeña..

 

Fuente: ADN.es, 29 de Mayo de 2008

 

 

-El complejo arqueológico de Stonehenge fue un cementerio durante más de 500 años

Complejo de Stonehenge

El complejo arqueológico de Stonehenge, en Reino Unido, fue utilizado como cementerio durante más de 500 años, según revela la investigación liderada por el profesor británico Mike Parker Pearson, de la Universidad de Sheffield en Reino Unido.

Las conclusiones de la investigación arqueológica fueron presentadas en Washington por la 'National Geographic Society'.

El estudio de la famosa construcción circular de piedra y de sus pobladores incluye por primera vez el resultado de los análisis de datación de los restos encontrados mediante radiocarbono. Además, a lo largo de las excavaciones también se han descubierto objetos cotidianos utilizados por hombres del Neolítico. Las nuevas pruebas de radiocarbono revelan que el yacimiento fue usado como cementerio desde el año 3000 a.C. y que continuó así hasta mucho después de la colocación de los enormes bloques de piedra que forman el monumento, datado en torno al 2500 a.C. Hasta ahora, los arqueólogos habían considerado que sólo se habían realizado enterramientos entre el 2700 y el 2600 a. C., antes de la construcción del mismo.

Sin embargo, la investigación de Pearson ofrece pruebas concluyentes sobre el significado de este yacimiento y demuestra que fue utilizado como cementerio durante más de 500 años.

Un continuo carácter funerario

"Ahora tenemos claro que Stonehenge tuvo un carácter funerario en todas sus etapas", comenta Parker Pearson. "El complejo fue utilizado como cementerio desde su construcción hasta su abandono final, alrededor de la mitad del tercer milenio a. C.", explica el investigador.

Los restos de cremaciones más antiguos que se han analizado -una pequeña pila de huesos y dientes- pertenecen a unas excavaciones cercanas a Stonehenge conocidas con el nombre de 'Aubrey Holes' y datan del 3030 al 2880 a. C. Además, se han hallado otros restos en zanjas cercanas: los de un hombre adulto que habría sido incinerado y enterrado entre 2930 y 2870 a. C., y los más recientes, procedentes de otra excavación, que corresponden a una mujer de unos 25 años de edad incinerada y enterrada entre 2570 y 2340 a. C., fecha en la que se estima que se colocaron las primeras grandes piedras del monumento.

Los arqueólogos estiman que hasta 240 personas fueron enterradas en Stonehenge, todas incineradas con anterioridad. Andrew Chamberlain, compañero de Parker Pearson en la Universidad de Sheffield y experto en demografía de la antigüedad, opina que los restos hallados corresponden a una única familia perteneciente a la élite de la época y a sus descendientes, en lo que podría ser una auténtica línea dinástica.

Los resultados de la investigación se detallarán en el documental 'Las claves de Stonehenge', que se difundirá el próximo domingo en el canal 'National Geographic' que también publicará un reportaje especial sobre el tema en la edición de septiembre de su revista

Fuente: elmundo.es, 29 de Mayo de 2008

 

-"En poco tiempo los robots tomarán decisiones"

Domenico Pairisi

  Una sociedad formada por robots. Parece un sueño o una película de ciencia ficción, pero al escuchar a Domenico Parisi, investigador del Instituto de Ciencias y Tecnologías del Conocimiento de Roma, las impresiones cambian. Habla de aplicar principios biológicos sobre materiales no biológicos, de comunidades de robots
que se coordinan entre ellos en una mezcla de psicología y simulación, de nanotecnología, de robots microscópicos... 

¿Cómo actúan estos robots?
Cogen cosas, esquivan objetos y se desplazan, regidos por un modelo de sistema nervioso, por una inteligencia artificial, muy relacionada con el cuerpo y el cerebro.

¿Cerebro de los seres humanos o de los animales?
También de animales, sí. Nuestro comportamiento está guiado por el cerebro, que es un conjunto de neuronas, de células nerviosas. El de los robots lo está por un cerebro simulado más sencillo, con neuronas artificiales ligadas por sinapsis artificiales. Es una inteligencia artificial pero muy cercana a la biología, a la física del cuerpo. E igual que los humanos nos comunicamos, los robots también
lo hacen: se coordinan entre ellos para conseguir logros que, por separado, no pueden.

¿Qué reglas tienen?
Las mismas normas sociales que los humanos. Les decimos lo que no se tiene que hacer imponiéndoles reglas que bloqueen comportamientos negativos.

¿No sería más fácil crearlos sin esos comportamientos?
Tiene razón, siempre que se refiera a robots con fines prácticos. Pero cuando los creamos para comprendernos a nosotros mismos, como nosotros a menudo somos egoístas, debemos hacerlos con esa misma característica y enfrentarlos uno a otro. Así podemos estudiar lo que quieren los sociólogos y los científicos políticos, es decir, el emerger de reglas que impiden conductas demasiado egoístas. Esta es una línea de investigación muy importante para nosotros: crear robots egoístas para estudiar porqué los seres humanos tienen leyes. Si no fuéramos egoístas no las tendríamos.

¿De qué modelos de vida artificial podemos hablar?
De redes neuronales artificiales del cerebro, o de modelos de la evolución biológica. Somos individuos con diferentes genes. Un hijo no será idéntico sino parecido a su padre, por las mutaciones genéticas. Darwin puro y duro.

Cuesta pensar en genes hablando de robots...
Lo sé, pero todo puede ser simulado, también los genes. Son simulaciones de genotipos.

¿Qué impacto tiene todo esto?
Uno, científico: los robots nos hacen comprender la realidad, que es el objetivo de la ciencia. Otro, tecnológico. Hay un tercero, que es cultural,
y es el más preocupante para mí, porque pensar que todo lo que somos y hacemos puede ser reproducido por los robots cambia nuestra visión del mundo.

¿Usted tiene miedo?
Desde luego, hay una parte arriesgada. El futuro es problemático, pero no podemos cerrar los ojos, hay que conocerlo y evitar los aspectos negativos.

Dicho así, las películas catastrofistas que muestran un mundo en manos de robots no parecen tan gratuitas...
Para crear un robot semejante a los seres humanos hay que hacerlo libre, con todos los riesgos que eso puede conllevar.

Que diga esto un científico da miedo...
Pero la investigación va en esa dirección. Lo que pasa es que aún hemos recorrido muy poco camino. Si
se va imitando la percepción, la inteligencia, la capacidad de previsión, de decidir... Al final se tiene a un ser humano.

¿Se podría llegar a convivir con robots autónomos?
Ahora mismo es ciencia-ficción.

¿Hay intereses militares?
Los hay. La Unión Europea, que yo sepa, no tiene una investigación en robótica en este sentido, pero en Estados Unidos e Inglaterra sí hay una fuerte inversión militar.

¿Cree que la investigación puede derivar hacia intereses peligrosos?
Si considera que la guerra es peligrosa, desde luego. Se invierte en robótica militar. Parte de ella incluye vigilancia, prevención o determinados descubrimientos, pero también se incluyen los bombardeos, claro.

¿Puede haber interferencias militares en la investigación?
Pienso que sí. Por suerte, yo no hago este tipo de investigaciones, pero me doy cuenta de que las aplicaciones de la llamada robótica social interesan a los militares. Pero esta rama de la robótica también nos sirve para otro tipo de cosas, como por ejemplo, entender mejor por qué el ser humano hace la guerra.

¿Cómo?
Utilizando robots para reducir las reacciones etnocéntricas de los humanos, por ejemplo.

¿Por qué su estudio está inspirado en el comportamiento de las hormigas?
Porque son más simples pero forman grupos de individuos con los mismos genes. Se pueden enfrentar a otros grupos, pero entre ellos, no.

¿Qué pasará con los robots?
Lo que pasó con los ordenadores: dentro de 20 o 30 años creo que estarán por todos lados.

¿En qué punto nos encontramos?
En las aplicaciones reales decide el hombre, pero en las investigaciones se empieza a dar responsabilidad a los robots. Los robots mandan la información al hombre, que es quien decide. Pero el paso siguiente es que el que decida sea un robot.

Fuente: publico.es, 29 de Mayo de 2008

 

 

-Nuevo Windows: para tocar y jugar

El nuevo sistema operativo de Microsoft incluirá funciones especiales para pantallas sensibles al tacto como alternativa al ratón y al tecladoSe espera que este nuevo sistema tenga una recepción más positiva que el fuertemente criticado Windows Vista, que salió a la venta el año pasado.  La nueva interfase táctil, que saldrá a la venta a finales de 2009, permite a los usuarios agrandar y minimizar imágenes, trazar rutas en mapas, dibujar o tocar el piano

"La forma en que se interactúa con el sistema cambiará dramáticamente", dijo el presidente de Microsoft, Bill Gates.

En la conferencia especializada en tecnologías digitales, "All Things Digital", celebrada en San Diego, California, Gates aseguró que Windows 7 incorporará nuevas formas de comunicación y de interacción.

"Actualmente casi toda la interacción es teclado-ratón. En los próximos años, la importancia del habla, la visión, el tacto -todas esas cosas- serán muy importantes".

 

Windows 7 será tactil

El vicepresidente de la compañía, Steve Ballmer, describió al prototipo como "sólo una probadita" de lo que será la nueva versión de Windows, luego de admitir que espera que funcione mejor que el sistema Vista.  Sin embargo, pese a que Windows Vista ha sufrido de una muy pobre calificación entre los consumidores, Ballmer informó que la compañía ha manufacturado 150 millones de copias del programa.

Se puede tocar

Especialistas de la industria afirman que Microsoft espera que Windows 7 cambie la manera en que las personas interactúan con las computadoras personales en el futuro.

"Tocar se está convirtiendo en una manera común de interactuar con los programas y los dispositivos", escribió el director de producción de Microsoft, Chris Flores, en su blog personal.

"Superficies táctiles están llegando a todas partes, en computadoras portátiles, teléfonos celulares, controles remotos, sistemas de posicionamiento global entre otros".

Cuando se le cuestionó ¿quién llegará primero al mercado de las computadoras con una pantalla táctil, Microsoft o Apple?, Ballmer aseguró que ese no es problema.

"Nosotros de cualquier forma venderemos 290 millones de computadoras personales y Apple venderá 10 millones".

Ellos son muy exitosos, nosotros y nuestros socios también. Pero es un trabajo diferente. Steve (presidente de Apple) puede, de manera muy fácil, vender algunos modelos y eso se lo reconozco".

De acuerdo con el sitio Beta News, "las pruebas de la versión beta iniciarán a finales de este año, aunque la falta de monitores sensibles al tacto podría dificultar los ensayos en la nueva interfase".

Nosotros nos retiramos

Durante la conferencia, Steve Ballmer también habló sobre el revés que sufrió Microsoft al no poder comprar Yahoo, luego de ofrecer US$47.000 millones.

"Mira, nosotros hicimos una oferta por Yahoo. Estuvo ahí por tres meses y hay una diferencia entre ofrecer y pedir".

"Pensábamos que podíamos acelerar nuestro negocio. Íbamos a ser disciplinados con las finanzas. Nosotros nos retiramos. Estamos conversando con ellos sobre otras ideas, pero no estamos haciendo una nueva oferta. Nos reservamos el derecho de hacerlo. Eso no está en la agenda".

Por su parte Bill Gates dijo: "Yo he apoyado todas las decisiones que Steve ha tomado. Lo apoyo totalmente".

El mejor buscador del mundo

Bill Gates en la actualidad piensa más en la filantropía que en su empresa

  Mientras que muchos de los asistentes estaban más al pendiente sobre el nuevo Windows 7 o los comentarios sobre Yahoo, un reflector se puso sobre Bill Gates y la cuenta regresiva para retirarse de Microsoft el 1 de julio. En una recepción anterior a la conferencia, Gates conversó con la prensa acerca de su futuro. Dijo que aunque se estaba retirando de sus "labores diarias" en la compañía que él mismo fundó, no iría completamente.

En lugar de aprovechar el 80% de su tiempo en Microsoft y 20% a la fundación que tiene con su esposa Melinda, ahora hará al revés.

Gates permanecerá como presidente de Microsoft y dijo que seguirá teniendo una oficina en la sede de la compañía y dedicará su tiempo a escribir, pensar y trabajar en varios proyectos incluida la nueva generación de Microsoft Office.

"Estoy muy concentrado en la investigación y el desarrollo interno", dijo.

"Nosotros crearemos el mejor buscador de internet".

Fuente: BBC, 28 de Mayo de 2008

 

 

- Steve Bratt y el desarrollo de la web semántica

Tim Berners-Lee, uno de los padres de Internet, soñó hace años con una 'Web semántica', capaz de analizar todos los datos, los contenidos, los enlaces, y las transacciones entre personas y ordenadores. Su mano derecha, y presidente ejecutivo del Consorcio W3C, Steve Bratt, explica en qué consiste esa 'Web semántica', y anima a seguir trabajando para adaptar los contenidos a todo tipo de dispositivos, camino de una Red ubicua.

Steve Bratt

 

Tras su visita a Barcelona Digital Global Congress, celebrado la semana pasada, entrevistamos a Steve Bratt en Madrid sobre el cometido del Consorcio W3C (al que pertenece elmundo.es) como entidad que trabaja en favor de los estándares Web.

Pregunta: ¿En qué consiste el trabajo del Consorcio W3C?

Respuesta: El Consorcio W3C es una comunidad global de expertos que colaboran para desarrollar tecnología que hace que la Web funcione, trabajamos para desarrollar una interfaz humana para Internet.

P: ¿Cómo se materializa ese trabajo?

R: Bueno, en esta organización tenemos ahora mismo unos 60 grupos de trabajo, que se centran en diferentes tecnologías web, y desarrollan los estándares y especificaciones que dictan cómo construir las páginas, cómo usar la voz, los vídeos, y un largo etcétera. Casi todo lo que se puede encontrar en la Web tiene al menos sus bases en el trabajo de estos expertos, y este trabajo se pone a disposición de todo el mundo gratis.

Nada de lo que hacemos es de obligada aplicación. No tenemos la autoridad de la fuerza para imponer nada, ni llamamos al Consejo de Seguridad de la ONU para obligar a la gente a que siga los estándares (risas). Nuestros estándares se basan en dos cosas. En primer lugar, para que la web funcione, todo el mundo debe adoptar un lenguaje web común, de ahí que los estándares estén enfocados a hacer que la Red funciones correctamente. Es un intento de lograr que la gente haga las cosas de la misma manera, es decir, de la manera que nosotros sugerimos.

En segundo lugar, esperamos que la gente use nuestros desarrollos porque quieren usarlos, por su calidad o porque les facilite su trabajo.

P:¿Qué trabajo del Consorcio destacaría personalmente?

R: Quizá deba destacar varios. En el pasado, yo trabajé en la definición de HTML, que es el estándar más básico y más conocido en la Web, y obviamente aún es muy importante. De hecho, su desarrollo constituye uno de los grupos del Consorcio más importantes. Lo que pasa es que de cara al futuro surgen nuevas tecnologías que necesitan respuesta. La prueba es que existen, como ya dije, más de 60 grupos de trabajo en W3C.

P:¿Qué está fallando, o qué se puede mejorar, en la Web?

R:La Web funciona de maravilla. Internet tiene problemas como la seguridad, el correo basura, la privacidad, y otros problemas derivados de su vertiente social, y de hecho tenemos un grupo llamado ''Technology and Social Domain', sobre el impacto social de la Web y que trata precisamente de estos asuntos. Creemos que es algo crítico.

P:¿Cuál es el reto más importante para el Consorcio?

R:(Silencio) Bueno, creo que en lugar de hablar de retos yo hablaría de oportunidades. Las últimas cifras hablan que sólo un 20% de los habitantes del planeta tiene acceso a la Web. Así, creo que uno de los asuntos más importantes a los que nos dedicamos es a tratar de llevar la web a todas partes en el mundo, con todos los beneficios que ello implica. Creo que Internet es la plataforma de comunicación más importante que ha existido jamás en la historia, y hacerla accesible a todo el mundo es creo lo más importante.

Si hablamos de retos tecnológicos, creo que los dispositivos móviles es el más importante ahora mismo, la Web móvil.

P:La siguiente pregunta va por ahí: ¿Es posible adaptar los contenidos a la web móvil, o deberían construirse específicamente para los dispositivos móviles?

R:Esa es una excelente pregunta. Nosotros creemos en la existencia de una sola Web accesible desde todo tipo de dispositivos, que pueda organizar e interconectar información en el reloj, en el móvil, en el ordenador, en la pantalla del televisor. Es muy importante ya que el poder de la Red llega a través del enlace, de la relación entre contenidos no importa dónde.

Deberíamos ser capaces de adaptar los contenidos a cualquier tipo de dispositivo. Tenemos varios grupos en el Consorcio W3C trabajando específicamente en los problemas que genera esa adaptación. En primer lugar, tenemos que especificar cómo ofrecer contenidos en pantallas muy pequeñas, como las de los móviles, o en dispositivos muy simples.

P:¿Podría explicar algún problema importante?

R:Bueno, tenemos los teléfonos móviles. Tengamos en cuenta que las inmensa mayoría de los móviles que hay en el mundo no son muy avanzados, son muy simples, tienen teclados y pantallas pequeñas, y cuentan con navegadores muy simples también, no tienen el mundo poder ni el mismo enfoque que los navegadores de un escritorio normal. También existen otros problemas tales como el escaso ancho de banda pueden usar, y el hecho de que son dispositivos diseñados para funcionar en movimiento. Todo ello requiere que se desarrollen nuevos estándares.

P:¿Puede darme una definición clara de 'web semántica'?

R: Bien, piensa en que la Web 1.0 ha sido una Web de documentos enlazados, documentos de millones de páginas en todo el mundo enlazados entre sí. Pues la Web semántica es aquella en la que se enlazan datos, siempre que éstos estén bien definidos, bien procesados, con valores, descripciones, etc. Los enlaces entre esos datos también están definidos. Por ejemplo, mi nombre y mi número de teléfono estarían enlazados de una manera más explicativa, con una categoría de 'número de teléfono'. Es decir, que los enlaces vienen acompañados de unas etiquetas que explican qué son esos datos, por qué están relacionados.

P:¿Eso cómo se construye?

R: En primer lugar, hemos terminado la tecnología básica para realizarlo a través de los enlaces, denominada RDF, que te indica cómo realizar los enlaces en la Web. Es muy simple, en realidad: propone un sujeto, un valor, y la relación entre ellos.

La construcción de la 'Web semántica' es básicamente la construcción de una inmensa base de datos relacionada en la Web. Así, cuentas con una fila con tu nombre, y una serie de atributos relacionados con ese nombre, como la edad, el día de nacimiento, tu dirección , tu número de teléfono, tu correo electrónico...

P:¿Y eso cómo se hace? ¿Existe alguna manera automática de relacionar de esa manera la enorme cantidad de datos que hay ya en Internet?

R:No creo que se deba de hacer a mano exclusivamente, existen programas que relacionan datos para construir bases de datos de este tipo. Aquí ha habido mucho avance gracias a la inteligencia artificial, que yo defino como 'algoritmos más inteligentes'.

No obstante, ya existen datos suficientes que relacionar, te pongo un ejemplo: muchos grandes museos tienen páginas web muy descriptivas, con todas sus obras catalogadas, por autor, época, situación física y demás. Esas descripciones pueden ser muy útiles para interrelacionar información en la Web. Otro ejemplo: existe un interesante grupo llamado 'Linking Open Data Project', que recoge estadísticas públicas o abiertas, como las que emite Eurostat, y datos también abiertos como los contenidos en la Wikipedia, en un esfuerzo por estructurarlos para permitir consultas más complejas. Y ahí tienes DBPedia.

Se trata, en definitiva, de maneras de realizar lo que Tim Berners-Lee ya predicaba en 1999. La base de todo esto es tan sencilla como el establecimiento de enlaces entre datos.

P:¿Qué relación tiene todo esto con la gran cantidad de datos que se está generando gracias a la explosión de la Web social, de la Web participativa?

R:En cierto modo, la Web 2.0, que efectivamente implica que todo el mundo puede subir información a través de blogs, imágenes, vídeo... cuenta con herramientas que están bien hechas, pero están muy cerradas en sí mismas. El problema surge, por ejemplo, cuando quieres combinar los tados de tu cuenta de Facebook en tu cuenta de MySpace, o en Bebo. En realidad, has de duplicar la información. Mi sueño es que la web semántica irrumpa en las redes sociales, de modo que puedas controlar tu información y los vínculos que existen en ella. Mi información personal es mía, y debería ser capaz de poder compartirla si quiero en otras redes sociales.

P:¿Algo así como la iniciativa OpenSocial?

R:Eso es lo que están tratando de hacer. Nosotros queremos ayudar en problemas que surgen, cómo compartir los datos de las identidades en la Web sin violar la privacidad, y lograr que cada uno pueda tener el control de su propia identidad de una manera fácil. Lo cierto es que mucha gente tiene esta misma idea, y la gran pregunta es qué tecnología será al final la que permita algo así.

P:Para terminar, ¿Cuál es su principal cometido como presidente del W3C?

R:Bueno, mi principal tarea es tratar de difundir y educar en todo cuanto el Consorcio trabaja. Sobre todo, animar a utilizar la tecnología que desarrollamos.

Fuente: elmundo.es,  28 de Mayo de 2008

 

´

-Phoenix por fin llega a Marte

La nave espacial Phoenix se posó sobre la región polar norte de Marte, el domingo, iniciando de este modo los tres meses dedicados al estudio de un sitio que fue escogido por sus buenas probabilidades de tener agua congelada al alcance del brazo robótico del módulo.

Las señales de radio recibidas a las 4:53:44 p.m., hora del Pacífico (7:53:44 p.m., hora del Este), confirmaron que el Módulo de Amartizaje Phoenix había sobrevivido al difícil descenso final y había tocado el suelo 15 minutos antes de lo previsto. La señal de radio tardó ese tiempo en viajar desde Marte hasta la Tierra a la velocidad de la luz.

Los miembros del equipo de la misión en el Laboratorio de Propulsión a Chorro (Jet Propulsion Laboratory o JPL, en idioma inglés), de la NASA, en Pasadena, California, así como también los miembros del equipo de Sistemas Espaciales Lockheed Martin, en Denver; y de la Universidad de Arizona, en Tucson, vitorearon la confirmación del "amartizaje" y aguardaron ansiosamente que llegara más información a través de la sonda Phoenix durante la noche del domingo.

Entre los miembros que ocupaban el cuarto de control en el JPL se encontraba Michael Griffin, quien destacó que ésta fue la primera vez que un módulo se posó exitosamente sobre Marte sin utilizar bolsas de aire, desde que tuvo lugar la misión Viking 2 (Vikingo 2), en 1976.

"Por primera vez en 32 años, y sólo por tercera vez en la historia, un equipo del JPL se ha posado suavemente sobre Marte", dijo Griffin. "No podría estar más feliz de estar aquí, siendo testigo de este increíble logro".

Durante su vuelo de 680 millones de kilómetros (422 millones de millas) desde la Tierra hasta Marte, luego de su lanzamiento (el 4 de agosto de 2007), la sonda Phoenix dependió de la electricidad generada por sus paneles solares. El vehículo de transporte, alimentado por dichos paneles solares, se separó siete minutos antes de que el módulo de amartizaje, protegido por una cápsula, ingresara a la atmósfera marciana. Las baterías ahora proveerán electricidad para el sistema hasta que se abra el propio par de paneles solares del módulo.

Estas fueron las primeras imágenes enviadas por Phoenix

"Ya ha pasado la peor parte y podemos respirar de nuevo, pero aún necesitamos saber si la sonda Phoenix ha abierto sus paneles solares y si ha comenzado a generar energía eléctrica", dice Barry Goldstein, del JPL, gerente del proyecto Phoenix. Si todo sale bien, los ingenieros conocerán el estado de los paneles solares entre las 7 y las 7:30 p.m., hora del Pacífico, mediante una transmisión de Phoenix triangulada por el orbitador Mars Odyssey (Odisea Marciana), de la NASA.

El equipo estará también a la espera de la transmisión nocturna del domingo para confirmar que los mástiles de la cámara estereográfica y la estación de monitoreo del clima hayan alcanzado su posición vertical.

"¡Qué amartizaje más emocionante! Pero el equipo espera impacientemente la próxima serie de señales que verificarán que la nave espacial se encuentra en estado saludable", dijo Peter Smith, de la Universidad de Arizona, quien es el investigador principal de la misión Phoenix. "Apenas puedo contener mi entusiasmo. Las primeras imágenes que recibimos después de que la nave se posó sobre el terreno polar marciano establecerán el escenario de nuestra misión.

Otro despliegue crítico será el primer uso del brazo robótico de 2,3 m (7,7 pies) de largo, tarea que no se intentará al menos hasta dentro de dos días. Los investigadores harán uso del brazo durante las próximas semanas para obtener y colocar muestras de suelo y de hielo en los instrumentos de laboratorio situados en la cubierta del módulo.

La señal que confirmó que la sonda Phoenix había sobrevivido al amartizaje fue triangulada mediante el satélite Mars Odyssey y fue recibida en la Tierra por la antena de la estación Goldstone, en California, que forma parte de la Cadena del Espacio Profundo (Deep Space Network, en idioma inglés), de la NASA.

Fuente: ciencia.nasa.gov, 26 de Mayo de 2008

 

 

"Yo iré a Marte"

El nombre de la 101 División Aerotransportada se entreteje en la historia con la operación de desembarco que, el 6 de junio de 1944, dio el banderazo de salida para liberar a Europa del Tercer Reich. Lanzados en paracaídas sobre la costa francesa más allá de la playa de Utah, algunos hombres de la 101 cayeron tan apartados de su objetivo que recuperarlos se convirtió en una odisea, como recreaba Steven Spielberg en Salvar al soldado Ryan. Con tales antecedentes, difícilmente podría pensarse en un cuerpo mejor entrenado si alguna autoridad competente decidiese abordar los grandes desembarcos pendientes, aquellos que podrían inscribir el próximo gran hito en la aventura de la especie humana. Pero en estas operaciones, las playas de Utah y Omaha no bordearían otros mares que los desiertos sin vida de la Luna o Marte. Y la recuperación de los soldados no formaría parte del plan; no se trataría de un asalto, sino de una colonización.

Ruth frente a un paisaje de Afganistán que podría pasar por ser marciano

Aunque ninguna voz de la NASA u otra agencia espacial se ha atrevido a considerar jamás la posibilidad de un viaje sin regreso a otros mundos, desde ahora tampoco podrán argüir que es por falta de voluntarios. Desde las páginas de Público, el sargento de primera clase de la 101 William H. Ruth, hoy destinado en Afganistán bajo el mando de la OTAN, es el primer humano en dar un paso al frente y ofrecerse públicamente como voluntario para emprender la colonización de otros planetas, renunciando, si es preciso, a la opción del regreso a casa. Su oferta se sustenta en dos premisas: “Uno, debería ser inmediato, no dentro de décadas. Dos, la seguridad sólo puede ser una consideración, no un factor de decisión”.

Billete de ida

El origen de esta historia se remonta a dos años atrás, cuando la revista The Space Review difundió una idea audaz planteada por un ex ingeniero de la NASA, James McLane. El pasado marzo, la web Universe Today rescataba la propuesta en un reportaje de la periodista Nancy Atkinson. Frente a los actuales programas de exploración espacial, que estiman la llegada del ser humano a Marte en un horizonte de casi tres décadas, McLane alentaba a acortar por una ruta que aceleraría la colonización del planeta vecino. Y si todo atajo tiene sus baches, en este caso exigiría suprimir el paso más costoso y complejo de una misión marciana: el regreso.

Para aminorar los riesgos asociados al proyecto, el pionero –o la pareja fundadora– encontraría allí equipo y suministros previamente depositados por misiones robotizadas. Al primer colono se unirían, en vuelos sucesivos, otros viajeros que construirían un nuevo mundo lejos de éste. Bajo la propuesta de McLane no yacía simplemente el anhelo de una hazaña técnica, sino algo más: un objetivo común y aglutinador para la Humanidad. Según el ingeniero, el proyecto crearía “un vínculo de hermandad que alumbraría una nueva era de cooperación internacional y respeto por los valores humanos”.

Pese a lo elevado de la idea, su proponente no es, según sus propias palabras, un autor de ciencia-ficción ni un soñador. Entrevistado por este diario el pasado marzo, McLane aseguraba que sus 21 años en ingeniería aerospacial como contratista de la NASA y otros 20 en el sector privado le dotan de la suficiente autoridad en la materia: “Propongo algo que es factible y para lo que tengo la experiencia adecuada”, sentenciaba. Su participación en el diseño de innumerables misiones espaciales le avala cuando afirma que es posible enviar un vuelo tripulado a Marte en menos de diez años.

Aunque simplificar el proyecto exige prescindir del viaje de vuelta, McLane no busca un loco sin apego a la vida: “Esta misión no propone el suicidio, sino una expedición de alto riesgo con la posibilidad de vivir indefinidamente en Marte”, alegaba. McLane no esquiva la polémica que rodea tal apuesta, pero juzga que su iniciativa es digna de debate. Excepto, al parecer, para la NASA: “Hace diez años, lo propuse en una presentación técnica. ¡La cuestión fue ridiculizada por el orador!”, concluía.

El siguiente capítulo de la historia se escribió hace un mes, cuando el científico Stephen Hawking impartió una conferencia conmemorativa del 50 aniversario de la NASA. Desde su tribuna en la Universidad George Washington de la capital estadounidense, el físico insistió en la tesis que viene predicando en los últimos años: la humanidad debe extenderse a otros mundos como sistema de respaldo ante las posibles catástrofes que amenazan con borrar a la especie de su planeta de origen –pandemias, cambio climático o guerras nucleares–. En esta ocasión, Hawking instó a las naciones a dedicar recursos económicos para plantar bases en la Luna y Marte lo antes posible.

Las palabras de Hawking resonaron por todos los medios del planeta, llegando hasta uno de los rincones más remotos: la frontera entre Afganistán y Pakistán. Una conexión por satélite llevaba el mensaje del científico, inserto en un artículo del editor de la web Space.com, Tariq Malik, hasta la pantalla del sargento William H. Ruth, un heredero de aquellos paracaidistas de Normandía que combate contra los talibanes en la montaña afgana. Ruth pinchó en el enlace al correo electrónico de Malik. La arenga de Hawking le había inspirado: “Mis hombres y yo iremos, sentaremos una colonia donde sea preciso y aguardaremos allí la llegada de los colonos”. La respuesta de Ruth apareció en el blog de Anthony Duignan-Cabrera en LiveScience.com.

Este diario rastreó la pista hasta contactar con Ruth. Tras dejar claro que sus opiniones “no reflejan las actuales políticas del Ejército o del Gobierno de EEUU”, el sargento expresó su interés por “discutir las opciones para la colonización de la especie humana”. Aunque Ruth no conocía la propuesta de McLane y sus inconvenientes, la primera exposición suscitó su interés: “Parece que McLane y yo compartimos el mismo pensamiento en esta materia”. Público le facilitó entonces el reportaje de Atkinson, escrito en inglés.

La respuesta llegó 12 días más tarde: “Pido disculpas por tardar en responder, desgraciadamente he tenido que tratar con el lado más oscuro de la guerra, las batallas en las que pierdes hombres. Las cosas nunca son monótonas aquí. Pero estas dos semanas sólo han vigorizado mi pasión por una nueva manera de pensar a escala global. Sólo espero que la raza humana no esté dada por perdida, que aún seamos capaces de cambiar nuestro curso y vivir mejor juntos. Gracias por su interés en mi opinión, espero que mis humildes palabras encuentren su camino a la sala de estar o al despacho de alguien. Quién sabe, pequeñas chispas prenden grandes fuegos”.

Carta desde Afganistán

El resultado es una carta titulada La perspectiva de un soldado, reproducida aquí. En ella, Ruth se ofrece para asumir una misión espacial, incluso sin billete de vuelta, si algún día esto llegase a formar parte de los escenarios evaluados por la NASA. Como cualificaciones, le sostienen sus credenciales de especialista en reconocimiento de objetivos hostiles: “Soy un militar bautizado por el fuego durante más de 15 años, desde la temprana edad de 17. Así que no soy un loco ni un extraño para lo que algunos llamarían alto riesgo”. A diferencia de la idea del ingeniero, Ruth propone una misión de equipo formada por “los mejores pilotos astronautas del mundo, especialistas en reconocimiento y pensadores creativos [...]. Hombres y mujeres soldado de todas las naciones, con un propósito: encontrar una localización adecuada para el establecimiento de los colonos”.

Ruth no ignora los recelos que el carácter militar de la propuesta podría suscitar: “Para algunos, enviar soldados al espacio parecería más una invasión o una ocupación que una exploración. [...] ¿Quién si no? ¿Quién más tiene la mentalidad de ofrecerse voluntario para enfrentarse a un peligro cierto y posiblemente a la muerte, a miles de millas de su hogar? Implicar a los ejércitos del mundo en algo diferente de hacer la guerra unos contra otros me parece algo que muchos querrían”.

Finalmente, en las palabras de Ruth late el mismo espíritu de McLane: “Mirar más allá de nuestras mezquinas diferencias de raza y religión y ver… paz, prosperidad y posiblemente un nuevo mundo”. “¿Podría este único factor unir a la humanidad en una nueva era de cooperación global y un nuevo respeto planetario por la vida humana, a diferencia de lo que conocemos hoy? Mis respuestas… ¡Preguntadme de nuevo cuando haya llegado al nuevo mundo!”. ¿Una inmensa utopía? Por el momento, sólo una diminuta chispa. Pero ya ha prendido en un tercer continente. Desde allí, el primer voluntario de las fuerzas espaciales se despide como alguien acostumbrado, no a esperar que las cosas ocurran, sino a hacer que ocurran: “Que la paz esté con usted; y si no lo está, llámeme y me aseguraré de que lo está”.

William H. Ruth, sargento de primera clase, 101 División Aerotransportada del Ejército de EEUU, Afganistán

No soy un científico, ni creo ser un hombre brillante. Soy un simple soldado, hombre de familia y quisiera pensar que buen marido, padre y hombre honesto. Mis pensamientos no se escriben a menudo, pero cuando lo hacen, están llenos de pasión por algo mejor para todos nosotros.

Mientras leía los pensamientos de Jim McLane y Nancy Atkinson sobre la colonización espacial, comencé a darme cuenta de que hemos perdido el camino. Nos han consumido tanto las mezquinas diferencias y antipatías por otros que hemos olvidado nuestra predestinación para algo mejor. Sobre todos los organismos de este planeta, se nos dieron las herramientas para avanzar y expandir nuestro pensamiento más allá de la simple reproducción y supervivencia. ¿Qué haremos con ese destino? ¿Dudaremos a la menor sombra de muerte o peligro? ¿O haremos lo que tantos en la historia hicieron antes?

De todas las sociedades del pensamiento, la NASA debería entender esto. ¿Existirían la NASA o América si un hombre llamado Colón no hubiese perseguido un viaje peligroso y posiblemente mortal a un nuevo mundo? ¿Qué hay de los que viajaban en sus barcos, los que dejaron España sabiendo que nunca regresarían? ¿Podemos tener ahora la suficiente visión para mirar más allá de nuestras mezquinas diferencias de raza y religión y ver… paz, prosperidad y posiblemente un nuevo mundo?

¿Podemos construir una colonia fuera de este planeta? Yo lo arriesgaré todo para ver esta visión realizada. Soy un militar bautizado por el fuego durante más de 15 años, desde la temprana edad de 17. Así que no soy un loco ni un extraño para lo que algunos llamarían alto riesgo. Dejad que los héroes de todos nuestros países, por una vez, arriesguen un último sacrificio por algo más grande que la idea de un solo hombre.

¿Qué pienso de misiones tripuladas sólo de ida? Coincido totalmente con la NASA y otros en que es peligroso y quizá mortal. ¿Pero desde cuándo esto ha detenido a alguien? Es un hecho probado en la historia humana que cuando a nuestra especie se la arroja a una situación sin alternativas, prevalecerá y sobrevivirá.

Conozco de primera mano las bajas y la ley de Murphy: todo lo que puede fallar, fallará. En el ejército nunca enviamos a nadie solo, porque hemos aceptado el hecho de que algo fallará. Cualquier misión debería tener tres o cuatro pequeñas naves, con tripulaciones de entre cuatro y seis cada una. La historia de la exploración espacial cuenta fracasos en menos del 50% de todas las misiones a otros planetas. Es razonable que deberíamos enviar más de una nave para aumentar el porcentaje de éxito en el primer vuelo.

Consideremos una partida de exploración compuesta por los mejores pilotos astronautas del mundo, especialistas en reconocimiento y pensadores creativos que podamos ofrecer. Preferiblemente, hombres y mujeres soldados de todas las naciones, con un propósito: encontrar una localización adecuada para el establecimiento de los colonos.

Soy consciente de que, para algunos, enviar soldados al espacio parecería más una invasión o una ocupación que una exploración. Los que compartáis esta preocupación, considerad esto por un momento y preguntaos, ¿quién si no? ¿Quién más tiene la mentalidad de ofrecerse voluntario para enfrentarse a un peligro cierto y posiblemente a la muerte, a miles de millas de su hogar? Implicar a los ejércitos del mundo en algo diferente de hacer la guerra unos contra otros me parece algo que muchos querrían.

¿Habría un lugar para las compañías privadas? ¡Desde luego! Una vez que hubiese puestos de avanzada con informes fiables de condiciones de vida y recursos disponibles, las compañías y las organizaciones científicas se encargarían de asumir el siguiente paso de colonización.

Se mencionaban las parejas en estas misiones. No puedo expresar la importancia de tener el fuerte apoyo de esa pareja al enfrentarte a los desafíos del vuelo y del nuevo mundo. En mi caso, mi mujer ha servido más de 16 años en el ejército y más de 10 en el campo médico.

Me pregunto quién será el primero en extender la mano para una alianza que represente a toda la especie humana. ¿Podría ser ésta la respuesta que tantos han buscado? ¿Podría este único factor unir a la humanidad en una nueva era de cooperación global y un nuevo respeto planetario por la vida humana, a diferencia de lo que conocemos hoy? Mis respuestas… ¡Preguntadme de nuevo cuando haya llegado al nuevo mundo!

Fuente: publico.es, 23 de Mayo de 2008

 

 

 

-A Júpiter le sale una nueva "peca"

Tras décadas de búsqueda, con la ayuda de los mejores telescopios del mundo, los investigadores observaron el extraordinario evento. Júpiter tiene una nueva 'peca'. El telescopio espacial 'Hubble' ha descubierto la formación de una tercera mancha roja en el planeta, mucho más pequeña que el conocido 'Gran Punto Rojo'.

La nueva mancha, una tormenta en la atmósfera del planeta gaseoso, fue dada a conocer en el Instituto de Ciencia del Telescopio Espacial en Baltimore, en el estado de Maryland, Estados Unidos.

El equipo internacional de científicos planetarios ha explicado que el punto surgió de una tormenta blanca de forma oval, y que su cambio a una tormenta color rojo indica que el fenómeno está ascendiendo en la atmósfera joviana. El cambio de color señala que esta tormenta es muy intensa y que lanza material desde debajo de la capa de nubes de Júpiter hacia arriba, donde la radiación ultravioleta, a través de una reacción química aún desconocida, hace que se vea el característico color rojo.

Las imágenes, conseguidas el pasado 9 y 10 de mayo por el telescopio, respaldan la hipótesis de que el planeta más grande del Sistema Solar al que pertenece la Tierra está atravesando un proceso de cambio climático. Las temperaturas en Júpiter podrían modificarse en hasta 10 grados Celsius, lo que produciría tormentas mucho más violentas. Esta nueva mancha se suma a la conocida 'Gran Mancha Roja', que tiene entre 200 y 350 años, y a la 'Gran Mancha Roja Junior', que se formó en 2006. "Comienza a parecer un caso de sarampión planetario", afirmaron los astrónomos que operan el 'Hubble'.

Fuente: elmundo.es, 23 de Mayo de 2008

 

 

 

 

 

 

 

 

 

 

 

 

Las tres manchas rojas fotografiadas por el Hubble

 

 

-Captan muerte de una estrella

Tras décadas de búsqueda, con la ayuda de los mejores telescopios del mundo, los investigadores observaron el extraordinario evento. Previamente, los científicos no habían podido más que estudiar a estas supernovas varios días después de que estallaran.  Los resultados, publicados en la revista Nature, muestran que durante las dos primeras horas después de la explosión una bola de fuego gigante lanzó desechos radiactivos al espacio.  Las estrellas que explotan, o supernovas, son uno de los eventos más espectaculares del universo y producen una cantidad de energía comparable a la detonación de billones de bombas nucleares simultáneamente. Normalmente, el fenómeno ocurre cuando una enorme estrella -más de ocho veces mayor que el Sol- se queda sin "combustible" y colapsa para formar un vestigio ardiente llamado estrella de neutrones.  Su brillo extremo permite que se vean desde galaxias lejanas.  Pero los observadores sólo pueden ver esta emisión óptica varias horas o días después de la explosión, por lo que los primeros momentos de una supernova son todo un misterio.

Muerte y nacimiento

Esta vez, lo que ocurrió en la constelación de Lynx fue capturado por pura casualidad.  Alicia Soderberg, de la Universidad de Princeton en Nueva Jersey, Estados Unidos, y sus colegas estaban utilizando el telescopio espacial Swift para observar la galaxia espiral NGC2770.  Ellos vieron una explosión de Rayos X extremadamente luminosa en un área del cielo que no había mostrado señales de ningún tipo dos días atrás.

"Estuvimos en el momento preciso, en el lugar preciso, utilizando el telescopio preciso", manifestó Soderberg.

Muere una estrella

Las observaciones iniciales fueron ampliadas por algunos de los mayores telescopios del mundo, que estudiaron el fenómeno por más de 30 días para asegurar que se trataba en efecto de una supernova.

"Pudimos observar cómo evolucionaba la explosión desde el mismo comienzo", aseveró Edo Berger, de los Observatorios Carnegie, de California.

Entretanto, Kim Page, de la Universidad de Leicester, quien dirigió el análisis de los Rayos X, declaró: "Esta observación es el mejor ejemplo logrado hasta ahora de la muerte de una estrella y el nacimiento de una estrella de neutrones".

Los astrónomos dicen que las supernovas son parte de la historia de la formación del universo debido a que sus grandes explosiones crearon muchos de los elementos que componen los planetas.  La captura de la muerte de la estrella ayudará, según los expertos, a resolver algunos misterios del nacimiento de las estrellas de neutrones y los agujeros negros.

Fuente: BBC Mundo, 22 de Mayo de 2008

 

 

-La NASA afina el tiro para posar la sonda Phoenix en Marte

El aplazamiento de la misión, que debía haberse completado en 2001 y que finalmente no despegó hasta el pasado año, ha dado mucho tiempo a ingenieros y científicos para probar los sistemas

Los ingenieros de la NASA han tomado todas las precauciones posibles para que la sonda Phoenix descienda sin problemas sobre la superficie de Marte el domingo próximo, pero admiten que la operación está llena de incertidumbre

La nave descenderá sobre una región del polo norte, donde la Phoenix tiene como misión extraer con su brazo robótico agua congelada, observar la meteorología e investigar si el ambiente bajo la superficie fue favorable al desarrollo de vida microbiana.

La misión debió realizarse en 2001 pero fue cancelada tras la pérdida de la Mars Polar Lander al llegar a Marte en 1999. Desde entonces, los ingenieros de JPL han dedicado sus esfuerzos a anticipar y corregir los problemas que pudieran presentarse, así como a adaptar sistemas en vez de crear nuevos, pues han mejorado algunos y han agregado otros.

"Una consecuencia de tener tanto material instalado fue que pudimos dirigir nuestros recursos a las pruebas y el análisis. Evaluamos la capacidad del vehículo para realizar la misión, especialmente la entrada, el descenso y el aterrizaje", señaló Barry Goldstein, jefe del proyecto "Phoenix".

Según el científico, se hizo todo lo posible por reducir los riesgos a niveles aceptables, "pero no los hemos eliminado todos. La exploración planetaria es peligrosa por naturaleza y quedan muchos desafíos por delante, el primero es el ingreso, el descenso y el aterrizaje" para el que la sonda utilizará un paracaídas.

Descenso autónomo 

Antes del contacto con la superficie, y una vez que haya extendido su escudo térmico, la sonda aplicará el radar para contar con información sobre la altura y calcular la velocidad de descenso vertical y horizontal, lo que le servirá para ajustar el encendido de sus 12 cohetes de descenso.

La sonda se separará del paracaídas unos 40 segundos antes del contacto con la superficie y "lo peor que nos podría ocurrir es que el paracaídas caiga justo encima de la nave e impida el despliegue de los paneles solares", añadió Rob Grover, jefe del equipo encargado del descenso en JPL.

Si se supera la peligrosa prueba, "Phoenix" utilizará cuatro motores eléctricos que aún mantienen activos a los vehículos "Spirit" y "Opportunity" desde hace más de cuatro años en Marte. Una de sus labores es recoger hielo bajo la superficie marciana y ponerlo en un laboratorio en la cubierta de la sonda, para lo cual cuenta con una especie de cuchara con tres láminas de metal que recogerá hielo tan duro como el cemento.

Experimento contrarreloj 

Según Lori Shiraishi, ingeniero de JPL, se necesitarán de cuatro a seis horas para recoger material suficiente, y el mayor problema es la sublimación del hielo, su conversión en gas sin pasar por el estado líquido. "El hielo estará desapareciendo en el mismo momento en que lo estemos recogiendo", manifestó.

Para determinar si existe carbono orgánico, "Phoenix" tiene un analizador termal tan sensible como para detectar que no lo haya traído desde la Tierra la nave, dijo William Boynton, científico encargado de ese instrumento en la Universidad de Arizona.

Fuente:  adn.es, 22 de Mayo de 2008

 

-Tecnología del futuro para visitar una ciudad en el pasado

Tres ciudades europeas están experimentando con un nuevo aparato difícil de clasificar. Es, al mismo tiempo, ordenador de bolsillo (PDA), navegador GPS, cámara y prismáticos. Además, gracias a su conexión inalámbrica (WiFi) puede acceder a un servidor informático que almacena una base de datos audiovisuales. Detrás de este cúmulo de tecnología está el objetivo de crear un sistema para que turistas y vecinos puedan ver imágenes del pasado de su ciudad o escenas de películas rodadas en ella.

El proyecto, que se llama CINeSPACE , está impulsado por la Unión Europea y hoy puede ser galardonado en Estocolmo (Suecia) con uno de los premios Stockholm Challenge 2008, que se otorgan a los usos más innovadores de las nuevas tecnologías en el ámbito de lo social y lo cultural.

Liderado por San Sebastián , participan también la ciudad escocesa de Glasgow, Venecia (Italia), empresas tecnológicas de los tres países y el Instituto Fraunhofer de Alemania.

A primera vista, el aparato, que aún es algo tosco como todo prototipo, tiene la apariencia de unos binoculares. De hecho, se puede mirar a través de ellos con esa función. Pero también es una PDA. En su pantalla táctil se pueden ver mapas y rutas de la ciudad. No en vano, el sistema es, además, un navegador GPS. Esto hace que el portador pueda ser ubicado en todo momento. Por otro lado, tiene una conexión inalámbrica WiFi.

Imágenes localizadas

El pasado mes de enero, una treintena de voluntarios probaron el dispositivo en las tres ciudades europeas: vecinos de Glasgow lo llevaron mientras paseaban por su ciudad. Al pasar por determinado punto, el aparato disparaba un aviso. Al mirar por los binoculares, a la visión real se superponía, otra pero del siglo pasado.

En el caso de Venecia, los elegidos para las pruebas fueron una serie de turistas. Aquí, aunque el funcionamiento era el mismo, lo que podían ver los visitantes de la ciudad de los canales eran fragmentos de escenas de famosas películas como Muerte en Venecia.

Por último, en San Sebastián, miembros de la industria del cine usaron el CINEsPACE para ver fotos antiguas en busca de localizaciones. La ciudad, vinculada tradicionalmente al cine, quiere aprovecharlo para que técnicos y directores rueden sus anuncioso elijan localizaciones.

El usuario también crea

Cada una de las ciudades eligió un público objetivo -vecinos, turistas e industria audiovisual- para probar el aparato con distintos escenarios y públicos. Además, cada zona tiene contenidos diferenciados. En el caso de San Sebastián, las pruebas se han realizado en la playa de La Concha y Alderdi Eder, los jardines del Ayuntamiento.

Las fotos, a las que en fases posteriores se añadirán vídeos y archivos sonoros, estaban alojadas en un ordenador que las mandaba al dispositivo gracias a la red WiFi municipal que cubre buena parte de la ciudad. El archivo, que cuenta con imágenes incluso de 1900, pertenece a los fondos de las Fototecas Vasca y la Kutxa.

Pero, como dice el técnico del proyecto, Gorka Díez, "la idea es que no sólo se vean imágenes del pasado, queremos que el usuario también pueda grabar o tomar fotografías y compartirlas con otros cercanos que estén usando CINEsPACE". También podrán guardarlas en el servidor para que futuros usuarios puedan verlas. Para ello, el aparato incorpora una cámara. Díez y otros responsables del proyecto se reunieron la semana pasada en Glasgow para intercambiar datos y resultados de las pruebas de las tres ciudades. Con estos datos, pretenden mejorar las posibilidades del dispositivo, además de reducir su tamaño y mejorar su diseño. Según tienen previsto, en septiembre volverán a revisar los resultados y, tras dos años de trabajo, el prototipo definitivo podría estar listo en diciembre. Su comercialización, para las misiones inicialmente previstas (acceso a localizaciones para el sector audiovisual, recorridos turísticos por las ciudades y disponibilidad del patrimonio histórico y cultural y de la memoria colectiva) podría comenzar en julio de 2009.

Fuente: publico.es, 21 de Mayo de 2008

 

-Google anuncia la salida de un servicio de salud

El objetivo del producto de la empresa californiana es otorgar a los pacientes el control sobre su historial médico | La iniciativa llega con reticencias por los riesgos para la privacidad de los pacientes

El gigante de Internet Google ha anunciado el lanzamiento de su nuevo y controvertido servicio, Google Health, que permite a los usuarios archivar y acceder a sus historiales médicos a través de la red, informó la compañía. El objetivo de este producto de la empresa californiana es otorgar a los pacientes el control sobre su historial médico, como por ejemplo las radiografías tomadas en diferentes hospitales, y poder consultarlo desde cualquier ordenador del mundo, lo que podría acelerar diagnósticos y tratamientos.

"Ofrece a los usuarios una vía segura de recoger, guardar y utilizar su información médica. ¿Cuántos de nosotros hemos visto o tocado nuestro historial médico?, ¿no es una locura que no tengamos una copia de nuestro historial médico bajo nuestro control?", se preguntó Marissa Mayer, vicepresidenta de Search Products de Google.

Sistema abierto

El paso dado por la empresa, que aseguró que su servicio de salud no estará patrocinado al igual que sucede con su servicio de noticias Google News, originó sin embargo muchas reticencias por los posibles riesgos para la privacidad de los pacientes. Según la compañía, la rentabilidad del producto llegará gracias a que incrementará el flujo de usuarios hacia otras páginas de Google. Google Health será un sistema abierto a otras empresas o instituciones que quieran ofrecer servicios directos para el consumidor, como tablas de medicación o recordatorios para vacunas, pero el acceso a los datos personales requerirá el expreso consentimiento del paciente.

El sistema fue testado en más de 1.300 voluntarios del hospital clínico estadounidense Cleveland Clinic, con total satisfacción por parte de Google.

Fuente: adn.es, 20 de Mayo de 2008

 

 

-La ciudad de A Coruña fue dos islas y después una estepa antes de ser península

Caminando desde el ascensor de San Pedro hacia O Portiño por el paseo marítimo nos topamos con dos joyas geológicas. «Desde hace dos millones y medio de años, que es cuando aparece el primer Homo sobre la Tierra, el mar ha subido y bajado unas 30 veces. Por tanto, A Coruña ha estado inundada quince. En geología, cuando queremos saber lo que ocurrió en el pasado, tenemos que estudiar los sedimentos», detalla Juan Ramón Vidal Romaní, director del Instituto Universitario de Xeoloxía. Hay sedimentos en esta zona: una duna y una playa. Las encontró él en 1973.

Hace 400.000 años

Debajo del paseo marítimo en sentido O Portiño hay una playa de cantos rodados con muchísima solera. Donde el profano no distingue más que unos pedruscos incrustados en el suelo y que destacan por su color más claro, el ojo experto ve mucho más allá en el espacio y en el tiempo. Esta playa tiene 400.000 años de antigüedad. Cuando se formó, el nivel del mar estaba 15 metros más alto que en la actualidad y cubría gran parte del lugar en donde ahora está A Coruña, que estaba dividida en dos islas separadas por las aguas: una en Monte Alto; la otra, en Santa Margarita.

Hace 300.000 años

Unos metros más arriba de la playa se exhiben por dos ventanas de cristal sendos tramos de una duna. Después de la formación de la citada playa, el nivel del mar descendió. De hace 300.000 años data el más bajo que se conoce, «unos 20 metros por debajo del nivel actual». Entonces, lo que hoy son las playas de Riazor y Orzán o la ría de A Coruña estaban muy alejadas de la línea de costa. La ensenada de Riazor sería un inmenso arenal que se prolongaría hasta un poco por delante de donde se alza hoy la torre de Hércules. «Suponemos que lo que existía entonces era una playa y detrás de ella una estepa recorrida por los ríos que ahora desembocan en el fondo de las rías de A Coruña, Betanzos, Ares y Ferrol», resume Vidal Romaní. El Mero, que ahora desemboca en O Burgo, llegaría hasta enfrente de cabo Prior, en la entrada de la ría de Ferrol, que también estaría en seco y recorrida por un río.

Entonces, hace 300.000 años, se formaron unas dunas coruñesas que aún se conservan: «Son las más antiguas encontradas hasta ahora en toda la Península Ibérica», apunta Vidal Romaní. «Ahora esto es un acantilado, y así una duna no se puede formar. Pero con un nivel más bajo, como el que había entonces, que era -20 metros, los vientos que soplaban desde el mar fueron moviendo poco a poco las arenas tierra adentro, como ocurre en el monte Blanco de Ponteceso o en la playa de Trece de Camelle. Allí puede verse ahora como las dunas impulsadas por el viento durante los temporales de inviernos han cubierto los montes adyacentes a la costa, subiendo hasta alturas semejantes a las del monte de San Pedro coruñés».

No hay rastro de seres vivos: «En esta zona de rocas graníticas, los restos de este tipo desaparecen en 5.000 años debido al pH de las aguas». Cuando en A Coruña se estaba formando la playa hace 400.000 años, en Atapuerca ya vivía el Homo Heidelbergensis, y también que el Homo Neanderthalensis estaba a punto de aparecer cuando se formó la duna. En la serra do Courel se han encontrado algunas de las especies de animales que cazaban neandertales y heidelbergienses, como mamut, ciervo de grandes cuernos y renos. «Si las empresas pizarreras no destruyen los yacimientos, cualquier día aparecerán restos de aquellos humanos ahora extinguidos, pues allí el pH de las aguas es más favorable que en A Coruña para la conservación de restos fósiles».

Hace 200.000 años

La altura de los depósitos marinos que se encuentran en la costa gallega no es proporcional a su edad. Por ejemplo, el nivel del mar más alto detectado hasta ahora en esa costa y el norte de Portugal es +60. Se estima que se dio hace unos 200.000 años. Entonces, el espacio ahora ocupado por la ciudad estaba dividido en tres grandes islas rocosas. Lo único de la urbe actual que emergería de las aguas serían la base de la torre de Hércules, la parte más elevada de Monte Alto, los Rosales y los picos del monte de San Pedro y del antiguo vertedero.

La mayor parte de los depósitos correspondientes a este momento han desaparecido en el área coruñesa y solo en zonas más alejadas, como punta Langosteira, se conservan restos.

Fuente: lavozdegalicia.com, 19 de Mayo de 2008

 

 

-El cambio climático amenaza con una nueva edad de hielo

Los estridentes y luminosos efectos especiales de una producción de Hollywood pueden hacer parecer pura ficción la teoría científica más rigurosa en la que se pueda pensar. Es el caso de la gélida película 'El día de mañana' ('The day after tomorrow') dirigida por el experto en superproducciones Roland Emmerich.

Sin embargo, los decorados y la nieve sintética no desacreditan la teoría sobre la posiblidad de que el actual cambio climático pueda desencadenar una nueva pequeña edad de hielo popularizada por el prestigioso científico Wallace Broecker, descubridor de la circulación oceánica global y de su influencia sobre el clima.

La idea se publicó hace tiempo en la revista 'Science' y, aunque sigue habiendo debate en torno a ella, muchos investigadores consideran que se puede dar la paradoja de que el calentamiento global detone una pequeña edad de hielo. Uno de ellos es Godfrey M. Hewitt, un "genetista que ha tenido que aprender paleoclimatología para desarrollar su trabajo", según explicó a EL MUNDO.

En su reciente visita a España para ser investido como doctor Honoris Causa por la Universidad Autónoma de Madrid, Hewitt también recordó que el cambio climático puede ser el gatillo que dispare una pequeña edad de hielo como la que ocurrió hace 11.000 años en la época que se conoce como 'Dryas' reciente.

"Actualmente, nadie sabe qué ocurrirá con las corrientes oceánicas y con su efecto sobre las oscilaciones de las glaciaciones a consecuencia del cambio climático, hay demasiados factores implicados", aseguró Hewitt, "pero yo no creo que el ciclo de las edades de hielo haya terminado, el cambio climático puede ser el gatillo que dispare el comienzo de una época fría".

Los ciclos de glaciaciones y periodos interglaciares que se han producido durante el Cuaternario, el último millón y medio de años, han estado controlados por tres factores que tienen que ver con la órbita terrestre y que están incluidos en un ciclo llamado de Croll-Milankovic. Dos de ellos tienen que ver con la inclinación del eje terrestre, pero el que quizá haya tenido mayor importancia es el que se conoce como excentricidad de la órbita.

La Tierra no gira alrededor del Sol describiendo siempre la misma órbita. Tiene una oscilación que acerca y aleja nuestro planeta de la radiación solar en ciclos de 100.000 años, los mismos que han pasado entre cada uno de los máximos glaciares a lo largo de la Historia reciente de la Tierra.

La configuración orbital controla las grandes oscilaciones, pero existen otros factores que generan los cambios intermedios. Una investigación del propio Wallace Broecker publicada en 2006 en la revista 'Science' señalaba a un cambio en la corriente oceánica del Atlántico como principal causante del Dryas reciente.

Un lago sobre el hielo

El trabajo aclaró que esta época fría comenzó debido al aporte masivo de agua dulce proveniente de un lago formado por el deshielo en el casquete que en aquella época había sobre norteamérica. Esto frenó la corriente termohalina que lleva aguas cálidas a la costa oeste europea y que regresa hacia Canadá después de enfriarse en el Ártico y desencadenó una mini edad de hielo.

Aunque no se tratase de un máximo glacial, sino de una época fría en un periodo de transición hacia uno cálido, durante el Dryas reciente el panorama biológico europeo cambió radicalmente. De hecho, esta pequeña edad de hielo debe su nombre a una flor propia de la tundra llamada 'Dryas octopelata' que ocupó durante este periodo las tierras meridionales de Europa.

La comunidad científica no pone en duda ni el origen de esta época ni el importante papel de la corriente termohalina en los cambios abruptos que ocurrieron después del último máximo glacial ocurrido hace 18.000 años. Sin embargo, los investigadores consideran imposible que las consecuencias del cambio climático puedan desencadenar una glaciación severa.

"Las causas del comienzo de una edad de hielo son muy diferentes a las de los pequeños cambios y tienen que ver con cambios en la configuración orbital de la Tierra", asegura Thomas Stocker, del Instituto de Clima y Física Ambiental de la Universidad de Bern, en Suiza.

Francisco Javier Sierro, director del grupo de Geociencias Oceánicas de la Universidad de Salamanca, matiza que las glaciaciones "están controladas por el ciclo de Croll-Milankovic, pero lo que dispara el cambio puede ser una alteración de la corriente termohalina".

Fuente: elmundo.es, 18 de Mayo de 2008

 

 

-Los cometas, mensajeros de la muerte

En su periplo por la Vía Láctea, el Sol rebota a través del plano de la galaxia y puede meter en líos a los planetas que giran a su alrededor. Cuando cruza las partes más densas del vecindario, la fuerza gravitatoria de la estrella –según indican investigadores de la Universidad de Cardiff (Reino Unido)– puede iniciar una marea galáctica, que desplace a los cometas que abundan en la nube de Oort, un auténtico semillero de este tipo de objetos. Atraídos por el Sol, los cometas se lanzan hacia el interior del Sistema Solar y pueden impactar contra la Tierra. Uno de esos cometas habría provocado el fin de los dinosaurios, hace 65 millones de años.
 

Los autores del estudio, que se publica en Monthly Notices of the Royal Astronomical Society, explican que el Sol atraviesa esta zona de la galaxia cada 35 o 40 millones de años, multiplicando por 10 las posibilidades de sufrir una colisión. Ese ciclo coincide con los registros de cráteres de impacto sobre la Tierra, que sugieren que cada 36 millones de años se entra en un periodo en el que se incrementa el número de colisiones.
No obstante, de acuerdo al estudio realizado por William Napier y Janaki Wickramasinghe, los cometas no sólo fueron mensajeros de la muerte; también lo fueron de la vida. Los grandes impactos habrían lanzado al espacio trozos de la corteza terrestre con microorganismos en su interior, que habrían viajado a través del vacío cósmico, para acabar en las regiones de formación de estrellas de la nube de Oort. Así, las nebulosas en las que se forman los sistemas planetarios habrían quedado inseminadas con el germen de la vida terrestre.

Cometa Hyakutake
 

Microsupervivientes
Los autores son investigadores del Centro de Astrobiología de la Universidad de Cardiff, dirigida por Chandra Wickramasinghe, uno de los principales impulsores de la teoría de la panspermia. Esta hipótesis afirma que la vida no apareció en la Tierra, sino que surgió en el medio interestelar y llegó a ella a bordo de cometas o asteroides. Janaki (hija de Chandra) y Napier afirman en su estudio que sus conclusiones son un apoyo para esta discutida teoría. Según ellos, sería posible que los microorganismos expulsados de la Tierra por los cometas llegasen hasta las nebulosas protoplanetarias sin que los rayos cósmicos los aniquilasen antes.
 

“Se sabe que el tiempo de supervivencia varía mucho entre microorganismos y no hay demasiada información disponible, pero podemos pensar en una semivida [el tiempo en que habrían perecido la mitad de los organismos] de unos 75.000 años para los microorganismos expuestos a los rayos cósmicos”, explica Napier. “El tiempo para transferir microorganismos desde la Tierra hasta las regiones de formación de estrellas dentro de la nube molecular cuando pasamos junto a ella es cómodamente menor que esa cifra”, añade. En una inquietante afirmación, los investigadores concluyen que la Tierra está a punto de llegar [puede llevar millones de años] a la zona en que aumentan los impactos.

Fuente: publico.es, 16 de Mayo de 2008

 

 

-Asimo dirige la orquesta sinfónica de Detroit

Los avances tecnológicos han permitido que ASIMO, el robot humanoide desarrollado por Honda, pueda ponerse al frente de la Orquesta Sinfónica de Detroit para dirigir una pieza que hizo las delicias de un público entregado, según ha informado los medios locales.

La actuación de ASIMO tuvo lugar la noche del martes y, según el Detroit News, el público estaba expectante ante la entrada en el escenario de este robot de metro y medio que en el pasado ha sido capaz de emular al ser humano en otras tareas, pero nunca al frente de una orquesta.

"Hola a todo el mundo", dijo ASIMO a la audiencia con una voz aniñada, para luego saludar también a la orquesta.

Dirigir una obra en directo

Tal y como aseguró la portavoz de Honda, Alicia Jones, el reto no sólo era dirigir una orquesta, sino una obra en directo, algo que nunca antes había hecho un robot.

"Es emocionante trabajar con la Orquesta Sinfónica de Detroit ante este magnífico auditorio", añadió ASIMO, que consiguió meterse al público en el bolsillo.

El robot, perteneciente a la generación más avanzada de humaoides, tiene una gran capacidad de movimiento, mayor que la de otros robots, y además puede andar, correr, subir y bajar escaleras y mover sus articulaciones como si fuera una persona.

Fuente: EFE, 16 de Mayo de 2008

 

-Los monstruos marinos del Cretácico llegan al Museo de Historia Natural de New York

Unos monstruos marinos de la época de los dinosaurios llegan a Nueva York, a su Museo de Historia Natural, con el estreno del la película Monstruos Marinos: Una aventura prehistórica, que permitirá a los visitantes descubrir cómo eran los reptiles que vivían bajo el agua hace 80 millones de años, durante el período Cretácico.

La cinta, de 40 minutos de duración está narrada por el actor estadounidense Liev Schreiber y, a partir del próximo 24 de mayo, mostrará el desconocido mundo de los otros dinosaurios que poblaron el territorio que en la actualidad ocupa Estados Unidos.

El filme invita al espectador a acompañar en un viaje por el fondo del mar a una familia de Dolichorhynchops, llamados Dollies por los paleontólogos, que son unas criaturas marinas prehistóricas del tamaño de un delfín y con un morro largo, según comunicó ayer el museo neoyorkino.

Un viaje submarino

Durante este fascinante viaje, los Dollies se encuentran con otros monstruos marinos como el Platecarpus, otro reptil prehistórico con forma de lagartija que es capaz de tragarse a su presa entera, o como el Styxosaurus, con un cuello de más de seis metros de largo y enormes aletas del tamaño de un humano adulto.

Los espectadores también podrán conocer más sobre la vida del Tylosaurus, un depredador marino que llegaba a medir hasta quince metros de largo.

La película muestra así mismo excavaciones paleontológicas en todo el mundo que sirven para explicar cómo los científicos han ido descubriendo por a poco cada vez más datos sobre estos dinosaurios prehistóricos.

Así, por ejemplo, el descubrimiento de un fósil del pez depredador Xiphactinus con un pez que se había tragado entero, permitió tener más detalles sobre su dieta.

La película Monstruos Marinos, producida por National Geographic Cinema Ventures, ha sido financiada en parte por la Fundación Nacional de las Ciencias (NSF), una agencia independiente del Gobierno de Estados Unidos responsable de promover la ciencia y la ingeniería a través de programas de investigación y proyectos educativos.

 

 

 

Monstruos marinos del Cretácico

Fuente: adn.es, 16 de Mayo de 2008

 

-La NASA y el pasado mexicano

La tecnología de la agencia espacial estadounidense ayudará a desarrollar una nueva aplicación arqueológica para estudiar a la antigua cultura que habitó en el sur del país.  Los arqueólogos del Instituto de Tecnología de Rochester, en Nueva York, están trazando "el mapa más detallado y preciso" de Oaxaca, donde los zapotecas formaron el primer "estado" y la primera sociedad urbana de México.

"He trabajado en Oaxaca durante 18 años porque siempre me ha interesado la civilización zapoteca", dijo a BBC Ciencia el profesor Bill Middleton, del Departamento de Antropología y Sociología del Instituto de Tecnología de Rochester, quien dirige el estudio.

"Por lo general, cuando se habla de arqueología mexicana la gente menciona a los aztecas, los mayas y los toltecas".

"Pero muy poca gente conoce la importancia de los zapotecas -agrega- que crearon el primer sistema de escritura, la primera sociedad estatal, las primeras ciudades y controlaron un vasto territorio del país", señala el científico.

 

área de estudio

 

 

Proyecto dirigido por Bill Middleton dirige el proyecto financiado por la NASA y National Geographic

Paisaje arqueológico

La técnica satelital ha sido ya usada en estudios de paisajes urbanos, pero es la primera vez que se utilizará en una investigación arqueológica.

"Creemos que es una herramienta muy útil en arqueología, porque nos ayuda a conocer la forma como las distintas sociedades han utilizado la tierra", señala el investigador.

Las imágenes de satélite que serán utilizadas cubren más de 30.000 kilómetros cuadrados. Con éstas, los científicos esperan identificar y datar los más de 3.000 sitios arqueológicos de los valles centrales de Oaxaca.  Asimismo identificarán fósiles de plantas y otros indicios de vegetaciones y climas que existieron en el pasado.

"Con esto queremos conocer como han cambiado con el tiempo los ecosistemas de la región y podremos obtener un mapa extremadamente detallado del uso moderno de la tierra", explica el científico.

"Es una enorme tarea -afirma Bill Middleton- pero nos permitirá analizar la relación entre las antiguas ciudades y los antiguos asentamientos humanos de forma como no se ha hecho antes".

"Y analizar el papel del ser humano en el cambio del paisaje y el papel del paisaje para determinar cómo se desarrollaron los sitios arqueológicos".

Se trata, dice el experto, de responder -por ejemplo- si el éxito de una sociedad depende del tipo de asentamiento ecológico, o si hubo preferencias en la ubicación ecológica y ambiental de estos sitios arqueológicos. En el proyecto, financiado por la NASA y National Geographic, participan también las universidades de Colorado-Boulder, de Cornell, y el Instituto de Estudios Antropológicos de la Universidad Nacional Autónoma de México.

Comentarios en la Rosa de los Vientos

Fuente: BBC Mundo, Onda Cero, 15 de Mayo de 2008

 


 

 

-Astrónomos de Estados Unidos descubren una supernova en la Vía Láctea

Un equipo de astrónomos ha descubierto la supernova más joven de la Vía Láctea, de sólo 140 años y a la que se estaba siguiendo la pista desde hacía más de dos décadas.

Hasta ahora, la supernova más reciente que tenían identificada databa de 1680, según los estudios sobre la expansión de los restos de Casiopea A. El nuevo descubrimiento, y que se ha estado investigando desde 1985, ayudará a determinar con mayor exactitud la frecuencia con la que las supernovas explotan en la Galaxia.

  La supernova descubierta, indicaron los científicos, no había sido vista en estos 140 años porque explotó cerca del centro de la Galaxia y quedó incrustada en un denso campo de gas y polvo. Esto la hacía tres millones de veces más imperceptible que si hubiera estado en la oscuridad, pero gracias a los nuevos sistemas de rayos X y a las ondas de radio que se utilizan consiguieron penetrar en ella fácilmente.

"Podemos ver algunas explosiones de supernovas con telescopios ópticos en la mitad del Universo, pero cuando están envueltas en esa densidad podemos perderlas de nuestro campo visual", dijo el director de la investigación Chandra, Stephen Reynolds, de la Universidad de Carolina del Norte.

Este descubrimiento ha sido posible gracias al Telescopio Chandra de la NASA y el Observatorio Nacional de Radio Astronomía (NRAO, por sus siglas en inglés). "Afortunadamente, la expansión de la nube de gas tras la explosión brilla en las radio ondas y en los rayos X durante miles de años. Los rayos X y los radio telescopios pueden ver a través de la oscuridad y nos han mostrado ahora aquello que nos habíamos estado perdiendo", agregó Reynolds.

Los astrónomos, explicaron, observan el comportamiento de las supernovas en otras galaxias como la Vía Láctea, y basándose en esas investigaciones, calculan que cada siglo unas tres supernovas pueden explotar en la Vía Láctea, aunque esas previsiones tienen un amplio margen de error.

 

Más de dos décadas de trabajo

"Si estos cálculos fueran correctos, tendría que haber restos de unas diez explosiones supernovas más recientes que la de Casiopea A", dijo David Green otro de los investigadores perteneciente a la Universidad de Cambridge (Inglaterra), quien aseguró que es "un gran descubrimiento el haber conseguido seguir la estela de una de ellas".

Esta investigación comenzó en 1985 cuando un grupo de astrónomos dirigido por Green identificaron el cuerpo celeste G1.9+0.3 como los restos de una supernova, que pensaron que podría ser parte de otra supernova mayor que habría explotado entre 400 y 1000 años antes.

Sin embargo, veinte años después, el seguimiento de este elemento desde el observatorio Chandra reveló que desde 1985 había crecido un 16 por ciento, lo que indicó que los restos de la supernova eran mucho más recientes de lo que habían pensado. La nueva data de la supernova fue confirmada en las pasadas semanas gracias a la nueva tecnología de la observación por radio.

La supernova es una explosión estelar que produce objetos muy brillantes en la esfera celeste y suelen aparecen donde antes no se observaba nada. En ocasiones son difíciles de distinguir si el polvo que desprenden no deja ver su brillo. Los científicos subrayaron que este descubrimiento es fundamental para calcular con mayor precisión la edad de las supernovas de nuestra galaxia.

Añadieron que, además de tener el récord de ser la supernova más joven, la G1.9+0.3 es importante porque nunca se había visto una expansión de partículas tan rápida, lo cual estimulará más estudios desde el observatorio Chandra.

Fuente: EFE, 15 de Mayo de 2008

 

 

-La sonda "Phoenix" está a punto de llegar al polo Norte marciano

Serán menos de diez minutos, pero bastarán para que Marte vuelva a tener en suspense a medio mundo en la Tierra. Ese tiempo durará el descenso a través de la atmósfera marciana de la nave Phoenix Mars Lander, de la NASA, el próximo 25 de mayo. La señal de que el aterrizaje ha sido correcto se espera a las 1.53 del 26 de mayo (hora peninsular), aunque para entonces Phoenix llevará un cuarto de hora posada en Marte -la señal tardará todo ese tiempo en llegar a la Tierra-.

Dentro de su estrategia de mandar naves a explorar el planeta rojo cada 26 meses, la NASA envía esta vez no a un vehículo todoterreno, sino a una sonda de superficie fija. La misión tiene sobre todo dos objetivos: averiguar cuánta agua ha tenido Marte a lo largo de su historia -y dónde- y determinar si el planeta aún podría albergar vida. "No es una misión para detectar vida pasada o presente", aclara la NASA, sino que "Phoenix buscará, además del agua, otras condiciones favorables para la vida".

La nueva nave se encontrará a su llegada con tres sondas orbitales operando en el planeta, más los dos todoterrenos Spirit y Opportunity. Todas estas misiones están participando estas semanas en la preparación del aterrizaje. Mars Odyssey (NASA) ha hecho ajustes en su órbita de forma que le toque sobrevolar la región del aterrizaje de Phoenix cuando éste se produzca; Mars Reconnaissance Orbiter (NASA) y Mars Express, de la Agencia Europea del Espacio (ESA), también han hecho cambios. Las tres naves recibirán y reenviarán a Tierra información de Phoenix durante la delicada maniobra de entrada.

Spirit y Opportunity, por su parte, han enviado señales a las naves orbitales como si ellos mismos fueran la nueva nave, para demostrar que el sistema de comunicaciones funciona.

"Tendremos información de diagnóstico sobre la secuencia de aterrizaje desde lo alto de la atmósfera hasta el suelo", ha declarado David Spencer, uno de los jefes de proyecto de Phoenix Mars Lander. En caso de fallo, esos datos contribuirán a evitar lo ocurrido con una antecesora de de esta misión, la Mars Polar Lander: nunca llegó a saberse por qué falló su aterrizaje, cerca del Polo Norte marciano, en 1999. Fue uno de los ocho intentos fallidos de aterrizaje en la historia de la exploración marciana, que se contraponen a los sólo cinco éxitos.

Es una estadística que remite a la cuestión del suspense, más aún si se tiene en cuenta que Phoenix aterrizará con la misma técnica usada por la Polar Lander: con retrocohetes y paracaídas, y posándose sobre tres patas en lugar de con airbags, como lo han hecho las últimas tres naves que han operado con éxito en la superficie marciana. La razón es que el airbag que necesitaría Phoenix, más grande y con más equipamiento científico que sus predecesoras, sería demasiado pesado. En cualquier caso, la NASA asegura haber corregido los puntos débiles del sistema de descenso y aterrizaje de la Polar Lander.

Hay otras similitudes con esa nave perdida. Phoenix es también una misión para explorar una región polar, hasta ahora sólo observada por naves orbitales. Phoenix aterrizará en la llanura Vastitas Borealis, en un valle amplio y poco profundo que en invierno se cubre de hielo de dióxido de carbono y se deshiela en primavera, la estación actual.

Pero lo que más interesa a los científicos es que los datos de otras naves indican que ahí hay hielo de agua a menos de medio metro de profundidad, y Phoenix es la primera misión capaz de tocar ese hielo. Cuenta para ello con un brazo robótico que cavará una zanja y obtendrá muestras, para después analizarlas in situ "calentándolas y 'olfateándolas", explica la NASA. Y añade: como el brazo se introducirá en un entorno donde podría haber microorganismos, irá envuelto en una "barrera biológica" que evitará "la introducción de vida de la Tierra".

Fuente: elpais.com, 14 de Mayo de 2008

 

 

-Comer con miedo

Hidrocarburos en aceite de girasol ucraniano, dioxinas en mozzarella italiana, productos alimenticios chinos con irregularidades en el etiquetado y en las condiciones higiénico-sanitarias, aceite de oliva adulterado italiano o anisakis en pescado son algunas de las últimas amenazas de la dieta de los europeos.

Si atendemos a las últimas noticias sobre seguridad de los alimentos, veremos cómo se mantiene la línea anunciada por la Organización Mundial de la Salud (OMS), cuando en el verano de 2007 advertía del alcance mundial de los problemas de contaminación en alimentos. Entonces, la organización internacional sanitaria confirmaba que cada mes puede llegar a recibir un total de 200 informes de productos alimentarios en mal estado. En esta dirección parecen ir los últimos incidentes confirmados en el ámbito comunitario, que vulneran la salud de los consumidores si no se toman las medidas adecuadas.

Del aceite, al queso y demás

Los efectos del último de ellos todavía se dejan ver en las decisiones de las autoridades sanitarias españolas. La detección de hidrocarburos, un grupo de más de 100 sustancias de las cuales un pequeño grupo son cancerígenas, en aceite de girasol procedente de Ucrania movilizaba hace tan sólo una semana los responsables sanitarios europeos. No sólo se han retirado las partidas de aceite de girasol procedente de este país, sino que la misma Agencia Europea de Seguridad Alimentaria (
EFSA, en sus siglas inglesas) recomienda que los países afectados (España, Francia, Italia, Reino Unido y Holanda) retiren también los productos que hayan sido fabricados en más de un 10% con este aceite. La medida afectaría pues a productos como la mayonesa, las conservas o la bollería industrial.

Si queremos comer queso, deberemos vigilar con la mozzarella procedente de tierras italianas, concretamente de la zona de la Campania. La alerta llegaba el pasado mes de marzo, cuando se confirmaba la presencia de dioxinas, sustancias potencialmente cancerígenas producto de la combustión de algunos materiales, en queso mozzarella fabricado con leche de búfala. Según los resultados de las investigaciones, estas sustancias habrían llegado al alimento a través del forraje o de la basura acumulada en la región de Nápoles tras ser quemada.

Lejos de las fronteras europeas, pero no por ello con menos repercusión en el campo de la seguridad alimentario fue la detección, a principios de 2008, de mercurio en sushi (pescado crudo) comercializado en locales de Nueva York. Entonces, el riesgo se centró en locales de la ciudad, donde el sushi que servían excedía los límites máximos exigidos por ley. Más amenazas: acrilamida en alimentos ricos en carbohidratos sometidos a altas temperaturas; micotoxinas en cereales que pueden tener riesgos en la salud humana; anisakis en pescado, un parásito habitual en este alimento; virus entéricos en moluscos bivalvos o formación de aminas biogénicas.

Muchas de estas amenazas han puesto en tela de juicio algunas de las actuaciones en materia de producción alimentaria, y han obligado a que las autoridades sanitarias tomaran cartas en el asunto, no sólo para reducir el riesgo real, sino también para ganar la cada vez más comprometida confianza del consumidor. Una labor que lleva implícito un gran esfuerzo de todos los implicados, desde autoridades internacionales y nacionales hasta productores.

Amenazas latentes

En ello aún se trabaja en el sector cárnico, concretamente para restablecer lo perdido en la crisis de las vacas locas, que se traducía en sus inicios (por el año 2001) en un brusco descenso del consumo. Recuperada la confianza, la crisis vuelve a tambalearse con el anuncio, en España, de dos casos de la enfermedad de Creutzfeldt-Jakob, la variante humana del mal de las vacas locas, registrados en diciembre de 2007 y febrero de 2008 en Castilla y León. No cabe duda de que se trata de dos muertes relacionadas con la crisis iniciada hace más de ocho años.

Y si en el ámbito de la sanidad animal nos movemos, no debemos pasar por alto la amenaza que de nuevo significa la lengua azul, cuyo vector transmisor acaba de reaparecer en zonas consideradas ya como «estacionalmente libres» en el territorio nacional. Desde el pasado mes de abril y hasta diciembre de 2008 están vigentes en la UE, a expensas del Comité Permanente de la Cadena Alimentaria, condiciones que obligan a vacunar los animales que se trasladan de zonas restringidas a otras áreas consideradas «libres de lengua azul». De no ser así, deberá garantizarse de que están inmunizados naturalmente.

Sea de donde sea que procede el problema, lo que está claro es que el riesgo cero en alimentación es casi una utopía, uno de los ideales para los responsables de este sector y una garantía fuertemente perseguida por los consumidores.

Fuente: Weblogs mi+d: Política científica, 15 de Mayo de 2008

 

 

-La sonda "Cassini"  busca un océano de agua en el polo sur de la luna Encedalo

Todos esperaban grandes sorpresas de la misión 'Cassini-Huygens', pero pocos apostaban por Encelado, una pequeña y hasta ahora discreta luna de Saturno que se ha revelado como uno de los cuerpos planetarios más interesantes del Sistema Solar.

Tras haberse mostrado como un mundo mucho más activo de lo que se creía, sobre todo por la posibilidad de albergar agua líquida en su superficie, este satélite de Saturno se ha convertido en uno de los objetos de estudio más interesantes para la nave 'Cassini', que orbita alrededor del planeta de los anillos desde el año 2004. La sospecha de que hay agua en Encelado se debe a los enormes géiseres o surtidores de hielo que emanan de su polo sur. La atmósfera del satélite es muy tenue, pero algo más intensa en esta zona, lo que probablemente se debe a los gases que emanan de los propios géiseres.

Los géiseres de hielo, además, escapan al espacio y forman uno de los anillos de Saturno. Los científicos creen que el origen de esta actividad puede hallarse en un lago o incluso un océano de agua, igual que en la Tierra los surtidores provienen de aguas subterráneas. Durante su acercamiento a Encelado, la sonda 'Cassini' tenía previsto rondar el satélite a unos 200 kilómetros de distancia, y situarse a sólo 50 kilómetros en el momento de máxima proximidad.

Aunque la maniobra se llevó a cabo sin problemas, un error de programación impidió que el Analizador de Polvo, uno de los instrumentos claves de la nave, recogiera sus datos.La NASA describió el problema como "un contratiempo de software inexplicable". "Al atravesar la columna, no estaba funcionando apropiadamente", explicó Bob Mitchell, director del programa 'Cassini', según informa Reuters.

"Probamos el software muy cuidadosamente. No sabemos por qué no funcionó", agregó.

Fuente: elmundo.es, 14 de Mayo de 2008

 

-Siete plumas de hace 100 millones de años avalan la evolución de los dinosaurios en aves

El hallazgo de siete pequeñas plumas de hace 100 millones de años atrapadas en un trozo de ámbar ha abierto nuevamente la polémica científica de si corresponden a un dinosaurio alado o pertenecieron a un ave. En cualquier caso, el descubrimiento arrojará luz sobre la etapa crucial de la evolución de las plumas entre las fauna que poblaba la Tierra.

Plumas de hace 100 millones de años fosilizadas en ámbar

Las siete plumas presentan un excelente estado de conservación, y un fueron halladas en una mina de la región de Poitou-Charentesm en el oeste de Francia, en el año 2000.

Todas se encuentran dentro del mismo trozo de ámbar, y el cañón de las mismas (eje central) es de los más primitivos que se conocen y que más parecidos son a los actuales, según ha señalado el equipo investigador a National Geographic News.

Los filamentos o lengüetas tienen gran parecido a los de las actuales plumas, con la tendencia de mantener siempre la misma curvatura de los filamentos más finos hacia la punta final.

«Es muy probable que las plumas procedan de un dinosaurio y no de un ave», ha señalado Vincent Perrichot, del Instituto Paleontológico de la Universidad de Rennes, en Francia, autor del hallazgo y que ha participado en su posterior estudio.

Las plumas de 100 millones de años de antigüedad son similares a las fibras fosilizadas encontradas en los dinosaurios de sólo dos patas, conocidos como terópodos, igualmente parecidas a las de las aves actuales.

Esta circunstancia indica que el hallazgo en Francia podría aportar nuevos datos a la teoría dominante de que los dinosaurios dieron lugar a las aves una vez que desaparecieron, según ha explicado el equipo de Perrichot.

El descubrimiento proporciona un ejemplo claro «de la evolución entre los filamentos primitivos y una pluma moderna» señala Didier Néraudeau del equipo investigador, perteneciente a la Universidad de Rennes, en Francia.

 

Otros restos fosilizados de dientes de dinosaurio fueron hallados justo por encima del sustrato que contenía los trozos de ámbar donde fueron halladas las plumas, lo que todavía da más verosimilud a que pertenecieran a una especie de dinosaurio.

Fuente: elmundo.es,  14 de Mayo de 2008

 

-"Moko", la delfín que salvó a dos ballenas

Una hembra de delfín ha salvado a dos cachalotes que quedaron encallados en una playa de la Isla Norte de Nueva Zelanda, ante la mirada atónita de un miembro del departamento de Conservación del Gobierno.  El experto Malcolm Smith ha explicado que los hechos ocurrieron el lunes, cuando se había pasado más de una hora intentando animar a las ballenas, una madre y su cría, para que dieran media vuelta y volvieran a mar abierto. Los cetáceos lo intentaron una y otra vez pero quedaron atrapados en un banco de arena frente a la playa sin poder salir al océano, por lo que Smith empezó a valorar la posibilidad de sacrificarlos para ahorrarles el sufrimiento.

"Las ballenas estaban desorientadas y exhaustas, tenían la espalda arqueada y se llamaban la una a la otra continuamente", relató Smith.

Entonces llegó una delfín que a menudo visita la playa y es conocido por los locales como 'Moko', y en ese momento las dos ballenas se sumergieron en el agua, giraron y siguieron al animal unos 200 metros mar adentro, logrando superar la larga barrera de arena que las mantenía encalladas. La delfín, que ya era popular entre bañistas de la zona y turistas por su carácter amigable, regresó a la playa de Mahia, al este de la isla, para jugar con los locales, dijo Smith, quien aseguró que nadie ha vuelto a ver a las ballenas.

Fuente: elmundo.es, 13 de Mayo de 2008

 

 

-Científicos españoles trabajan en un prototipo para llevar a cabo la transportación cuántica

Un equipo de investigadores españoles trabajan en un proyecto de la Agencia Espacial Europea (ESA) sobre teletransportación cuántica que consiste en el envío de un manual de instrucciones para reconstruir objetos idénticos en lugares lejanos. El llamado "transceptor", que estará listo en junio de 2010, es el prototipo de un sistema que se instalaría en el módulo Columbus de la Estación Espacial Internacional (EEI) y enviaría fotones entrelazados a dos estaciones terrestres, ubicadas a 1.400 kilómetros de distancia, en Tenerife y en la localidad de Calar Alto, en Almería.

José Capmany, miembro del Grupo de Comunicaciones Ópticas y Cuánticas de la Universidad de Politécnica de Valencia (UPV), ha explicado a Efe que el proyecto, conocido como Space-Quest: Quantum Entanglement in Space Experiments, está formado por una serie de experimentos que pretenden investigar el comportamiento de los fenómenos cuánticos en el espacio.

En él participan tres grupos de investigación del Instituto de Ciencias Fotónicas (ICFO), uno del Instituto de Telecomunicación y Aplicaciones Multimedia de la UPV y otro de la Universidad Complutense de Madrid. También intervienen varias empresas como Tecnológica, Thales Alenia Space, y las dos pymes Emxys y Lidax.

Transmitir el estado cuántico de las partículas

Según Capmany, "desplazar individuos de un planeta a otro en un instante sigue siendo ciencia ficción, pero los científicos ven factible transmitir el estado cuántico de partículas microscópicas de un punto del espacio a otro alejado del primero", ha matizado.

El investigador de la UPV precisó que "no se trataría de transportar materia, sino de enviar el manual de instrucciones que permita reproducir fielmente el estado de una partícula en otra partícula alejada de la primera".

"De hecho, éste resultado ya se ha logrado en laboratorios terrestres. Sin embargo, indicó Capmany, conseguir el mismo efecto en el espacio tendría unas implicaciones cruciales para el desarrollo de aplicaciones tecnológicas".

El transceptor cuántico tendrá las características que impone una misión espacial, como son las dimensiones pequeñas (una caja de no más de 20 centímetros de lado), peso limitado (menos de 3 kilogramos) y bajo consumo (menos de 15 watios).

Fuente: EFE, 12 de Mayo de 2008

 

 

-Descubierto un planeta de volumen similar a la Tierra

Un nuevo exoplaneta de un volumen similar al de la Tierra ha sido descubierto en la constelación de Sagitario por un equipo internacional dirigido por el astrónomo estadounidense David Benett, según el sitio internet Ciel & Espace. Este exoplaneta, bautizado MOA-2007-BLG-192-Lb, gira en torno a una estrella que y su masa es de sólo unas tres veces la de ésta, según la publicación especializada.El descubrimiento se había hecho el pasado año, pero los investigadores no habían querido darlo a conocer hasta tener la certidumbre de que no se trataba de un simple artefacto.

Con él son ya 230 los planetas exteriores al sistema solar registrados desde 1995, y su localización viene a confortar la idea de que la Vía Láctea contiene miles de millones de ellos similares al nuestro De acuerdo con las informaciones disponibles, MOA-2007-BLG-192-Lb tiene temperaturas del orden de 250 grados bajo cero, y eso pese a que la distancia con respecto a su estrella es similar a la que hay entre el Sol y Venus, que es por su parte un horno. La razón es que como la masa de dicha estrella es el 6% de la del Sol, la energía que emite no es suficiente para que se puedan dar condiciones de vida en el planeta, a menos de que esté dotado de una atmósfera muy densa "capaz por efecto invernadero de retener su calor interno", según explicó a "Ciel & Espace" el astrónomo francés del Observatorio de Midi Pyrénées Pascal Fouqué.

Fuente: EFE, 9 de Mayo de 2008

 

 

-Ciencia pasada por agua

Es la edición número trece, y cuesta recordar otra tan pasada por agua. En la fiesta de la ciencia, los supersticiosos se llenaron de razón. Pese a que la lluvia restó asistencia, el espectáculo continuó, y los estudiantes, un millar, mantuvieron abiertos contra viento y marea sus puestos en el parque de Santa Margarita, al igual que las entidades colaboradoras.Pasadas las doce, cuando la lluvia solo es una amenaza, en la carpa de la Facultade de Informática, un robot sigue, a duras penas, una gruesa línea negra trazada sobre una mesa. «Le han puesto un circuito difícil. Si va Fernando Alonso dentro, aún bueno, pero es que es un robot», reflexiona un señor que sigue la zigzagueante trayectoria del bólido. «El circuito lo ha pintado un visitante, y sí, nos lo ha puesto complicado», admiten Manuel Eiroa y Javier Álvarez, del equipo de robótica, que es el que ha programado este ingenio. «Tiene varios sensores. Uno de ellos distingue los cambios de intensidad del color», explican el funcionamiento del robot.

Muy cerca, la Agrupación Astronómica Coruñesa Io invita a mirar por un telescopio. Lo tiene enfocado a un punto concreto del cielo. «¿Pero cómo es posible que se vea una galaxia, y además de día?», preguntan asombrados un buen puñado de curiosos que echan un ojo. La explicación la encontramos en la cúpula de la Casa de las Ciencias, de donde han colgado una fotografía de una galaxia: «Es la M-31», explica Julio Casal, de Io.

Demostración en la que se usa un corazón

Caen del cielo las primeras gotas. Desde la megafonía, una voz femenina anuncia: «Llueve, pero en el módulo siete demuestran que el agua no moja». Allá se dirigen, a presenciar tal milagro, muchos sin paraguas . Dos alumnas de las Franciscanas te sirven un chupito de agua, te piden que pegues un papel al vasito y le des la vuelta. Claro, no se cae. «Es debido a la presión atmosférica», precisa una estudiante que tiene muy bien aprendida la lección. Carpa debutante es la del Museo Nacional de Ciencia y Tecnología, que tendrá su sede principal en A Coruña. Para su estreno, apuesta por enseñar «aparatos de precinema». Antes de que José Sellier rodase en A Coruña la primera película española con una cámara Lumière, proliferaron aparatos de nombres tan peculiares como taumátropo o fenaquistiscopio, que son los que aquí se muestran.

La lluvia va a más, así que quizá sea un buen momento para dejar atrás las 35 carpas y subirse en el bus gratuito que te transporta hacia cuatro recintos cerrados. A elegir: Domus, Casa de los Peces, Instituto Español de Oceanografía o Agencia Estatal de Meteorología. Optamos por esta última, en la que nos explican que en A Coruña llueve una media de 171 días al año. Al Día de la Ciencia en la Calle del 2008 le ha tocado ser uno de ellos.

Fuente: La Voz de Galcia, 11 de Mayo de 2008

 

 

-La NASA contará con uno de los ordenadores más potentes del mundo

Se trata de supercomputadoras capaces de hacer 1.000 trillones de cálculos por segundo.  La NASA espera tener la máquina en 2009 y estima que tres años más tarde podría aumentarle la potencia a 10 petaflops.

Si logra concretar el proyecto, será una de las pocas organizaciones que contará con una supercomputadora tan potente.  La supercomputadora se instalará en el Centro de Investigación Ames de Moffet Field, California.  Allí la NASA tiene su actual supercomputadora, llamada Columbia, que fue encendida por primera vez en 2004 y que tiene una velocidad teórica de 88,88 teraflops.

Columbia ocupa el vigésimo lugar entre las más poderosas supercomputadoras del planeta, según el Proyecto "Top 500", que elabora una lista del rendimiento relativo de estas máquinas.  Construir una computadora petaflop catapultaría a la NASA hacia los cinco primeros lugares de la lista.  Actualmente, la más poderosa supercomputadora en la Tierra es la Blue Gene/L que tiene una velocidad máxima de 478,2 teraflops.

Se espera que las computadoras petaflops hagan su debut en la nueva lista de las "Top500" que saldrá en junio.  El Proyecto Pléyades, como fue bautizado por NASA, contará en la fabricación de la máquina con la ayuda de Intel y SGI. En un comunicado el director de Ames, Pete Wordem dijo que la instalación de la supercomputadora se necesita para permitir una "fidelidad más alta" en sus futuras misiones de modelado y simulación.  La actual supercomputadora ha sido usada por la NASA para investigar el rendimiento de aviones hipersónicos, simular procedimientos de aterrizaje y modelar materiales para futuros trajes espaciales.

"Este rendimiento adicional de las computadoras es necesario para ayudarnos a lograr avances en descubrimientos científicos", señaló Worden.

Fuente: BBC Mundo, 11 de Mayo de 2008

 

 

-La zona de aterrizaje del Phoenix a color

El aterrizador marciano Phoenix de la NASA tiene previsto aterrizar en las llanuras norteñas marcianas el próximo día 25 de Mayo de 2008, cerca de los 68 grados de latitud norte y 127 grados de longitud oeste. Como preparativo para el aterrizaje, el Orbitador ‘Mars Reconnaisance Orbiter’ (MRO) ha estado monitorizando el tiempo en la región cercana a la zona de aterrizaje.
 

La cámara contextual de la MRO tomó esta imagen de la zona de aterrizaje a la vez que la cámara de color tomó la anterior. Esta imagen, tomada el 20 de Abril, consiste en una franja que cubre unos 26 kilómetros por lado, y es parte de una imagen mayor (PIA10632). Muestra dos remolinos de polvo con sus sombras. A partir de la medida de la sombra, uno de los remolinos alcanza una altura de 590 metros con una cola de polvo extendiéndose 920 metros sobre la superficie. El otro alcanza unos 390 metros de altura, con una cola de polvo de 790 metros. La resolución de la imagen es de 6 metros/píxel.

 

El 20 de Abril, la cámara de color del MRO capturó esta vista de una vasta región del norte de Marte que incluye la zona designada para el aterrizaje en el cuadrante inferior derecho. Esta versión de la imagen, con anotaciones, muestra la localización de la elipse de aterrizaje, de unos 100 kilómetros de longitud. Cuando la cámara de color adquirió esta imagen, era finales de primavera en el hemisferio norte de Marte. Unas pocas semanas antes, el sitio de aterrizaje de Phoenix estaba cubierto de escarcha estacional. Un punto dentro de la elipse de aterrizaje marca la localización de dos remolinos de polvo (‘dust devil’) visibles en la imagen de la cámara contextual.

 

Fuente: sondasespaciales.com, 9 de Mayo de 2008

 

 

-El desierto del Sáhara se terminó de formar hace tan sólo 2700 años

La transición del norte de África de un Sáhara verde a uno de los desiertos más grandes del mundo ocurrió "lentamente" en vez de ser un cambio abrupto como hasta ahora se pensaba. Así lo afirma un estudio dirigido por científicos del Instituto de Arqueología Prehistórica de la Universidad de Colonia en Alemania publicado por la revista 'Science'.

Lago Yoa, al noroeste del Chad, el más grande del Sáhara, proporciona el único archivo continuo

 de las transformaciones climáticas del desierto más importante del mundo

Los resultados señalan que el paisaje extremadamente árido del Sáhara se consolidó hace tan sólo 2.700 años. La mayoría de los registros físicos que documentan la evolución del paisaje del Sáhara se han perdido con el tiempo, pero al estudiar uno de los lagos más grandes de la zona, el lago Yoa al noreste del Chad, fue posible llegar a estas conclusiones. Los investigadores, dirigidos por Stefan Kröpelin, lograron construir un registro continuo y bien datado del cambio en el clima y el ecosistema en esa localización en los pasados 6.000 años. En el estudio se utilizaron datos de una secuenciación de alta resolución de sedimentos y lecturas geoquímicas, así como indicadores biológicos como el polen, esporas y los restos de organismos acuáticos.

Los resultados proporcionan evidencias de que la transformación del paisaje del Sáhara en los pasados 6.000 años supuso una reducción gradual en la abundancia de la vegetación tropical, seguida por la pérdida de la cubierta de hierba y finalmente por el establecimiento de la actual comunidad de plantas de desierto.Estos descubrimientos están en oposición con algunos resultados previos que indican un colapso rápido de la vegetación y un final repentino del periodo húmedo africano.

Fuente: Agencias, 9 de Mayo de 2008

 

 

 

 

-La NASA homenajea a "2001: una odisea del espacio"

La NASA rindió el jueves homenaje a 2001: Una odisea del espacio, una película que en su estreno hace 40 años anunció muchos de los adelantos que ahora son una realidad en la exploración espacial.

Esa película, dirigida por Stanley Kubrick, "despertó la imaginación e hizo un anuncio realista de lo que sería nuestro futuro en el espacio", señaló la agencia espacial en su sitio de Internet. Cuando la cinta se estrenó hace 40 años, vivir y trabajar en el espacio a tiempo completo era una cosa de ciencia ficción, dijo la NASA.

Actualmente, hay tres ocupantes en la Estación Espacial Internacional (EEI) los 365 días al año y controlan uno de los proyectos de ingeniería más complejos de la historia. "La estación nos ayuda a ampliar los horizontes de la ciencia, la tecnología y la ingeniería del siglo XXI", agregó.

En La película, basada en el cuento The Sentinel del escritor inglés Arthur C. Clarke, el astronauta y científico David Bowman realiza una misión en busca de un extraño objeto geométrico hallado en la Luna.

La historia se escenifica en el año 2001 y en su búsqueda Bowman llega a una órbita en torno al planeta Júpiter. En su nave llamada "Discovery", como uno de los veteranos transbordadores de la NASA, Bowman mantiene contacto con un compañero de tripulación y una supercomputadora llamada HAL 9.000.

Esta computadora sufre un desperfecto que causa la muerte del compañero de tripulación de Bowman, quien debe utilizar toda su astucia e inteligencia para vencer a la supercomputadora y recuperar el control de la nave.

2001: Una odisea del espacio, muestra una versión imaginada del futuro en el espacio, "gran parte del cual está ahora en el pasado", dice la NASA. Para los científicos de la agencia espacial estadounidense una de las visiones más notables del filme es la enorme estación que gira en una órbita baja sobre la Tierra.

Futurista acertado

Pero esa no fue la única visión futurista con la que los productores de la película tuvieron un acierto pleno. Había también monitores de pantalla plana, algo que en aquella época eran una cosa de ciencia ficción de la que ni siquiera se hablaba en 1968. También lo eran las cabinas transparentes de las naves y los recursos de diversión y entretenimiento para los larguísimos viajes del espacio.

"Hoy están los DVDs, los iPod y las computadoras portátiles, (incluso de bolsillo), con acceso al correo electrónico", manifiesta la NASA. La agencia espacial apunta a una de las escenas más recordadas de la película en la que Bowman, el personaje central, hace ejercicio físico.

"A bordo de la Estación Espacial Internacional eso ya es rutina. En abril de 2007, a más de 350 kilómetros de la Tierra y mientras estaba en órbita, la astronauta Sunita Williams, corrió el maratón de Boston", recuerda.

Arriba estación espacial de 2001, abajo la Estación Espacial Internacional (ambas en construcción)

A la izquierda tenemos al astronauta corriendo por el interior de la nave de la película. A la derecha, la astronauta de la NASA Williams haciendo haciendo lo mismo en la ISS.

Arriba tenemos a un astronauta de 2001 listo para salir al espacio, abajo la misma escena pero en la ISS

La noticia dada por la NASA

La película épica sobre el futuro de la exploración espacial: "2001, una odisea en el espacio" hizo que muchos se enamoraran de las ilimitadas posibilidades de la exploración espacial. La película despertó la imaginación y permitió prever como podría ser el futuro en el espacio.

Hace 40 años, cuando se estrenó la película, trabajar y vivir en el espacio era ciencia ficción.  Hoy, tres personas viven a lo largo de todo el año en la Estación Espacial Internacional trabajando en los más complejos de ingeniería a lo largo de la historia. La estación está ayudando a expandir los límites de la ciencia, la tecnología y la ingeniería del siglo 21. Desde el complejo espacial de la NASA, el astronauta   Garrett Reisman ha grabado un mensaje que fue escuchado en el homenaje que se hizo a "2001, una odisea en el espacio",  el 25 de Abril en el teatro Samuel Goldwyn situado en Bervelly Hills. El acto fue organizado por la Academy of Motion Picture Arts and Sciences. El actor Tom Hacks hizo una introducción al comienzo del acto. Luego, los actores Keir Dullea, Gary Lockwood and Daniel Richter y los técnicos en efectos especiales  Douglas Trumbull  y artist Bruce Logan hablaron sobre su trabajo en la película.

La película fue una creación entre el director Stanley Kubrick y el novelista de ciencia ficción Arthur C. Clarke. De esta colaboración nació un guión y una novela, ambas inspirados en un relato escrito por Clarke en 1950 llamado "The Centinel".
 

"2001, una odisea en el espacio"  muestra un futuro del que se podría destacar varios momentos que se han convertido en realidad:

-La estación espacial orbitando alrededor de la Tierra y girando sobre si misma. Aunque tenga una forma distinta, la Estación Espacial  Internacional permite que exista una tripulación de nacionalidades distintas permanente en el espacio.

-Los monitores de ordenador de pantalla plana, inimaginables en 1968, son ahora comunes.

-En el film aparecen cabinas de cristal en las naves espaciales,  algo que existe desde hace tiempo en los transbordadores.

-En el film aparecen aparatos de entretenimiento que recuerdan a los videojuegos, ipod, ordenadores con acceso a internet o DVDs de la actualidad.

-Otra famosa escena de la película es la de un astronauta corriendo dentro de la nave. En la Estación Espacial Internacional eso es rutinario. En Abril de 2007, la astronauta Susan Williams corrió la maratón de Boston mientras estaba en órbita.

Aunque hay cosas de la película que no se han hecho realidad, algunas están siendo proyectadas actualmente. Un ejemplo es el proyecto de colonización de la Luna que está planificando la NASA para el 2020. Otros proyectos como hoteles espaciales y viajes turísticos al espacio están siendo planificados por compañías privadas.

Cuando terminemos la estación espacial, trabajaremos para regresar a la Luna,  viajar a Marte y más allá. Somos parte del fantástico futuro que Kubrick y Clarke imaginaron hace 40 años.

 

 

Fuente: adn.es, NASA,   9 de Mayo de 2008

 

 

 

-América se pobló mil años antes

Un grupo de científicos asegura haber encontrado nueva evidencia que respalda esa revelación.  Con esto, afirman los investigadores en la revista especializada Science, esperan poner fin al largo debate sobre cómo y cuándo ocurrió la migración de los primeros americanos.  El estudio, llevado a cabo por científicos de la Universidad de Vanderbilt, Estados Unidos, y la Universidad Austral de Chile, afirma que los pobladores siguieron una ruta de migración por la costa del Pacífico hace más de 14.000 años.

"Volvimos a analizar muestras que recolectamos en Monte Verde (un sitio arqueológico en el sur de Chile)" dijo a BBC Ciencia el profesor Mario Pino, de la Universidad Austral de Chile y uno de los autores del estudio.

"Descubrimos fragmentos de algas de especies que no habíamos visto antes en el sitio y después de fecharlas con técnicas radiocarbónicas confirmamos que tienen entre 13.980 y 14.220 años de antigüedad", afirma el investigador.

El sitio de Monte Verde, localizado a unos 800 kilómetros al sur de Santiago de Chile, fue descubierto en 1976.  Allí se encontraron ruinas bien conservadas de un pequeño asentamiento de unas 20 ó 30 personas que vivían en una docena de cabañas.  Se encontró también una gran variedad de fósiles de productos alimenticios, incluidas especies extintas de llamas, de un animal parecido a un elefante llamado gomphotere, mariscos, vegetales y nueces.

Restos arqueológicos

Controversia

Los científicos llegaron a la conclusión de que estas muestras databan de hace 14.000 años, lo cual desató un acalorado debate ya que estos resultados contrariaban la teoría ampliamente aceptada sobre los primeros asentamientos humanos en América.  Esta teoría afirma que la colonización humana de América comenzó a fines de la última Edad de Hielo, hace unos 13.000 años. Y que los primeros pobladores fueron grupos de cazadores, llamados Clovis, que cruzaron de Siberia a Alaska por el estrecho de Bering y gradualmente se establecieron en el norte de América.

Monte verde

Sin embargo, ninguno de los artefactos de los Clovis descubiertos hasta ahora datan de más de 13.000 años. Después de años de controversia, y tras haber revisado la evidencia de Monte Verde, los científicos dicen que la nueva evidencia confirma la antigüedad del asentamiento de Monte Verde.

"Con el análisis de los fragmentos de alga que logramos recuperar, podemos confirmar que Monte Verde fue ocupado unos 1.000 años antes que los otros asentamientos americanos fechados hasta ahora", afirma el profesor Pino.

La mayoría de los académicos cree que los primeros pobladores siguieron una ruta de migración a lo largo de la costa del Pacífico, con lo cual pudieron aprovechar los recursos costeros.  Pero hasta ahora no se ha podido encontrar pruebas que apoyen esta teoría de migración costera.  El principal problema es que el nivel del mar en aquella época era 60 metros más bajo que hoy en día, y a medida que el nivel aumentó pudo haber cubierto dichos asentamientos costeros.  Tal como señala el profesor Pino, la nueva evidencia de Monte Verde apoya esa teoría de migración costera.

"Dibujamos el mapa de la costa de la época para calcular la distancia que tenían que recorrer para obtener algas de fondo rocoso y algas de fondo arenoso", señala el investigador.

Monte Verde está localizado en pequeño afluente de un río y el sitio se ubica a unos 120 metros sobre el nivel del mar a unos 80 kilómetros de la costa.

"Y a pesar de esta ubicación tierra adentro, pudimos identificar hasta nueve especies distintas de algas, que los monteverdinos tuvieron que haber traído desde la costa", afirma el profesor Pino.

Los científicos creen que al haber encontrado tantas nuevas especies de algas tierra adentro demuestra que los pobladores de Monte Verde eran conocedores experimentados de la playa y sus recursos. Y también mantuvieron la tradición de explotar esos recursos costeros.

"La relación de las culturas antiguas con las plantas -explica el profesor Pino- ya sean plantas continentales o marinas es una relación que se origina muy lentamente".

"Lo vemos con las plantas medicinales, que sólo se desarrollan cuando hay una experiencia de muchas generaciones", agrega.

"Este estudio revela que el uso de plantas marinas de los monteverdinos confirma que su relación con el mar es muy antigua".

"Y esto es un argumento a favor de que la ruta migratoria de los americanos estuvo muy cerca del mar, desde el estrecho de Bering hacia Puerto Montt", expresa Mario Pino.

Fuente: BBC Mundo, 8 de Mayo de 2008

 

 

-Don "Carlos" Darwin, el naturalista curioso que hablaba español

Si hay alguien que se conozca los más asombrosos detalles de la vida y obra de Charles Darwin es John Van Wyhe, historiador de la Ciencia en la Universidad de Cambridge (Reino Unido)y creador de la página web Darwin on line, el mayor compendio de materiales sobre el famoso científico británico, padre de la Teoría de la Evolución.

Van Wyhe, que ofreció ayer una conferencia en la Residencia de Estudiantes invitado por el British Council, reconocía a este diario que siempre ha sentido admiración por Darwin, al que ha dedicado su vida investigadora.

De hecho, si se le pregunta, es incapaz de encontrarle un defecto. "Cambió la evolución de la Ciencia como ningún otro contemporáneo. Si hubiera muerto en el Beagle [el barco en el que dio la vuelta al mundo] se hubiera tardado muchos años en llegar a sus conclusiones. Además, era un hombre amable, nada arrogante y, como se refleja en sus cartas, con sentido del humor; le gustaban los chistes", asegura.

Charles Darwin en 1840 antes de publicar el "Origen de las Especies"

El investigador británico se conoce infinidad de detalles de su vida. Por ejemplo que hablaba español, aunque con mal acento. "En otro caso, era imposible que conociera tantos detalles de especies locales de Latinoamérica, que le transmitían los guías y las gentes de los lugares". O que los gauchos le llamaban Don Carlos, el naturalista. Y si alguien preguntaba qué era eso, puntualizaban: «Es la persona que sabe de todo».

Van Wyhe cree que si guardó 20 años la Teoría de la Evolución en un cajón antes de publicarla fue "porque estaba muy ocupado" . ¿Acaso no la creía importante? «Si sabía que su trascendencia, pero pensaba que su aportación había sido poca. Era muy humilde», insiste.

Por ello no le entra en la cabeza que 150 años después surjan las teorías creacionistas, como contraposición al Darwinismo. «Es increíble porque ya en su época se aceptó, incluso entre los cristianos», recuerda.

Fue en el año 2002 cuando, durante una estancia en la Universidad de Singapur, el joven británico comprobó que toda la información sobre Darwin andaba desperdigada por Internet, y a retazos.

 

Jonh Van Wyde, investigador sobre Charles Darwin

Inició entonces un proyecto que ha culminado ahora, en abril de este año, con la publicación 'online' de 43.000 páginas de texto e imágenes sobre el personaje, que incluyen todas sus obras, sus diarios, sus cartas, sus fotos infinidad de estudios sobre su persona y obra.

Sólo el primer día, Darwinonline.org recibió siete millones de visitas. Un éxito rotundo. "En abril se descargaron 68.000 copias de 'El origen de las Especies', más de las que Darwin vendió en toda su vida", asegura Van Wyhe. Pero aún queda material por recopilar y el investigador recuerda que hay una lista de libros en la web que se le pueden enviar «también desde España».

Para el bicentenario de su nacimiento, en 2009, Van Wyhe prepara un museo en el Christ’s College, donde estudio el naturalista, y varios libros. El museo incluye la habitación en la que vivió Darwin cuando era estudiante, además de muchos de sus libros. Aún se está investigando de qué color era entonces.

Fuente: elmundo.es, 8 de Mayo de 2008

 

 

 

-El ornitorrinco: mitad reptil, mitad mamífero

El ornitorrinco comparte características genéticas con los reptiles y con los mamíferos, además de tener rasgos genéticos propios, según se desprende de un estudio publicado en la última edición de la revista científica Nature.

Tras secuenciar y analizar el genoma del ornithorhynchus anatinus, un grupo internacional de investigadores ha concluido que las proteínas del veneno del ornitorrinco pertenecen a la misma familia genética que genera el veneno de los reptiles.En cuanto a los genes de las proteínas de la leche, son los propios de cualquier mamífero. Finalmente, la familia de genes del sistema inmunológico del ornitorrinco deriva de su propia biología.

Endémico en Australia y la isla de Tasmania, el ornitorrinco es un animal monotrema, es decir, un mamífero que conserva características reptiles como la reproducción ovípara.También conocido como platipo, llegó por primera vez al Museo de Historia Natural de Londres en 1799, procedente de Australia, para que los naturalistas e investigadores lo analizasen. Ante un animal con piel de topo, cola de castor, patas de rana, espolón de gallo, pico de pato y dientes, el doctor británico George Shaw lo consideró inicialmente un fraude, pues no daba crédito a la existencia de un animal tan sorprendente. De hecho, se considera uno de los mamíferos actuales más primitivo desde el punto de vista evolutivo.

Fuente: EFE, 7 de Mayo de 2008

 

 

-Física cuántica contra "hackers"

El ordenador cuántico puede ser el futuro de la informática, pero también su pesadilla. Los expertos investigan nuevas tecnologías para construir ordenadores que dejarán en ridículo la capacidad de procesamiento de los actuales. Esas máquinas aprovechan las leyes de la mecánica cuántica para la computación y, en lugar de bits, se basan en algo llamado qubits.

Pero los científicos advierten de que, cuando llegue, ya no serán seguros los actuales protocolos de encriptación utilizados para proteger transacciones electrónicas y comunicaciones confidenciales en Internet, porque un ordenador tan potente solucionaría las inabordables operaciones matemáticas en que se basa hoy la criptografía. Ante la eventualidad de que una herramienta así caiga en manos de las mafias que operan robando datos en la Red, la ciencia necesita adelantarse al desafío y cree saber cómo hacerlo: con una ración de su misma medicina cuántica.

La solución consiste en una nueva criptografía infranqueable que generará las claves no mediante matemáticas más o menos ingeniosas, sino aprovechando las propiedades cuánticas de las partículas elementales, como los fotones, las partículas de la luz. Una de ellas es que un fotón no puede ser interceptado y copiado sin alterarlo (por el denominado principio de incertidumbre, que Heisenberg formuló en 1927). Así, la seguridad estaría garantizada por un principio absoluto de la física. A este campo se le llama criptografía cuántica y puede abrir camino a aplicaciones como las elecciones por Internet o las tarjetas de crédito que no puedan ser duplicadas. En Suiza, se utilizó el pasado octubre para proteger el recuento de las elecciones en Ginebra.

Para avanzar en la criptografía cuántica, la Agencia Europea del Espacio (ESA) acaba de adjudicar a un consorcio mayoritariamente español la construcción de un "transceptor [emisor-receptor] cuántico", un aparato transmisor y receptor (como los walkie-talkies) de fotones encriptados. El proyecto, con un presupuesto de 600.000 euros, durará hasta 2010. De él tendrá que salir un prototipo seguro capaz de funcionar desde la Estación Espacial Internacional (ISS), y que volaría a ella quizás en 2015.

El diseño del aparato para cumplir con su función de emitir y recibir claves cifradas recae en el Instituto de Ciencias Fotónicas (ICFO) de Barcelona y en el Grupo de Comunicaciones Ópticas y Cuánticas de la Universidad Politécnica de Valencia. El jefe de este último, el catedrático José Capmany, explica a EL PAÍS que "es la técnica más segura para cifrar información en el espacio, porque si tratas de saber qué información lleva el fotón, la destruyes". El físico Valerio Pruneri, italiano afincado en Barcelona y jefe de grupo en el ICFO, muestra cómo se encriptan los mensajes con esta tecnología: "Cada fotón es una partícula de luz y lo polarizamos vertical, horizontal o diagonalmente, aplicándole un filtro como hacen las gafas de sol con los rayos solares. Las polarizaciones son complementarias y si alguien espía, el tráfico de fotones las modifica, y el emisor y receptor se dan cuenta de los cambios".

Este fenómeno sólo ocurre en el universo microscópico: si interceptamos una carta, podemos leerla y cerrarla a continuación, evitando dejar señales visibles. Pero los fotones y las partículas que componen la misiva cuántica quedan irremisiblemente trastocados en su polarización desde el momento en que alguien los detecta y observa. Es imposible hacerlo en secreto.

"Éste es el proyecto más complejo con que nos hemos encontrado", subraya Francisco Gutiérrez, director de innovación de la empresa Alter Technology Group, coordinadora del proyecto y encargada de conseguir un sistema que funcione en las duras condiciones de la órbita en la que vuela la ISS (350-460 kilómetros sobre la superficie terrestre). El transceptor consiste en un láser de fotones muy delicado, "en el que desviaciones mayores de una micra en la posición de sus componentes pueden provocar que se desalinee y no funcione". Dos empresas españolas (Lidax y Emxys) desarrollarán los sistemas térmicos y electrónicos para ello.

"La seguridad en las comunicaciones espaciales es un aspecto que, dada la situación socio-política actual, está adquiriendo cada vez más importancia, y estamos investigando técnicas para proteger el acceso a un satélite y a los datos provenientes de los instrumentos de a bordo", afirma Josep Maria Perdigues, responsable técnico de los estudios sobre comunicación cuántica de la ESA. Destaca Perdigues que la construcción del transceptor se enmarca en un ambicioso experimento llamado Space Quest, pionero en el mundo, y que "consiste en demostrar la viabilidad de distribuir fotones individuales desde la ISS a receptores terrestres -telescopios- para validar principios fundamentales de la física cuántica".

Uno de los axiomas a corroborar tiene un nombre que sólo con mencionarse hace volar la imaginación: la teleportación, que estos físicos cuánticos se toman tan en serio como los protagonistas de Star Trek. José Capmany, jefe del grupo valenciano, remarca que "una parte de nuestro transceptor también estará adaptada a enviar dos fotones entrelazados a localizaciones muy alejadas entre sí en la Tierra, para realizar experimentos de teleportación; comprobaremos si las propiedades de estos fotones vinculados entre sí se mantienen al mandarse cada uno a miles de kilómetros de distancia".

Fuente: elpais.com, 7 de Mayo de 2008

 

 

-Sondas: al servicio de la ciencia hasta el último aliento

Hace tiempo que el ser humano dejó de ocupar la vanguardia en la exploración de nuevos mundos. La aventura que en otros tiempos emprendían los más osados está ahora en manos de sondas que se baten el cobre por todo el Sistema Solar para traer a la Tierra un buen bocado de datos que los científicos puedan llevarse a la boca. Pero como Mallory en su ascenso final al Everest o Scott tratando de alcanzar el Polo Sur, estos artefactos -con ayuda de los ingenieros que los manejan- son capaces de continuar con su misión hasta el último aliento.

El pasado mes de febrero, la Agencia Espacial Europea (ESA) anunciaba que la sonda Ulysses, encargada de estudiar el Sol, estaba a punto de morir congelada. El plutonio que le había proporcionado energía para sobrevivir en el espacio durante 18 años se había debilitado y la lejanía del Sol hacía que su combustible se helase. Sin embargo, en abril, el director de la misión para la ESA, Richard Mardsen, afirmó que esperan conseguir la mayor cantidad de ciencia posible hasta el próximo 1 de julio, cuando acabe la fase actual de la misión.

Ulysses

Hayabussa

rover marciano

Después, los responsables de Ulysses se plantean realizar una operación con la sonda digna de los mejores momentos de la exploración humana. Se trataría de colocar el satélite en estado de hibernación para ahorrar combustible. Así permanecería durante cinco años para poder resucitar cuando se acerque a unos 200 millones de kilómetros del Sol (ahora está a más de 400) y las temperaturas sean suficientemente altas como para sacar a la nave de su letargo. Despertaría justo a tiempo para estudiar el próximo máximo solar, que se producirá entre 2012 y 2013. Habría servido a la ciencia durante 23 años, casi seis veces más de lo previsto.
 

Otro ejemplo de resistencia son los dos exploradores de la NASA, Spirit y Opportunity. Estas sondas rodantes llegaron a Marte en 2004, con una misión mínima prevista de tres meses. Hoy continúan en la brecha, pero los años no han pasado en balde. Desde 2006, Spirit se desplaza dejando tras de sí un surco. Ese año, su rueda delantera se averió y desde entonces tiene que caminar marcha atrás, arrastrando su extremidad maltrecha.
 

El pasado mes de abril, se agravaron los problemas del otro gemelo. Un brazo robótico que había comenzado a fallar hace dos años sufrió una nueva avería en uno de los motores que ayudan a desplegarlo. Habitualmente, ese brazo, que se emplea para estudiar la composición de las rocas marcianas, se plegaba para pasar la noche a cubierto bajo el frontal de Opportunity. Para no perderlo definitivamente, los ingenieros han comenzado a dejar el brazo extendido. De esta manera, aunque la artrosis fuese definitiva, el brazo podría continuar siendo útil.
 

En estas condiciones, los dos robots han sido capaces de sobrevivir a los duros inviernos marcianos, cuando la cantidad de sol que llega a sus paneles solares es apenas suficiente para sobrevivir. Por el momento, la pericia de los ingenieros ha logrado que sobrevivan a estos malos momentos. El próximo invierno podría ser el último, pero los dos gemelos han demostrado que su piel se vende muy cara.
 

Un último explorador cuyos apuros se han conocido en las últimas semanas es Hayabusa. La sonda japonesa, que iba a ser la primera en retornar muestras de un asteroide a la Tierra, podría perderse en el espacio. El mes pasado, ya en su viaje de vuelta, la agencia japonesa del espacio informó de que el último giróscopo (encargado de dirigir el aparato) que le quedaba operativo se había averiado. La situación es crítica, pero los ingenieros ya han superado una pérdida de contacto con la sonda que retrasó su regreso en más de tres años o una fuga de combustible grave. Aprovecharán hasta el último respiro de Hayabusa para traer a casa la ciencia que transporte.

Se resisten a morir

Exploradores
Los robots de la NASA Spirit y Opportunity llegaron a Marte en enero de 2004 para cumplir una misión de exploración que iba a durar tres meses. Cuatro años después continúan enviando información aunque ya han mostrado varios achaques. La misión, que tuvo un coste inicial de unos 820 millones de dólares, podría continuar, al menos, hasta 2009 multiplicando por diez su periodo activo previsto.

De ida y vuelta
La sonda Hayabusa, de la agencia espacial japonesa, tenía previsto visitar el asteroide Itokawa, aterrizar sobre su superficie y tomar muestras del material que lo compone para devolverlas a la Tierra. La recogida de muestras falló, pero los científicos todavía esperan que pueda traer polvo del asteroide capturado por azar. Llegaría a la Tierra en 2010.

Una veterana
Ulysses fue lanzada en 1990 para estudiar el Sol desde una perspectiva que ningún artefacto había logrado antes. Se colocó en una órbita lejana del astro y en un plano que le permitía observar sus polos, claves para comprender los intensos efectos de la estrella en el Sistema Solar. Entre ellos está la capacidad para trastocar los sistemas de telecomunicaciones. Cada año, Ulysses le cuesta a la ESA unos 2,6 millones de euros.

Fuente: público.es, 7 de Mayo de 2008

 

 

-Detectan materia ordinaria nunca antes vista

Imágenes del Hubble

Un grupo de físicos observó en el espacio materia ordinaria nunca vista hasta ahora, cuya existencia ya había sido reconocida en el plano teórico, reveló este miércoles el Instituto Max-Planck de Física Extraterrestre de Garching, en el sureste de Alemania.

El universo está compuesto en más del 95% de sustancias cuya composición es desconocida: se trata de la materia negra (21%) y de la energía oscura (75%). El resto, entre el 4% y el 5%, es materia ordinaria (protones, neutrones). Pero todas las galaxias y los gases interestelares descubiertos hasta ahora sólo contaban con la mitad de esta materia bariónica.

Gracias al telescopio XMM-Newton de rayos X de la Agencia Espacial Europea, los astrofísicos del Max-Planck y dos institutos holandeses detectaron un "puente" de gas caliente y muy poco denso que unía dos galaxias, Abell 222 y Abell 223, alejadas de la Tierra de unos 2.300 millones de años luz. Contrariamente a varias otras, esta constelación se encontraba en el punto de mira del telescopio, por lo que el puente de gas pudo ser observado de frente.

El gas, cuya temperatura está comprendida entre 10.000 y un millón de grados, es "probablemente la parte más densa y más caliente del gas difuso presente en el cosmos y podría constituir la mitad" de la materia ordinaria, declaró Norbert Werner, quien dirigió este estudio publicado en la revista estadounidense Astronomy and Astrophysics Letters.

"Hasta ahora, sólo podíamos observar los nudos densos de la telaraña del universo. Ahora empezamos a ver los filamentos", explicó por su parte la astrofísica Aurora Simionescu del Max-Planck.

"Para comprender la distribución de materia en el universo, deberíamos observar otros sistemas como éste", concluyó Werner.

Fuente: AFP, 7 de Mayo de 2008

 

-Objetivo: una red inalámbrica  de última generación para todo Estados Unidos

Todos para una; y una para todos. Un consorcio de grandes empresas de diferentes sectores ha llegado a un acuerdo para poner en marcha lo antes posible una red móvil de nueva generación que abarque todo Estados Unidos y pueda competir con las existentes de Verizon y AT&T. El monto de la operación: 16.700 millones de dólares, casi 11.000 millones de euros.

¿Y quién tiene tal cantidad de dinero? Tres de los firmantes del acuerdo son muy conocidos: Google, Intel y Time Warner; Internet, tecnología y entretenimiento. Los otros miembros del club lo son menos. Y eso que dos de, Sprint Nextel (una de las empresas de telecomunicaciones más grandes del mundo, con una red muy extendida en su país) y Clearwire (otro proveedor de acceso a Internet -ISP-) aportan algo más de 9.000 millones de euros del total. El sexto invitado es Comcast, uno de los grandes ISP de EE UU.

Según informa la edición digital de The New York Times, los seis socios esperan construir una red, nunca antes de dos años, que provea conexión a Internet a través del teléfono móvil en todo el territorio estadounidense con un ancho de banda y una calidad mucho mayor de la que ofrecen las redes actuales. El objetivo es el vídeo.

Fuente: elpais.com, 7 de Mayo de 2008

 

 

-El apocalipsis de los insectos

Un informe publicado en los Anales de la Academia Nacional de Ciencia de Estados Unidos (PNAS, por su sigla en inglés) revela que por el contrario, aquellos insectos que viven más lejos del Ecuador podrían experimentar una explosión demográfica.

Los insectos tropicales pueden ser los primeros en caer

por el brusco cambio de temperaturas

Los investigadores que colaboraron con el estudio analizaron decenas de especies de insectos de todas partes del mundo, a la luz de los cambios de temperatura registrados entre 1950 y 1990.  Su objetivo era descubrir cómo los habían afectado y predecir cómo se adaptarían a finales del siglo XXI si las temperaturas suben, como mucho expertos vaticinan.  Al contrario de los animales de sangre caliente, los de sangre fría no pueden regular su temperatura corporal.

No tienen una piel que crece para los meses fríos, o que mudan cuando hace calor.  Los insectos están limitados a tomar el sol cuando tienen frío o refugiarse en la sombra cuando hace mucho calor.  Los científicos pronostican que tales especies tendrían dificultades en adaptarse al incremento de 5,4 grados centígrados en zonas tropicales que se espera para el 2100

"En el trópico, muchas especies parecen estar viviendo muy cerca de su temperatura óptima, lo que les permite prosperar", dijo Joshua Tewksbury, de la Universidad de Washington.

"Pero una vez la temperatura aumenta por encima de ese grado óptimo, los niveles vitales disminuyen rápidamente, sin que puedan hacer mucho para revertir la situación", añadió.

Los resultados también indican que los insectos en zonas más templadas, como Gran Bretaña por ejemplo, se adaptarían mejor.  Algunas especies en estas latitudes podrían experimentar una explosión en sus números. El impacto sería mayor en las zonas tórridas, donde los insectos son más sensibles a pequeños cambios de temperatura.

Aquellos que no puedan adaptarse o migrar podrían extinguirse, afectando a su vez a las plantas que polinizan y a las personas que dependen de estas plantas para alimentarse.

Fuente: BBC Mundo, 6 de Mayo de 2008

 

 

-Craig Venter: "Confiamos en crear la primera forma de vida este año"

Craig Venter, para unos un héroe, para otros un villano

raig Venter es el hombre del momento en el mundo de la ciencia. A finales del pasado mes de enero, este controvertido investigador, considerado uno de los padres del genoma humano, volvió a dar la campanada al publicar en la revista 'Science' la creación del primer genoma sintético fabricado en un laboratorio.

Algunos no tardaron en rasgarse las vestiduras ante los potenciales peligros que podría representar esta tecnología si cayera en manos equivocadas.

Venter, sin embargo, está convencido de que sus investigaciones podrían servir para resolver algunos de los problemas más graves a los que se enfrenta la Humanidad.

  • "La creación de bacterias sintéticas puede ayudarnos a combatir el cambio climático, mediante la obtención de biocombustibles alternativos al carbón y el petróleo".
  • "Es cierto que esta tecnología podría usarse para crear armas biológicas, pero detenerla sería tan absurdo como prohibir el conocimiento porque puede ser peligroso".
  • "Las personas muy inteligentes no son necesariamente las que tienen éxito en la sociedad, y realmente no sabemos lo que hay que hacer para mejorar la naturaleza humana".
  • "Habría que examinar las causas del terrorismo: desigualdad, pobreza, guerras religiosas... Lo que es evidente es que la biotecnología no tiene la culpa de que exista el fundamentalismo".

 

El profesor Venter, gran aficionado al mar, pasó dos años sirviendo en la marina americana en Vietnam, tras lo cual estudió Bioquímica y se doctoró en Fisiología y Farmacología en California. Hombre de gran sentido del humor, decía que su papel principal era servir el café durante las reuniones. Después de unos años como profesor asociado en la Universidad de Búfalo y el Roswell Park Cancer Institute, se trasladó a los Institutos Americanos de la Salud, en Bethesda.

A consecuencia de la primera reunión internacional que sobre el genoma humano se organizó en Valencia en el 88, mi amigo Cook-Degan, consciente de que era una de las jóvenes promesas en genética, me habló de él, y por eso fui a buscarle a Bethesda.

Así pues, cuando en 1991 se celebró la segunda reunión sobre el Proyecto Genoma Humano, dedicada a la Ética y patrocinada por la Fundación BBV, lo invitamos a que asistiera. He de reconocer que esta segunda reunión en Valencia causó dos hechos trascendentes: promovió el interés de la entonces recién creada Fundación en la genética y las consecuencias de sus descubrimientos; y sirvió para el lanzamiento del joven y, por entonces poco conocido a nivel internacional J. Craig Venter. En dicho simposio participaron, entre otras personalidades de las pocas interesadas entonces en el Proyecto Genoma Humano, Victor Mckusick, James Watson y Walter Gilbert. McKusick ha sido recientemente galardonado con el Premio Japón y está considerado el padre de la medicina génica. Walter Gilbert, Premio Nobel, contribuyó a descubrir cómo se sintetizan las proteínas a partir de grupos de tres bases del ARN, y fue el primero en postular que los orígenes de la vida fueron debidos a la aparición de cadenas de ARN. El impulsivo James Watson, famosísimo por su trabajo sobre la estructura de la doble hélice del ADN, no necesita comentario; así que recordaré que aquélla fue su única visita a España, y que se entrevistó con el Rey, como he comentado en otra ocasión recientemente.

La redacción de las conclusiones de esta segunda reunión sobre el Genoma Humano se le encomendó a Craig Venter, y fue él quien las consensuó trabajando hasta la madrugada, para que se presentaran en la clausura de la reunión, presidida por la Reina Doña Sofía. Ya advertimos entonces, y nos impresionaron a todos su capacidad de trabajo, su imaginación y su pasión por el mar. Recuerdo que Venter me propuso que a esta reunión en Valencia ¡viniese todo el mundo en barco!

La tercera reunión sobre el Genoma Humano, celebrada en Bilbao en el 93 y también patrocinada por la Fundación BBV, contó con la presencia de Venter, al que invité a participar como miembro de su Patronato, como recuerda él mismo en su libro «Life Decoded. My Genome: My Life». Por entonces Venter ya empezaba a destacar por sus estudios del genoma viral. En aquella reunión conoció a Hamilton Smith, Premio Nobel por el descubrimiento de los enzimas de restricción, la herramienta que ha permitido dividir la larga molécula de ADN en fragmentos que así se pudieron analizar. Durante una cena Venter convenció al doctor Smith de las posibilidades comerciales de los descubrimientos del Genoma Humano, a las que nadie habíamos hecho mucho caso. Ya había problemas sobre su proyecto de generar patentes antes de que lograra la primera secuencia completa del genoma humano. Por todo ello, no es de extrañar que Craig Venter nos hablara, en dicha reunión en Bilbao, sobre «La rentabilidad de patentar los descubrimiento genéticos». Venter fue tan convincente que el Premio Nobel Smith dejó su Cátedra en la Universidad Johns Hopkins y se fue a trabajar con el joven Venter al Instituto de Ciencias Genómicas que éste había creado en el 92 y, como es sabido, desde entonces siguen trabajando juntos.

Apenas cinco años después de la reunión de Bilbao, se creó Celera con el objeto de realizar el primer mapa completo del genoma humano, proyecto en que naturalmente participó Hamilton Smith.

La fama de Craig Venter se extendió por su desarrollo de tecnologías importantísimas para secuenciar rápidamente el genoma, como la llamada identificación de secuencias dianas (EST). Muy simpático y claramente «inconformista», no se lleva bien con otros científicos, incluyendo al también iconoclasta James Watson, quien dijo que lo que Venter hacía con dicha técnica «lo podía hacer un mono». Venter no lo ha olvidado. Su creatividad, diligencia y originalidad en la secuenciación, le llevaron a publicar en el año 2003 en la revista Science la secuencia del genoma humano.

Con los años, Craig Venter abandonó Celera y ha creado el Instituto Craig Venter, y se ha dedicado a recorrer los mares en su yate Sorcerer II, analizando genomas de bacterias con el objetivo de conseguir nuevos recursos, especialmente energéticos.

Venter acaba de anunciar el éxito de un proyecto en el que lleva trabajando varios años, la síntesis del genoma de un ser vivo, el de la bacteria Mycoplasma laboratorium, es decir, el primer paso para crear vida en el laboratorio, lo que provocará no sólo importantes avances científicos sino también grandes discusiones éticas y filosóficas. Es la gran noticia, en la que ha estado trabajando mucho tiempo con Hamilton Smith.

Hace unas semanas me telefoneó mi hijo mayor, James, que vive en San Diego, y me dijo que se iba a reunir con Hamilton Smith, a quien conoce por las reuniones de los Jurados de los Premios Rey Jaime I. El profesor Smith se encontraba allí desarrollando una sede de la Fundación Craig Venter.

Por todo lo dicho, esperamos con avidez conocer más detalles del futuro de «la creación de vida» directamente de Venter, que estos días 5, 6 y 7 de mayo imparte sendas conferencias en el Museo de las Ciencias Príncipe Felipe de Valencia.

Venter es un asiduo visitante de España, pues, además de participar en las dos últimas reuniones sobre el Genoma Humano, volvió en 1998 cuando se le reconoció con una Medalla de la Fundación Valenciana de Estudios Avanzados, durante un curso en la Sede de la Universidad Internacional Menéndez Pelayo de Valencia, y hace unos siete años recibió en Oviedo el Premio Príncipe de Asturias, compartido con otros distinguidos investigadores, incluyendo su competidor y poco amigo Francis Collins.

Dada su gran categoría científica y, por tanto, su cada vez mayor número de ocupaciones, es de agradecer, que Craig Venter, posiblemente el biólogo molecular más famoso en la actualidad, venga a pasar unos días a España, para compartir sus ideas revolucionarias con cuantos científicos y estudiantes deseen aprender aspectos novedosos y fascinantes de la genética.

Fuente: elmundo.es, ABC.es,  6 de Mayo de 2008

 

-El gordo ¿ nace o se hace?

El Instituto Karolinska de Suecia acaba de dar una vuelta de tuerca al estudio de la obesidad al descubrir que las células del cuerpo donde se deposita la grasa, los adipocitos, experimentan una constante renovación. Cada año mueren y vuelven a nacer aproximadamente un diez por ciento, tendiendo a un misterioso equilibrio tenaz, decidido en los primeros compases de la vida. Su totalidad se renueva cada diez años y su número permanece constante a lo largo de la vida.

Este estudio sueco ha causado un enorme impacto en los Estados Unidos, donde la obesidad es una plaga nacional y se dedican enormes esfuerzos a comprenderla y a combatirla. Hasta ahora, con escaso éxito más allá de la constatación de algunas obviedades: que los niños obesos tienden a ser adultos obesos, sin que eso libre a muchos niños y jóvenes delgados de acumular grasas indeseadas a partir de cierto umbral de edad. Ahora se sabe que la obesidad depende del número de adipocitos y de la cantidad de grasa acumulada en estas células almacén.

Para la Ciencia siempre ha sido un frustrante misterio el por qué es tan difícil perder peso a largo plazo. Por qué la grasa perdida se reproduce tan fácilmente. Cuando se extrae un tumor graso éste no vuelve a crecer, ¿por qué tras una liposucción el número de adipocitos sí vuelve a aumentar a su nivel original tras dos años como mucho?, se preguntaba ayer «The New York Times».

Como suele suceder en los tiempos de la ciencia hiperespecializada, lo que a veces falla es la visión global de cómo funciona realmente el cuerpo. No es casualidad que entre los autores del revolucionario estudio del Instituto Karolinska figure Jonas Frisén, biólogo e investigador de la renovación celular que hace tres años ya impactó con su obra «La edad de nuestro cuerpo». Allí Frisén revelaba nada menos que la mayor parte de usted es usted desde hace mucho menos tiempo de lo que usted se imagina. La inmensa mayoría de sus células no existían hace menos de diez años. Algunas, menos de diez días. Renovarse o morir.

Frisén descubrió el verdadero reloj biológico, un método muy ingenioso y certero para medir la edad corporal, por lo menos en esta generación. Hasta 1963 se probaron armas nucleares a cielo abierto. Eso inyectó en la atmósfera carbono 14 radiactivo que ha penetrado en la composición de todos los organismos, seres humanos incluidos. El carbono 14 va directo al ADN, que es lo único que no se modifica cuando una célula se divide: midiendo entonces los incrementos de carbono 14 en el ADN, Frisén estableció una regla de cálculo extraordinariamente precisa de la edad de las células.

Se descubrió así que casi todas ellas están en constante renovación, excluyendo parte de las de la corteza cerebral, las de la lente interna del ojo y algunas del músculo cardíaco. Para algunas modalidades celulares, las más expuestas al desgaste -por ejemplo las de la epidermis, que es la barrera frente al mundo, o las del hígado, que es la aduana de los tóxicos-, el ritmo de muerte y regeneración es casi vertiginoso.

Células madre de confianza

Si uno lo piensa despacio se comprende que el cuerpo cambie deprisa. ¿Cómo si no iba a sobrevivir tanto tiempo, soportando toda clase de pruebas, peligros e infortunios? El vértigo de verse de repente a uno mismo como un caleidoscopio celular en constante recomposición queda matizado por la existencia de algunas «células madre» de confianza, que son las que fijan el rumbo biológico de la identidad. El lento desgaste de estas últimas sería lo que quizá explicaría la claudicación final ante la vejez.

Y en medio de este ir y venir molecular, ¿qué pasa con los adipocitos? No es fácil estudiar su comportamiento sin liarse con otras ráfagas de ADN o sin incurrir en riesgos tóxicos. Pero Frisén y sus colegas han logrado sacar algo en limpio del estudio de las células grasas obtenidas de 35 adultos que se habían sometido a una liposucción o a una reconstrucción abdominal.

Las conclusiones son que el número de células grasas queda determinado muy precozmente, en la infancia y primera juventud, y ya no se modifica nunca. Por lo menos no para «bien». Es más fácil que una persona delgada que de repente ingiere muchísimas grasas rompa el techo de sus adipocitos y les obligue a multiplicarse, que una persona obesa logre su disminución, por mucho que se prive de comer. Podrá bajar de peso, podrá hacer descender la carga grasienta de sus células, pero no el porcentaje de estas últimas en su cuerpo. Esto explica por qué es tan difícil no volver a engordar.

Fuente: abc.es, 6 de Mayo de 2008


 

-Un avión volará cinco años sin parar

Programa Vulture. Objetivo: crear un avión no tripulado capaz de mantenerse en el aire durante cinco años sin tener que aterrizar. Misión: labores de espionaje, vigilancia, reconocimiento y centro de comunicaciones en cualquier zona del planeta.

Prototipo de avión volador de larga duración

Eso es lo que quiere DARPA (la agencia federal dedicada a proyectos de investigación para uso militar dependiente del departamento de Defensa de EEUU), que acaba de dar el contrato para el diseño de Vulture al fabricante de aviones Boeing . Esta compañía tiene ahora un año para realizar un diseño teórico del aparato, además de estudiar los problemas y las posibilidades de éxito, acabando con la creación de un prototipo a escala.

Lo que piden los militares estadounidenses es que Vulture funcione como un satélite pero sin las desventajas de éste. Para ello debe volar y no orbitar, pudiendo ser dirigido y mantenido en una posición concreta a una altura de entre 60.000 y 90.000 pies (entre 20.000 y 30.000 metros). Esta posición suborbital en la estratosfera le permitiría convertirse en un centro de comunicaciones lleno de sensores que no sería posible con un satélite geoestacionario.  En la actualidad, el único sistema capaz de funcionar durante un lustro son los satélites geosíncronos (que giran alrededor de la Tierra pero a su misma velocidad y a unos 38.000 kilómetros de altura, cubriendo siempre la misma zona).

Por otro lado, Vulture también deberá soportar 450 kilogramos de carga y al menos cinco kilovatios de potencia a bordo. Pero el principal reto al que se enfrentan los ingenieros es el de cómo alimentar a un pájaro que no debe posarse en el suelo en cinco años. Las dos alternativas propuestas son suministrarle combustible en vuelo o conseguir que sea autónomo. Para la primera se piensa en pilas de combustible (posiblemente hidrógeno) de larga duración. La segunda opción es aprovechar la energía de Sol y desarrollar un ciclo de energía completo.

De 54 horas a cinco años

El reto de Vulture es enorme. A día de hoy, el récord de permanencia en vuelo de un avión no tripulado no va más allá de las 54 horas, frente a los cinco años que quieren los militares. Fue el pasado mes de septiembre cuando Zephyr, un ultraligero de 18 metros de envergadura y 35 kilos de peso, sobrevoló los cielos de la base militar que EEUU tiene en White Sands, en el estado de Nuevo México.

El aparato, fabricado por la británica Qinetiq , será la base sobre la que se construirá Vulture. El fabricante Boeing se ha asociado con Qinetiq para conseguir lo que necesita el Ejército de EEUU. El programa Vulture tiene la ambición estratégica de otorgar a EEUU un sistema de vigilancia y reconocimiento de alcance global, sin necesidad de bases en el extranjero ni centros de mantenimiento.  Dada la lentitud de este avión, pensado para espiar zonas concretas del terreno, el departamento de Defensa de EEUU tiene en marcha otro proyecto con el que completar a Vulture. Rapid Eye es otro aparato de vigilancia no tripulado pero que podrá ser lanzado como carga de un misil. Esto le permitiría estar sobre la zona de un nuevo conflicto en cuestión de minutos.  Los obstáculos aquí no son menores. Los investigadores aún tienen que idear cómo meter un aparato de este tipo, con sus características largas alas de fibra de carbono, en un cohete, y que el avión se despliegue a 65.000 pies de altura.


Fuente: publico.es, 5 de Mayo de 2008

 

 

-Robots detrás del juego de la Bolsa

A comienzos de la década de los ochenta, The Buggles saltaba a la fama por un estribillo pegadizo que pronosticaba que la estrella de la radio se apagaría por el brillo de un nuevo astro: el vídeo. Si el grupo de pop británico tuviera que actualizar ahora su canción, podría inspirarse en los mercados financieros. La aplicación de las matemáticas como herramienta para tomar decisiones de inversión amenaza con arrinconar los modelos basados en la teoría económica. O dicho de otra forma, los autómatas ganan terreno a las personas a la hora de invertir nuestros ahorros.

El auge de ordenadores que compran y venden activos basándose exclusivamente en algoritmos y series estadísticas despierta recelos y adhesiones a partes iguales. Los partidarios del software argumentan que éste está a salvo de debilidades humanas como las emociones, los estados de ánimo o el cansancio. También destacan su velocidad de reacción. Los detractores, en cambio, alegan que la proliferación de los fondos cuantitativos (como se les conoce) distorsiona el comportamiento del mercado y está detrás del fuerte repunte de la volatilidad. Además, ironizan sobre su rentabilidad. Y es que la crisis crediticia ha puesto en evidencia que la inteligencia artificial tampoco está a salvo de los números rojos.

La aplicación de las matemáticas en la Bolsa viene de lejos, pero en los últimos años es cuando se ha sofisticado e intensificado. En 1953, el premio Nobel Harry Markowitz demostró matemáticamente que la diversificación de carteras reduce el riesgo no sistemático. A partir de ahí, y en paralelo con el desarrollo informático, se han generado modelos numéricos más o menos complejos que toman decisiones de inversión. Hoy no hay banco o gestora de fondos de renombre que no disponga al menos de un sistema algorítmico.

Entre los brokers artificiales se pueden distinguir dos grandes grupos. Por un lado están aquellos programas que, basándose en series estadísticas históricas de diferentes activos, intentan anticiparse a lo que pueda hacer el mercado, y por otro se encuentra el software matemático, que intenta buscar ineficiencias en la formación de precios para arañar rentabilidades al mercado a muy corto plazo.

"Claramente, las matemáticas están ganando peso en el ámbito de la inversión", reflexiona Marcos Pérez, gestor de fondos de gestión alternativa de Renta 4 y astrofísico. "Los números por sí solos no nos van a decir qué va a hacer el mercado, pero sí podemos establecer un modelo que pueda hacer dinero a largo plazo". Para este experto, que ha trabajado también en proyectos de diseño de robots, la gestión tradicional, en la que el profesional elige una serie de valores en función de parámetros económicos y empresariales, está muy sometida a criterios personales difíciles de proyectar hacia el futuro.

Desde hace tiempo existen dispositivos que permiten controlar el riesgo en las inversiones. Un ejemplo son las stop loss. Estas órdenes están programadas para que se venda o compre un activo cuando su precio rebase determinados niveles. Sin embargo, ahora el cóctel entre matemáticas e informática va más allá, y lo que se busca es que la máquina pueda tomar sus propias decisiones.

"Los programas basados en algoritmos intentan descubrir patrones en una serie histórica de precios y así encontrar una tendencia. Las personas sólo pueden reconocer patrones fáciles, como, por ejemplo, que las Bolsas suelen subir en diciembre y caer en enero. Pero sólo el software algorítmico es capaz de explorar los miles de interacciones que hay en los mercados financieros", explica Manel Baucells, profesor de Análisis de Decisiones de la escuela de negocios IESE.

El auge de las matemáticas aplicadas a los mercados también está generado una revolución en el perfil del profesional que maneja el dinero a invertir. Siguen predominando economistas y licenciados en Empresariales, pero cada vez son más las ofertas de empleo para matemáticos, físicos, informáticos o ingenieros. "Hay mucho interés por contratar a nuestros alumnos. Las empresas llaman a la facultad para solicitar profesionales con este perfil. Antes les bastaba con que fueran licenciados, pero ahora también quieren gente que tenga dotes para la investigación", reconoce Enrique Oleada, profesor de Matemáticas Financieras de la Universidad Complutense.

Al calor del uso de programas algorítmicos para invertir en Bolsa ha surgido toda una industria. Mientras las grandes instituciones financieras tienen sus propios departamentos de investigación para desarrollar un software personalizado, los pequeños inversores también se pueden beneficiar de las matemáticas gracias a los robots de alquiler. Admira Interactive ofrece estos servicios a través de sus autómatas Alice, Bob y Carlos 2.0. Esta empresa catalana fue creada por tres investigadores que empezaron a aplicar las matemáticas en el campo de la meteorología y ahora intentan anticipar el devenir de la Bolsa para sus 3.000 clientes.

"Nuestro sistema inteligente aprende del pasado para ver qué causas provocan un determinado fenómeno", comenta Xavier Orriols, portavoz de Admira. Si un cliente quiere saber qué provoca que las acciones de Telefónica, por ejemplo, suban o bajen, los autómatas repasan las correlaciones que tienen las acciones de la teleco con 1.000 activos diferentes (acciones, divisas, índices, materias primas, datos macro...) hasta hallar el patrón de comportamiento que más se repite. "Una vez determinadas las correlaciones llega la fase más compleja: aprender a invertir", apunta Orriols. En este paso, al robot se le aplica la misma técnica que cuando se quiere educar a un perro: el aprendizaje por refuerzos (recompensas o castigos). El autómata decide comprar o vender tras repasar su historial de aciertos o errores con ese mismo patrón de comportamiento.

"La principal ventaja de estas estrategias es que permiten analizar un número mayor de activos y de variables que un gestor humano", comenta Jorge Yzaguirre, director de renta variable de BME. "En cambio, su mayor riesgo es que se basan en datos del pasado, y la realidad es cambiante, por lo que hay que analizar continuamente el riesgo que se asume y los resultados. Los entornos de mercados volátiles nos muestran situaciones reales que la estadística no contemplaba".

Lo que ocurra con el dinero invertido de acuerdo con las matemáticas no es una cuestión baladí. Su peso en los mercados es cada vez más creciente. De hecho, la consultora TABB Group prevé que en 2010 la gestión algorítmica supondrá el 50% del volumen de negociación en EE UU, el mayor mercado del mundo.

Aparte de su cuestionable fiabilidad para ganar dinero en todas las fases bursátiles, los modelos numéricos han despertado las críticas de asociaciones de inversores minoritarios. Éstos se quejan de que los gigantes autómatas podrían estar distorsionando el mercado al elevar los niveles de volatilidad de los activos (se mueven en décimas de segundo y en determinados momentos del día, principalmente en las horas previas al cierre del mercado) y haciendo más difícil a los pequeños accionistas reaccionar al mismo tiempo que ellos. Los defensores de los modelos matemáticos indican que su uso es positivo para el mercado, puesto que al detectar desviaciones de la tendencia reaccionan de forma contraria y sirven de equilibrio. Daniel Stroock, profesor del MIT, ha publicado un reciente estudio acerca de los fondos cuantitativos y los compara a la relación de los peces murciélagos con los arrecifes de coral. "Estos animales no colaboran en el desarrollo de los tesoros submarinos, pero aseguran su supervivencia al comerse las algas que amenazan con asfixiarlos", explica.

¿Llegará el momento en el que la máquina reemplace al hombre para decidir dónde colocar nuestros ahorros? "El ordenador es una prolongación de la manera de pensar de un gestor humano", reflexiona el astrofísico y gestor Marcos Pérez. "Es un instrumento que aumenta el alcance de nuestro modo de pensar y hacer las cosas. Y modos de pensar hay tantos como personas. Por lo tanto, la respuesta correcta no sería decir que al final sólo habrá máquinas operando en los mercados, sino que las diferentes aproximaciones que podemos tener a las Bolsas serán más eficientes gracias a los ordenadores".

Fuente: elpais.com, 4 de Mayo de 2008

 

-Descubren en Argentina los restos de un armadillo gigante

El Museo Paleontológico de la ciudad argentina de San Pedro ha anunciado el hallazgo de restos óseos de tres ejemplares de una gran especie de armadillo prehistórico que murieron en un pantano hace unos 800.000 años.El descubrimiento lo consiguió un equipo de trabajo del museo en una cantera de extracción de tosca a las afueras de San Pedro, a unos 170 kilómetros al norte de Buenos Aires.

Se trata de "los primeros restos óseos conocidos hasta el momento de unos gigantescos armadillos fósiles correspondientes a la especie denominada 'Glyptodon munizi'", informaron los descubridores en un comunicado.Los huesos fosilizados fueron extraídos de sedimentos finamente laminados que se habrían depositado en el fondo de un pantano que luego se secó.

Las piezas fueron recuperadas en un estrato situado a unos 15 metros bajo el nivel actual de suelo. Hasta este descubrimiento solo se tenía la certeza de la existencia de los 'Glyptodon munizi' por el hallazgo de partes de la coraza que los cubría.

Los paleontólogos lograron extraer en San Pedro un ejemplar con un 90 por ciento de su esqueleto en "óptimo estado de preservación". Asimismo, fueron descubiertos el cráneo, la mandíbula y fragmentos de costillas de un segundo ejemplar, y un húmero, una escápula y algunos huesos de las extremidades de un tercer individuo.

El esqueleto más completo "presenta detalles de gran valor científico que se desconocían en esta especie, como son un grupo de placas óseas que le protegían la zona del vientre y una gran cantidad de pequeños huesecillos que estaban incrustados en la piel de los pómulos cuando el animal vivía", destacó el museo.

Estos diminutos huesos dérmicos, llamados "osteodermos", cumplían la función de reforzar la piel ante el ataque de los depredadores, para evitar así que fuera desgarrada.

La especie 'Glyptodon munizi' estuvo representada por armadillos de talla gigantesca que superaban los 1.000 kilos de peso y medían unos tres metros de longitud

 

Cráneo de un armadillo gigante descubierto en Argentina

Fuente: elmundo.es, 4 de Mayo de 2008

 

 

-Tristán Guillot: puede haber sorpresas en la detección de vida

Hace poco más de una década, la existencia de planetas fuera del Sistema Solar sólo era un planteamiento teórico para los astrónomos o material de inspiración para los autores de ciencia-ficción.  La situación cambió en 1995, cuando los suizos Michel Mayor y Didier Queloz anunciaron el descubrimiento del primer planeta extrasolar. Desde entonces, se han encontrado más de 300 y el hallazgo de un nuevo exoplaneta ha dejado de ser algo extraordinario.  Ahora, el objetivo de los astrónomos es comenzar a conocer de verdad esos cuerpos (de la mayoría de ellos se sabe poco más que su localización y su tamaño) y, en último término, encontrar vida.

Tristan Guillot (Francia, 1970), responsable de Investigación en el Centre National de la Recherche Scientifique (CNRS) en el Observatorio de la Costa Azul (Niza, Francia), será uno de los investigadores que lideren durante los próximos años un campo científico en expansión.

Recientemente ha sido invitado por CosmoCaixa, el Museo de la Ciencia de la Fundación la Caixa , para hablar en Madrid sobre estos nuevos mundos.

Tristan Guillot
 

Encontrar un planeta extrasolar es ya algo bastante común. ¿Cuáles son ahora los retos para los buscadores de exoplanetas?

Por una parte, queremos descubrir un gran número de planetas, porque así, con una muestra más grande que la que tenemos, podremos comprender en qué condiciones se formaron, si eso sucedió cerca o lejos de la estrella... y entender así los problemas en su formación.

Por otra, trataremos de caracterizarlos mejor, estudiar su atmósfera y saber de qué están hechos. Y por último, intentaremos descubrir planetas más pequeños, que por ahora son muy difíciles de localizar. Querríamos hallar los más parecidos a la Tierra, para después estudiar su atmósfera, observar si contiene agua líquida y ver si en ella hay señales de vida.

Con las técnicas actuales y considerando las condiciones más favorables, ¿qué se puede llegar a saber hoy sobre un planeta que se encuentra a años luz del nuestro?

Al principio, cuando se descubrieron los primeros planetas, sólo se podía tener una idea de su masa. [Éstos se encontraron con observaciones indirectas, estudiando las anomalías que causan en los movimientos de su estrella].

Después, con el sistema de tránsitos [observando los ligeros oscurecimientos que produce en el disco de una estrella el paso frente a ella de un planeta que la órbita] fue posible, cuando la luz de la estrella atraviesa la atmósfera del exoplaneta, mirar a diferentes frecuencias de luz para identificar distintos componentes químicos en su atmósfera.

Así se pudo identificar la presencia de sodio en uno de ellos, un elemento raro, pero que absorbe mucha luz. Después hemos llegado a descubrir moléculas, como el agua o el metano. Y gracias al telescopio Spitzer, que trabaja en infrarrojo y ve el calor emitido por el planeta, ha sido posible ver la circulación atmosférica de éste.

De esta manera hemos sido capaces de comprender la meteorología de algunos planetas extrasolares. Los instrumentos actuales tienen tan buenas prestaciones que podemos medir una estrella que se encuentra a cientos de años luz y que se desplaza a sólo unos pocos metros por segundo, la velocidad a la que una persona se desplaza por la calle.

De los más de 300 planetas extrasolares conocidos, ¿de cuántos se puede llegar a lograr ese grado de conocimiento?

Hay unos 40 conocidos por tránsitos y entre estos hay tres o cuatro de los que se han podido hacer medidas adicionales: detectar un elemento en la atmósfera, las diferencias de temperatura entre el día y la noche o la meteorología.

¿Y detectar vida?

Aún no somos capaces. De momento sólo encontramos planetas gigantes y que están muy cerca de su estrella. En la mayor parte de casos la orbitan en unos pocos días y están más cerca de ellas que Mercurio del Sol. Esperamos que con nuevas misiones, como el satélite COROT, sea posible descubrir los más alejados que estén en tránsito con sus estrellas. Así podremos observar objetos más parecidos a los que encontramos en el Sistema Solar.

Sin embargo, para detectar indicios de vida, como la Tierra, serán necesarios instrumentos más potentes, ir al espacio y tener varios telescopios juntos. No obstante, lo que nos ha enseñado el descubrimiento de exoplanetas es precisamente que hay muchas sorpresas.

No pensábamos que seríamos capaces de estudiar la atmósfera de un exoplaneta apenas una decena de años después del descubrimiento del primero porque creíamos que necesitaríamos una tecnología muy superior.

Hay planetas que son como una especie de piedra Rosetta, que nos permitirían recoger más información sobre otros y saltar etapas.

¿Cuándo cree que podrá detectarse vida en alguno de ellos?

Espero que podamos descubrir planetas más parecidos al nuestro en los próximos años y después, en unos 10 años, caracterizar algunos con agua líquida en la superficie, algo que es posible que ya exista en los identificados hasta ahora.

La detección de marcas de vida, como una atmósfera fuera de equilibrio que indica que hay unos procesos biológicos que mantienen la atmósfera en ese estado, requerirá quizá 20 años, pero es posible que tengamos sorpresas.  

¿Es el Sistema Solar una rareza dentro del Universo?

Cuando se descubrió el primero, uno gigante que estaba más cerca de su estrella que Mercurio, nos quedamos muy sorprendidos. Creímos incluso que los autores habrían cometido algún error, porque teníamos una idea sobre la formación de planetas con nuestro sistema solar como modelo.

Pensábamos que debería haber planetas rocosos como la Tierra próximos a la estrella y más lejos, donde el hielo se puede condensar, los planetas gigantes. Pero no era así. Nos hemos dado cuenta de que, como se había predicho a finales de los 70, los planetas, aunque se hubiesen formado lejos de su estrella, podían después migrar, acercarse a ella e incluso caer sobre ella.

Entre los planetas extrasolares se han encontrado algunos con comportamientos muy poco habituales…Hay muchos sistemas muy exóticos. Tenemos planetas que tienen órbitas muy elípticas, como los cometas. Esto no sucede en el sistema solar, donde son más circulares. También hay planetas como los tres descubiertos en 1992 girando en torno a una estrella muerta.

¿Cuáles son los próximos pasos en el estudio de exoplanetas?

Uno de ellos es continuar descubriendo exoplanetas para tener una estadística importante. Hemos encontrado más de 300, pero estaría bien tener varios miles o decenas de miles para caracterizarlos y ver su tamaño. Esto nos permitiría saber dónde se forman.

Fuente: publico.es, 3 de Mayo de 2008

 

 

 

-Confirmada la existencia de un nuevo tipo de estrella

Científicos estadounidenses confirmaron hoy la existencia de un nuevo tipo de estrella en la constelación de la Osa Mayor, a unos 600 años luz de la Tierra.

En un informe publicado en la revista Astrophysical Journal Letters, los astrónomos de la Universidad de Texas, Michael Montgomery y Kurtis Williams, señalaron que la existencia de ese cuerpo fue confirmado mediante el telescopio Otto Struve, en el Observatorio McDonald de esa universidad.

La nueva estrella ha sido llamada "enana blanca de carbono pulsante" y es la primera de la nueva clase de enanas blancas descubierta en más de 25 años.Debido a que la mayoría de las estrellas, incluyendo nuestro Sol, mueren como enanas blancas, el estudio de sus pulsaciones (destellos de luz) de estos nuevos cuerpos da a los astrónomos una forma de calcular su lapso de vida y determinar su estructura.

En general, las enanas blancas son restos de una estrella similar al Sol que han agotado todo el combustible nuclear de su núcleo y son extremadamente densas.

Hidrógeno y helio

Hace un año astrónomos de la Universidad de Arizona descubrieron un tercer tipo de estrellas que han perdido su cubierta de hidrógeno o de helio y que se les denomina "enanas blancas de carbono candente".Aun cuando todavía no han logrado comprobarlo, los científicos creen que éstas serían las enanas blancas más grandes del universo.

Tras el anuncio, Montgomery decidió verificar su existencia a través de las pulsaciones que son cruciales para determinar lo que ocurre en su interior, de la misma forma en que las ondas sísmicas muestran lo que ocurre en el interior de la Tierra.

 Fuente: EFE, 2 de Mayo de 2008

 

 

-El cambio climático crea desiertos en los océanos

Los desiertos no sólo se expanden por la tierra firme, también están formándose en el fondo de los océanos a causa del calentamiento climático. La culpa: la disminución de la concentración de oxígeno en grandes áreas submarinas, lo que dificulta la supervivencia de muchas especies, y la pesca.

La confirmación de este desastre medioambiental la ha realizado un equipo de científicos de la Universidad de Kiel, en Alemania, dirigidos por Lothar Stramma. Stramma y sus colegas han elaborado una serie cronológica sobre la concentración de oxígeno que hubo en los últimos 50 años en regiones tropicales de los oceános.

Fue así como han identificado las zonas de oxígeno mínimo (también llamadas hipóxicas)en grandes áreas marinas. En concreto comprobaron que en el Pacífico ecuatorial y en el Atlántico tropical, en la capa que va de los 300 a los 700 metros de profundidad, la diminución del oxígeno es de 0,09 a 0,34 micromoles (unidad de cantidad en química) por cada kilo en un año.

«Estos niveles reducidos afectan a procesos biogeoquímicos marinos y tienen importantes impactos en los ciclos de nitrógeno y carbono», señalan los investigadores en el trabajo que hoy publican en la revista 'Science'.

Señalan, asimismo, que las concentraciones de oxígeno son muy sensibles a los cambios en los flujos entre el mar y el aire, por lo que el oxígeno disuelto es un buen parámetro para entender el papel del océano en el clima. «Los grandes organismos marinos sufren tensiones muy graves o mueren en condiciones de oxígeno por debajo de los 60 a 120 micromoles por kilo, un margen que varía en función de las especies», explican los autores. No es la primera vez que ocurre esta reducción del oxígeno oceánico, como recuerda el equipo de Stramma. En el Cretácico hubo ya este tipo de alteraciones.

   

Submarinista estudiando el blanqueamiento

de corales

Datos dispersos

Incluso hubo una época, hace 251 millones de años, en la que el océano era anóxico, es decir, sin nada de oxígeno. Curiosamente, en ese mismo periodo hubo también grandes concentraciones de dióxido de carbono en la atmósfera y se produjeron extinciones masivas tanto en la tierra como en los mares. La realización del estudio no ha sido fácil, debido a que los datos históricos de los que disponían eran muy escasos. Sin embargo, ahora hay en los oceános unos flotadores, los Argo, que proporcionan valiosa información sobre los perfiles de oxígeno en todos los mares del planeta.

«Estas tendencias afectan a los ecosistemas y a las industrias pesqueras, que deberán cambiar su gestión para hacerla sostenible», aconsejan los expertos.

Fuente: elmundo.es, 2 de Mayo de 2008

 

 

-Diseñan la primera nave espacial privada rusa para turistas cósmicos

Una compañía privada rusa ha encargado el diseño de un cohete planeador espacial para turismo cósmico, informó hoy el servicio de prensa de la Planta experimental "Miasischev".

"Nuestra empresa ya trabaja en ese diseño y la respectiva documentación, y concluye el cálculo de la viabilidad técnica y económica del proyecto", dijo un portavoz de la planta a la agencia Interfax.

La fuente indicó que la financiación del proyecto corre a cargo de una compañía privada rusa, cuyo nombre eludió precisar. Explicó que la nave espacial será instalada encima de un avión de transporte que la elevará a la altura de varias decenas de kilómetros, donde se desprenderá para iniciar un vuelo autónomo.

Con ayuda de sus propulsores, la nave subirá a la altura de unos cien kilómetros, donde se termina la atmósfera terrestre, y empezará a planear haciendo que sus pasajeros experimenten el estado de ingravidez. La nave, de unas 27 toneladas de peso, estará calculada para dos pilotos y 14 pasajeros, aunque en el futuro el número de turistas podrá aumentar. En calidad de aviones portadores se prevé utilizar los dos aparatos de transporte pesados 3M-T disponibles en Rusia y fabricados en base a un modelo de bombardero estratégico.

Fuente: adn.es,  1 de Mayo de 2008

 

 

-La ciencia, vista desde el cielo

El mes pasado, investigadores de la universidad pública de La Rioja, Argentina, descubrían un importante yacimiento Arqueológico gracias a Google Earth (GE), la popular herramienta del buscador de Internet, disponible desde febrero de 2005. No es un hecho aislado. El uso con fines científicos de GE es cada vez más habitual en diferentes campos de investigación.

Según Clara Rivera, responsable de Marketing de Google en España, las aplicaciones científicas de GE son muchas, "todas las que tengan algún componente de referencia cartográfica", desde estudios de biodiversidad hasta proyectos urbanísticos.

 

Desde la comodidad de un despacho se pueden descubrir barreras de coral en zonas remotas del litoral australiano, controlar on-line la actividad volcánica, incluso ver en tiempo real la actividad sísmica en el planeta o el estado de los glaciares. Todo esto es posible gracias a los archivos KML (Keyhole Markup Language), con los que se integran en una capa, por ejemplo, los datos de cada volcán, otorgando a cada uno un icono que lo sitúa e identifica en función de su actividad. Los archivos KML hacen posible que científicos de todo el mundo puedan disponer, en tiempo real, de infinidad de datos de su campo de investigación y otros relacionados, aportados por colegas o el resto de usuarios, que también pueden acceder a esa información.

"Existe una comunidad de Google Earth donde los científicos comparten su trabajo", señala Clara Rivera. Es el caso del Dr. Mark Mulligan, del departamento de Geografía del King´s College de Londres, que asegura en el foro de la comunidad que muchos científicos utilizan GE para publicar su información, lo que la hace más comprensible y accesible al público en general.

Google Earth se convierte así no sólo en un medio para investigar, sino también en una nueva manera de transmitir los avances científicos a la sociedad. "Ha revolucionado la forma de ver muchos resultados, y es especialmente útil en transferencia de conocimiento", afirma Joaquín Tintoré, investigador del CSIC en el IMEDEA (Instituto Mediterráneo de Estudios Avanzados), que destaca además lo útil que es para el desarrollo de herramientas con base científica de apoyo a la toma de decisiones para frenar el cambio climático, por ejemplo.

 

Documentación y docencia

En España son muchas las instituciones y científicos que utilizan Google Earth, como el Instituto de Oceanografía Física, que está simulando vertidos de hidrocarburos en las costas gallegas. En la Universidad Complutense de Madrid se utiliza en investigación sobre Historia Contemporánea en la Facultad de Geografía e Historia, como documento cartográfico y territorial de referencia en la Facultad de Ciencias Geológicas, o para la docencia e investigación, como hace Mª Eugenia Pérez González, profesora titular de Geografía Física. "En la asignatura de climatología necesito muchas veces localizar diferentes regiones del planeta, para lo cual esta página es muy adecuada.

Igual sucede con la investigación climática, en la que, en numerosos casos, necesito conocer los lugares sobre los que analizamos otras variables. Para mí son muy útiles también las herramientas para medir distancias, la escala, la altitud de la imagen y las numerosas conexiones que existen a Internet", asegura Pérez González.

De forma personal, investigadores, estudiantes y particulares le dan también un uso científico a Google Earth. Algunos alumnos de doctorado de la Universidad Autónoma de Madrid lo utilizan para delimitar el territorio sobre el que realizan sus estudios. Miguel de las Doblas, geólogo estructural y geodinámico del Museo Nacional de Ciencias Naturales, opina que GE es una herramienta "extraordinaria" para los geólogos, pero también explica que todavía no se ha incorporado "como tal en la cartografía geológica oficial en nuestro país".

Se están localizando estructuras de impacto de meteoritos en diferentes lugares. 

No obstante, él lo utiliza a menudo. "Con GE he encontrado muchas fallas y pliegues espectaculares en España, en zonas donde ya existe una cartografía geológica reciente y de detalle y que no refleja su existencia", comenta, y añade que gracias al programa se están localizando posibles estructuras de impacto de meteoritos en muchos lugares de la Tierra, que posteriormente requerirán un estudio sobre el terreno.

Pinos y aire

Fuera de nuestro país hay otros muchos proyectos. Uno de ellos es el del Departamento de Ecología y Biología Evolutiva de la Universidad de California, que utiliza Google Earth en una investigación sobre los pinos de bristlecone, los seres vivos más antiguos de la tierra (se puede consultar el archivo KML en la página principal de Google Earth Solidario). Otro proyecto muy interesante es el de la Agencia de Protección Medioambiental de Estados Unidos (EPA, Environmental Protection Agency en inglés) que utiliza Google Earth como un sistema de detección de la calidad la del aire. Mediante un archivo KML que sigue la pista de las fuentes de emisión, el programa ofrece un listado de empresas que arrojan a la atmósfera gases nocivos. También se recogen los historiales ecológicos de las mismas.

Con poco más de tres años de existencia, Google Earth se ha convertido en una nueva herramienta para la ciencia y, aunque es la más popular, no es la única. Según la opinión de la mayoría de investigadores y docentes consultados, su uso se extenderá todavía más y más por las muchas y amplias posibilidades que ofrece.

Google también en el océano

Google podría estar preparando un sistema de navegación similar a Google Earth pero para el mar. Según cuenta el sitio de noticias News.com , el futuro ‘Google Ocean' ya está en desarrollo, si bien en una fase muy temprana. La compañía ha reunido un grupo de expertos en oceanografía y, en diciembre pasado, invitó a investigadores y oceanógrafos de todo el mundo a Googleplex, la sede del buscador en Mountain View (EEUU), para idear sistemas que permitan la creación de un mapa del mar en 3D.

Como las versiones Earth y Sky, la Ocean permitirá navegar por debajo del mar, observar su batimetría (versión marina de la topografía) o detenerse en lugares concretos. Google no ha querido confirmar lo contado por News.com. La mayor extensión de la superficie marina y la escasez de material previo son los principales problemas con los que se enfrenta.