El transbordador
estadounidense Discovery se encuentra listo para el lanzamiento a una importante
misión rumbo a la Estación Espacial Internacional (ISS) donde los astronautas
tiene como objetivo principal instalar el lujoso módulo principal del
laboratorio japonés Kibo. El transbordador ya estaba dispuesto en el sitio
de lanzamiento del Centro Espacial Kennedy en las últimas horas de ayer,
mientras ingenieros de la NASA chequeaban los equipos y se preparaban para el
próximo paso, llenarlo de combustible durante esta mañana.
El comandante Mark Kelly y el piloto Kennet Ham en la
cabina del Discovery, vuelo STS-124
El lanzamiento ocurrió a las 18 (hora argentina) desde el centro espacial, en
Cabo Cañaveral, Florida. Además de trasladar el segundo componente del
complejo japonés, durante los 14 días de misión, los astronautas inspeccionarán
los daños en el mecanismo de rotación de una antena solar de la ISS,
reemplazarán un tanque de nitrógeno del sistema de climatización y repararán uno
de los baños.
El especialista en robótica estadounidense Greg Chamitoff, viaja para reemplazar
a su compatriota Garrett Reisman, quien regresará a Tierra luego de tres meses
en la Estación Internacional. En una de las tres salidas espaciales
previstas, el astronauta Ronald Garan pasará 20 minutos amarrado a un gigantesco
brazo robótico para reemplazar un depósito de nitrógeno agotado. Funcionarios de
la NASA describieron la caminata hasta el receptáculo como un planeo con
"movimiento de limpiaparabrisas". "Será un paseo bien espectacular", comentó
Garan de 46 años, astronauta especialista de la misión.
Tripulación del vuelo STS-124
Dosa astronautas haciendo prácticas con sus trajes presurizados
El nuevo laboratorio. Su compañero japonés de la tripulación, Akihiko
Hoshide, supervisará la instalación del módulo presurizado del laboratorio Kibo.
Esa sección incluirá un sector externo donde se podrán realizar experimentos de
exposición al ambiente espacial . Su tamaño similar al de un autobús hace del
componente la mayor estructura jamás añadida a la ISS. Se trata de un gran
cilindro de 11,2 metros de largo por 4,4 metros de diámetro, con una masa vacío
de 15,9 toneladas. Está dotado de su propio sistema de manipulación a
telecomando, un brazo articulado que también servirá para tareas de
mantenimiento en la estación.
El laboratorio japonés, que es cuatro metros más largo que el "Columbus" y tiene
una extensión dos metros superior a la del laboratorio "Destiny" de EEUU, cuenta
con 23 plataformas para investigaciones sobre medicina espacial, biología,
observaciones de la Tierra, producción de materiales, biotecnología y
comunicaciones. Buzz Lightyear también viaja. Cinco de los siete
tripulantes nunca viajaron al espacio, al igual que el pequeño astronauta de
juguete Buzz Lightyear, uno de los personajes de la película de Disney "Toy
Story", que se une con sus 30 cm de alto a la tripulación en el marco de una
iniciativa de la NASA para alentar a los niños a seguir estudios científicos.
El sábado la agencia espacial lanzará en simultáneo con Discovery Kids, un
programa infantil interactivo en su sitio web. Un primer elemento de Kibo
-el módulo presurizado que servirá de almacén- fue añadido a la ISS en marzo. El
traslado del tercer y último componente, que corresponde a una especie de
terraza abierta, está programado para marzo de 2009.
La NASA tiene previstas otras 11 misiones de los transbordadores para continuar
el montaje de la EEI antes de que sean retirados en 2010.
Con Kibo, que significa "esperanza" en japonés, Japón se convierte en miembro
pleno de la ISS, sumándose a Estados Unidos, Rusia y Europa, cuyo laboratorio
Columbus fue enviado en febrero por el transbordador Atlantis.
Fuente: lanacion.com, 31
de Mayo de 2008
-"Phoenix" descubre indicios de hielo
bajo el suelo de Marte
La sonda Phoenix ha encontrado posibles rastros de hielo
en torno a la zona próxima al polo norte de Marte donde descendió, según informó
el Laboratorio de Propulsión a Chorro (JPL).
Lo que parece ser hielo está en una imagen captada debajo de la nave por la
cámara que tiene instalada el
brazo
robótico del Phoenix, cerca de una de sus tres patas, indicó el organismo de
la NASA en un comunicado. "Podríamos estar viendo rocas, o podríamos estar
viendo hielo en el lugar del descenso", indicó Ray Arvidson, científico de la
Universidad de Washington encargado de las operaciones del brazo robótico.
Ese hielo pudo haber quedado al descubierto como resultado de la
emisión de gases candentes de los cohetes que redujeron la velocidad
del descenso de la nave, que llegó a Marte el pasado domingo. "Tendremos que
recibir más datos, incluyendo colores, de la cámara en el brazo robótico.
Pensamos que si se trata de hielo, éste se hará más brillante
porque el aire atmosférico se condensará y se convertirá en escarcha sobre ese
hielo", señaló.
En
el centro de la imagen, bajo Phoenix, una pequeña capa de hielo. Encima se
pueden ver los retrochoetes
que
posiblemente apartaron la tierra que estaba encima del hielo encontrado. La
imagen fue tomada por la cámara del brazo robótico
Imagen de los movimientos que se han realizado con el brazo robótico
"La confirmación total ocurrirá cuando comencemos a excavar y a analizar las
capas (de suelo) cercanas", agregó el científico.
A expensas del problema en la sonda
Sin embargo, el análisis podría sufrir algunos problemas debido a un
cortocircuito detectado el jueves durante las pruebas realizadas al instrumento
que examina las muestras.
Un boletín de JPL indicó que se trata del Analizador Termal y de Gases, que
incluye un medidor de calor así como un espectrómetro de masa para examinar los
vapores producidos por el aumento de temperatura. "Hemos desarrollado una
estrategia para comprender mejor este comportamiento y hemos identificado la
forma de resolver este inconveniente", dijo William Boynton, científico de la
Universidad de Arizona y uno de los encargados del instrumento.
Pese a ese problema, los científicos de la misión, cuyo objetivo es analizar
el hielo marciano y buscar la presencia de materiales orgánicos, señalaron que
ésta avanza sin mayores contratiempos. "Hemos evaluado el rendimiento de
la nave en la superficie y hemos determinado que está lista para continuar",
manifestó David Spencer, subdirector del proyecto.
Un problema de comunicaciones con la nave de enlace, que se había presentado
el martes en las operaciones, fue resuelto el jueves cuando los ingenieros
transmitieron comandos para destapar su brazo robótico. Una portavoz de JPL
aclaró que el problema no fue de Phoenix sino del Mars Reconnaissance Orbiter (MRO)
que sirve como enlace de comunicaciones. "Hemos completado todas las tareas
básicas de ingeniería y se han hecho todos los despliegues cruciales", indicó
Barry Goldstein, director del proyecto.
"Nos encontramos ahora en una etapa de la misión en la que estamos revisando
todos los instrumentos científicos" que lleva la sonda para analizar el hielo
marciano y estudiar su suelo en busca de materiales orgánicos, agregó.
Fuente: elmundo.es, 31 de Agosto de 2008
-Un pequeño frankenstein genético de agua dulce
El análisis del ADN de un animal microscópico llamado
rotífero bdeloide ha revelado que su genoma es un extraño puzzle que incluye
fragmentos prestados de otros organismos, como bacterias, hongos y plantas.
El descubrimiento ayuda en parte a explicar cómo estos organismos han
evolucionado a lo largo de los años sin reproducción sexual, pero al mismo
tiempo plantea nuevas cuestiones sobre su misteriosa biología.
Todos los
rotíferos bdeloides son hembras, lo que durante años ha mantenido a los
científicos preguntándose cómo podían intercambiar material genético para
conferir variabilidad genética a las 500 especies que forman este grupo y
poner así en marcha los mecanismos evolutivos.
Según publica en Science un grupo
de científicos de la Universidad de Harvard (EEUU), en condiciones de sequía
estos animales se deshidratan, rompen sus membranas y su ADN y permanecen en
estado latente. Cuando el agua regresa, reconstruyen su material genético,
incorporando en él todo fragmento que encuentran a mano. Así los distintos
individuos intercambian genes, pero al precio de llenar su ADN de basura
genética que, sin embargo, no parece perjudicarles. De hecho, los
investigadores sospechan que algunos de estos genes invasores son
funcionales.
Fuente: publico.es, 30 de Mayo de 2008
-El exceso de sal impediría la creación de vida en Marte
Uno de los artículos que publica Science esta semana le debe
de haber parecido una broma pesada a los responsables de la NASA que aún
celebran el aterrizaje en Marte de la sonda Mars Phoenix Lander. Este aparato
recorrió más de 650 millones de kilómetros para comprobar si el suelo del polo
norte marciano habría tenido las condiciones de albergar vida en algún momento
y, si los autores del artículo tienen razón, habría hecho el viaje en balde.
Sin moverse de sus laboratorios de Harvard y Nueva York, tres
científicos de EEUU –también con financiación de la NASA– han emitido ya un
veredicto. El agua en Marte habría sido demasiado salada para permitir la
existencia de vida tal y como se conoce.Para llegar a esta conclusión,
analizaron los depósitos salinos en una roca de 4.000 millones de años estudiada
por el explorador marciano de la NASA Opportunity y por varias sondas orbitales.
Fue precisamente la información recogida por estas máquinas la que proporcionó
indicios sobre la presencia de agua en Marte en épocas pasadas y avivó la
esperanza de encontrar indicios de vida en tiempos antiguos.
Océanos de salmuera
Los análisis indican que incluso hace varios millones de años, cuando sin duda
había agua en Marte, sus porcentajes de salinidad excedían los niveles en los
que la vida sobrevive en la Tierra. El agua sería más bien una especie de
salmuera espesa nada acogedora.
“Nuestra percepción era que, aunque Marte es un entorno
pésimo, para permitir la existencia de vida hoy, hace mucho tiempo ese entorno
se podría haber parecido más al de la Tierra”, afirma el coautor del estudio y
profesor de Harvard (EEUU) Andrew Knoll. “Sin embargo, estos resultados sugieren
que incluso hace 4.000 millones de años, la superficie de Marte habría sido muy
difícil para la vida. No importa cuánto retrocedamos en el tiempo, es posible
que nunca lleguemos a un punto en el que Marte se parezca realmente a la
Tierra”, añadió.
Los investigadores no descartan que se puedan encontrar en
Marte tipos de organismos distintos de los que se conocen hasta ahora. No
obstante, “un tipo de vida que pudiese aparecer y sobrevivir en un entorno tan
salado requeriría una bioquímica distinta de cualquiera conocida entre los
halófilos [especies que pueden tolerar niveles muy altos de salinidad] de la
Tierra.
Sobre la posibilidad de que organismos con gran resistencia a
la salinidad hubiesen habitado Marte en épocas pasadas, los autores del estudio
recuerdan que los halófilos terrestres son descendientes de otras especies que
evolucionaron primero en aguas más puras. Basándose en lo que se conoce sobre la
vida en la Tierra, consideran que es difícil imaginar que ésta surja en un mar
de salmuera ácida y oxidante. Otro de los autores del estudio, Nicholas Tosca
puso un ejemplo para ilustrar la incompatibilidad entre vida y sal. “La gente ha
sabido desde hace cientos de años que la sal impide el crecimiento microbiano.
Por ese motivo la carne se salaba”, explicó.
Mars Phoenix Lander ya ha desplegado su brazo robótico y
pronto enviará datos sobre la posible vida pasada en Marte. La respuesta a si
algún día hubo marcianos se acerca.
Niveles de salinidad insoportables
Los autores del artículo han realizado una estimación de los
niveles de salinidad de los mares marcianos. Han estudiado los depósitos
minerales en rocas del planeta para calcular la actividad de agua, un baremo que
sirve para medir la cantidad de este líquido disponible para procesos
biológicos, una cifra que se ve limitada por la cantidad de materiales disueltos
en ella. La actividad del agua pura es 1, es decir, que ninguna de sus moléculas
se ve afectada por elementos disueltos y todas están libres para propiciar
procesos biológicos.
El agua del mar tiene una actividad de 0,98. Numerosas
investigaciones (muchas de ellas desarrolladas por la industria alimentaria) han
mostrado que muy pocos de los organismos que se conocen pueden crecer cuando la
actividad de agua cae por debajo de 0,9 y casi ninguno es capaz de sobrevivir
cuando desciende hasta 0,85.
Basándose en la composición química de las sales que quedaron
de las antiguas aguas marcianas, los investigadores calcularon que la actividad
del agua marciana se encontraba, como mucho, entre 0,78 y 0,86, y consideran muy
posible que esa cifra alcanzase el 0,5 a causa de la evaporación, que
concentraría aún más la salmuera.
En la Tierra, un lugar con unos niveles comparables de
salinidad es el mar Muerto, donde la actividad de agua es de 0,66. En este lugar
sobreviven varios tipos de microorganismos halofílicos que se estudian para
comprender cómo podría ser la vida fuera de la Tierra.
Fuente: publico.es, 30 de Mayo de 2008
-Unas cámaras camufladas graban el primer video del rinoceronte de
Java
Quedan apenas 70 ejemplares de esta especie, la más rara y
amenazada | Las grabaciones pueden aportar mucha información a los
expertos para luchar contra su desaparición
Cinco cámaras de vídeo ocultas entre la maleza de un parque natural de
Indonesia han obtenido las
primeras imágenes de uso científico del
rinoceronte de Java, una especie que se encuentra al borde de la extinción,
ya que quedan menos de 70 ejemplares en todo el mundo.
La escena más impactante es la de una madre que embiste a la cámara de
grabación para proteger a su cría, de entre tres y cuatro años, que avanza junto
a ella.
El resto de las imágenes, grabadas sobre todo de noche con infrarrojos,
muestran 37 ejemplares distintos en actividades cotidianas como comer, beber,
andar o bañarse.
Para la grabación de estos animales en estado salvaje se han utilizado unas
cámaras con los últimos avances tecnológicos dentro de un pequeño maletín,
provistas de una batería y un sensor de movimiento. El método mejora al de la
observación humana directa porque, según los científicos, resulta menos invasivo
y permite una mayor proximidad a los animales.
Información clave
"Las grabaciones van a ser muy útiles para estudiar a esta especie de
rinocerontes", ha asegurado a Efe Adhi Rachmat Hariyadi, responsable del
proyecto en el grupo ecologista
WWF en
Indonesia, que ha recalcado que el análisis de sus costumbres puede ofrecer
información clave para evitar que desaparezcan.
Adhi Rachmat Hariyadi también ha señalado que "es muy raro poder contemplar a
estos animales en medio de la jungla" y ha subrayado el interés de los
especialistas por descubrir "cómo usan su hábitat".
El rinoceronte de Java, considerado en peligro crítico de extinción, es un
gran desconocido de la ciencia y, aunque históricamente habitó en gran parte del
Sudeste Asiático, en la actualidad se encuentra confinado a los parques
nacionales de Ujung Kulon, en Java, y de Cat Tien, en el sur de Vietnam.
Los ejemplares de esta especie son similares a la variedad que habita en la
India y Nepal por lo que cuentan también con un sólo cuerno pero su tamaño es
menor, llegan a pesar una tonelada y media y miden entre dos y dos metros y
medio de largo.
Proyecto de diversificación geográfica
El director del Parque Nacional de Ujung Kulon, Agus Priambudi, ha
manifestado en una rueda de prensa en Yakarta que estos primeros resultados les
animan a seguir adelante para llegar a "entender mejor las dinámicas de
población y comportamiento de los rinocerontes de Java", además de ayudarles "a
gestionar de una manera más científica los peligros que afronta" esta especie.
El objetivo final del estudio es conocer lo suficientemente bien a esta clase
de rinocerontes como para poder trasladar a unos cuantos ejemplares a otro
emplazamiento, ya que la diversificación geográfica favorece la supervivencia.
El traslado está previsto "en un plazo de tres o cuatro años", como ha explicado
Adhi Rachmat Hariyadi, por lo que necesitan "datos fiables para poder elegir un
lugar adecuado".
De no llevar a cabo este trasvase de población, ha continuado el responsable
del Fondo Mundial para la Naturaleza-Indonesia, una epidemia o una catástrofe
natural podrían poner en jaque al rinoceronte de Java, y esto es algo
relativamente frecuente en el país debido a su gran actividad sísmica y
volcánica.
La iniciativa se enmarca dentro de un programa gubernamental indonesio para
salvar a esta especie llamado Proyecto Rinoceronte del Siglo y en el que
colaboran el Fondo Mundial para la Naturaleza, la Fundación Internacional
Rinoceronte, Yayasan Badak Indonesia y el Servicio estadounidense de Pesca y
Vida Salvaje. De las cinco especies de rinocerontes que se conocen, la javanesa
es la más rara y amenazada, así como la segunda más pequeña..
Fuente: ADN.es, 29 de Mayo de 2008
-El complejo arqueológico de Stonehenge fue un cementerio
durante más de 500 años
Complejo de Stonehenge
El complejo arqueológico de Stonehenge, en
Reino Unido, fue utilizado como cementerio durante más de 500 años, según revela
la investigación liderada por el profesor británico Mike Parker Pearson, de la
Universidad de Sheffield en Reino Unido.
Las conclusiones de la investigación arqueológica fueron
presentadas en Washington por la
'National
Geographic Society'.
El estudio de la famosa construcción circular de piedra y de
sus pobladores incluye por primera vez el resultado de los análisis de
datación de los restos encontrados mediante radiocarbono. Además, a lo
largo de las excavaciones también se han descubierto objetos cotidianos
utilizados por hombres del Neolítico. Las nuevas pruebas de radiocarbono revelan
que el yacimiento fue usado como cementerio desde el año 3000 a.C. y que
continuó así hasta mucho después de la colocación de los enormes bloques de
piedra que forman el monumento, datado en torno al 2500 a.C. Hasta ahora, los
arqueólogos habían considerado que sólo se habían realizado enterramientos entre
el 2700 y el 2600 a. C., antes de la construcción del mismo.
Sin embargo, la investigación de Pearson ofrece
pruebas concluyentes sobre el significado de este yacimiento y
demuestra que fue utilizado como cementerio durante más de 500 años.
Un continuo carácter funerario
"Ahora tenemos claro que Stonehenge tuvo un carácter
funerario en todas sus etapas", comenta Parker Pearson. "El complejo fue
utilizado como cementerio desde su construcción hasta su abandono final,
alrededor de la mitad del tercer milenio a. C.", explica el investigador.
Los restos de cremaciones más antiguos que se han analizado
-una pequeña pila de huesos y dientes- pertenecen a unas
excavaciones cercanas a Stonehenge conocidas con el nombre de 'Aubrey Holes' y
datan del 3030 al 2880 a. C. Además, se han hallado otros restos en zanjas
cercanas: los de un hombre adulto que habría sido incinerado y enterrado entre
2930 y 2870 a. C., y los más recientes, procedentes de otra excavación, que
corresponden a una mujer de unos 25 años de edad incinerada y enterrada entre
2570 y 2340 a. C., fecha en la que se estima que se colocaron las primeras
grandes piedras del monumento.
Los arqueólogos estiman que hasta 240 personas fueron enterradas en
Stonehenge, todas incineradas con anterioridad. Andrew Chamberlain, compañero de
Parker Pearson en la Universidad de Sheffield y experto en demografía de la
antigüedad, opina que los restos hallados corresponden a una única
familia perteneciente a la élite de la época y a sus descendientes, en
lo que podría ser una auténtica línea dinástica.
Los resultados de la investigación se detallarán en el documental 'Las claves
de Stonehenge', que se difundirá el próximo domingo en el canal 'National
Geographic' que también publicará un reportaje especial sobre el tema en la
edición de septiembre de su revista
Fuente: elmundo.es, 29 de Mayo de 2008
-"En poco tiempo los robots tomarán decisiones"
Domenico Pairisi
Una sociedad formada por robots. Parece un
sueño o una película de ciencia ficción, pero al escuchar a
Domenico Parisi,
investigador del Instituto de Ciencias y Tecnologías del Conocimiento de
Roma, las impresiones cambian. Habla de aplicar principios biológicos sobre
materiales no biológicos, de comunidades de robots
que se coordinan entre ellos en una mezcla de psicología y simulación, de
nanotecnología, de robots microscópicos...
¿Cómo actúan estos robots?
Cogen cosas, esquivan objetos y se desplazan, regidos por un modelo de sistema
nervioso, por una inteligencia artificial, muy relacionada con el cuerpo y el
cerebro.
¿Cerebro de los seres humanos
o de los animales?
También de animales, sí. Nuestro comportamiento está guiado por el cerebro, que
es un conjunto de neuronas, de células nerviosas. El de los robots lo está por
un cerebro simulado más sencillo, con neuronas artificiales ligadas por sinapsis
artificiales. Es una inteligencia artificial pero muy cercana a la biología, a
la física del cuerpo. E igual que los humanos nos comunicamos, los robots
también
lo hacen: se coordinan entre ellos para conseguir logros que, por separado, no
pueden.
¿Qué reglas tienen?
Las mismas normas sociales que los humanos. Les decimos lo que no se tiene que
hacer imponiéndoles reglas que bloqueen comportamientos negativos.
¿No sería más fácil crearlos
sin esos comportamientos?
Tiene razón, siempre que se refiera a robots con fines prácticos. Pero cuando
los creamos para comprendernos a nosotros mismos, como nosotros a menudo somos
egoístas, debemos hacerlos con esa misma característica y enfrentarlos uno a
otro. Así podemos estudiar lo que quieren los sociólogos y los científicos
políticos, es decir, el emerger de reglas que impiden conductas demasiado
egoístas. Esta es una línea de investigación muy importante para nosotros: crear
robots egoístas para estudiar porqué los seres humanos tienen leyes. Si no
fuéramos egoístas no las tendríamos.
¿De qué modelos de vida
artificial podemos hablar?
De redes neuronales artificiales del cerebro, o de modelos de la evolución
biológica. Somos individuos con diferentes genes. Un hijo no será idéntico sino
parecido a su padre, por las mutaciones genéticas. Darwin puro y duro.
Cuesta pensar en genes
hablando de robots...
Lo sé, pero todo puede ser simulado, también los genes. Son simulaciones de
genotipos.
¿Qué impacto tiene todo esto?
Uno, científico: los robots nos hacen comprender la realidad, que es el objetivo
de la ciencia. Otro, tecnológico. Hay un tercero, que es cultural,
y es el más preocupante para mí, porque pensar que todo lo que somos y hacemos
puede ser reproducido por los robots cambia nuestra visión del mundo.
¿Usted tiene miedo?
Desde luego, hay una parte arriesgada. El futuro es problemático, pero no
podemos cerrar los ojos, hay que conocerlo y evitar los aspectos negativos.
Dicho así, las películas
catastrofistas que muestran un mundo en manos de robots no parecen tan
gratuitas...
Para crear un robot semejante a los seres humanos hay que hacerlo libre, con
todos los riesgos que eso puede conllevar.
Que diga esto un científico
da miedo...
Pero la investigación va en esa dirección. Lo que pasa es que aún hemos
recorrido muy poco camino. Si
se va imitando la percepción, la inteligencia, la capacidad de previsión, de
decidir... Al final se tiene a un ser humano.
¿Se podría llegar a convivir
con robots autónomos?
Ahora mismo es ciencia-ficción.
¿Hay intereses militares?
Los hay. La Unión Europea, que yo sepa, no tiene una investigación en robótica
en este sentido, pero en Estados Unidos e Inglaterra sí hay una fuerte inversión
militar.
¿Cree que la investigación puede derivar hacia
intereses peligrosos?
Si considera que la guerra es peligrosa, desde luego. Se invierte en robótica
militar. Parte de ella incluye vigilancia, prevención o determinados
descubrimientos, pero también se incluyen los bombardeos, claro.
¿Puede haber interferencias
militares en la investigación?
Pienso que sí. Por suerte, yo no hago este tipo de investigaciones, pero me doy
cuenta de que las aplicaciones de la llamada robótica social interesan a los
militares. Pero esta rama de la robótica también nos sirve para otro tipo de
cosas, como por ejemplo, entender mejor por qué el ser humano hace la guerra.
¿Cómo?
Utilizando robots para reducir las reacciones etnocéntricas de los humanos, por
ejemplo.
¿Por qué su estudio está
inspirado en el comportamiento de las hormigas?
Porque son más simples pero forman grupos de individuos con los mismos genes. Se
pueden enfrentar a otros grupos, pero entre ellos, no.
¿Qué pasará con los robots?
Lo que pasó con los ordenadores: dentro de 20 o 30 años creo que estarán por
todos lados.
¿En qué punto nos
encontramos?
En las aplicaciones reales decide el hombre, pero en las investigaciones se
empieza a dar responsabilidad a los robots. Los robots mandan la información al
hombre, que es quien decide. Pero el paso siguiente es que el que decida sea un
robot.
Fuente: publico.es, 29 de Mayo de 2008
-Nuevo Windows: para tocar y jugar
El nuevo sistema operativo de Microsoft incluirá
funciones especiales para pantallas sensibles al tacto como alternativa al
ratón y al teclado. Se espera que este nuevo sistema tenga una
recepción más positiva que el fuertemente criticado Windows Vista, que salió
a la venta el año pasado. La nueva interfase táctil, que saldrá a la
venta a finales de 2009, permite a los usuarios agrandar y minimizar
imágenes, trazar rutas en mapas, dibujar o tocar el piano
"La forma en que se interactúa con el sistema cambiará
dramáticamente", dijo el presidente de Microsoft, Bill Gates.
En la conferencia especializada en tecnologías digitales,
"All Things Digital", celebrada en San Diego, California, Gates aseguró que
Windows 7 incorporará nuevas formas de comunicación y de interacción.
"Actualmente casi toda la interacción es teclado-ratón.
En los próximos años, la importancia del habla, la visión, el tacto -todas
esas cosas- serán muy importantes".
Windows 7 será tactil
El vicepresidente de la compañía, Steve Ballmer, describió al
prototipo como "sólo una probadita" de lo que será la nueva versión de Windows,
luego de admitir que espera que funcione mejor que el sistema Vista. Sin
embargo, pese a que Windows Vista ha sufrido de una muy pobre calificación entre
los consumidores, Ballmer informó que la compañía ha manufacturado 150 millones
de copias del programa.
Se puede tocar
Especialistas de la industria afirman que Microsoft espera
que Windows 7 cambie la manera en que las personas interactúan con las
computadoras personales en el futuro.
"Tocar se está convirtiendo en una manera común de
interactuar con los programas y los dispositivos", escribió el director de
producción de Microsoft, Chris Flores, en su blog personal.
"Superficies táctiles están llegando a todas partes, en
computadoras portátiles, teléfonos celulares, controles remotos, sistemas de
posicionamiento global entre otros".
Cuando se le cuestionó ¿quién llegará primero al mercado de
las computadoras con una pantalla táctil, Microsoft o Apple?, Ballmer aseguró
que ese no es problema.
"Nosotros de cualquier forma venderemos 290 millones de
computadoras personales y Apple venderá 10 millones".
Ellos son muy exitosos, nosotros y nuestros socios también.
Pero es un trabajo diferente. Steve (presidente de Apple) puede, de manera muy
fácil, vender algunos modelos y eso se lo reconozco".
De acuerdo con el sitio Beta News, "las pruebas de la versión
beta iniciarán a finales de este año, aunque la falta de monitores sensibles al
tacto podría dificultar los ensayos en la nueva interfase".
Nosotros nos retiramos
Durante la conferencia, Steve Ballmer también habló sobre el
revés que sufrió Microsoft al no poder comprar Yahoo, luego de ofrecer US$47.000
millones.
"Mira, nosotros hicimos una oferta por Yahoo. Estuvo ahí por
tres meses y hay una diferencia entre ofrecer y pedir".
"Pensábamos que podíamos acelerar nuestro negocio. Íbamos a ser disciplinados
con las finanzas. Nosotros nos retiramos. Estamos conversando con ellos sobre
otras ideas, pero no estamos haciendo una nueva oferta. Nos reservamos el
derecho de hacerlo. Eso no está en la agenda".
Por su parte Bill Gates dijo: "Yo he apoyado todas las decisiones que Steve
ha tomado. Lo apoyo totalmente".
El mejor buscador del mundo
Bill Gates en la actualidad piensa más en la filantropía que en su empresa
Mientras que muchos de los asistentes estaban más al
pendiente sobre el nuevo Windows 7 o los comentarios sobre Yahoo, un
reflector se puso sobre Bill Gates y la cuenta regresiva para retirarse de
Microsoft el 1 de julio. En una recepción anterior a la conferencia, Gates
conversó con la prensa acerca de su futuro. Dijo que aunque se estaba
retirando de sus "labores diarias" en la compañía que él mismo fundó, no
iría completamente.
En lugar de aprovechar el 80% de su tiempo en Microsoft y 20% a la
fundación que tiene con su esposa Melinda, ahora hará al revés.
Gates permanecerá como presidente de Microsoft y dijo que seguirá
teniendo una oficina en la sede de la compañía y dedicará su tiempo a
escribir, pensar y trabajar en varios proyectos incluida la nueva generación
de Microsoft Office.
"Estoy muy concentrado en la investigación y el desarrollo interno",
dijo.
"Nosotros crearemos el mejor buscador de internet".
Fuente: BBC, 28 de Mayo de 2008
- Steve Bratt y el
desarrollo de la web semántica
Tim Berners-Lee, uno de los padres de
Internet, soñó hace años con una 'Web semántica', capaz de analizar todos los
datos, los contenidos, los enlaces, y las transacciones entre personas y
ordenadores. Su mano derecha, y presidente ejecutivo del
Consorcio W3C, Steve Bratt,
explica en qué consiste esa 'Web semántica', y anima a seguir trabajando para
adaptar los contenidos a todo tipo de dispositivos, camino de una Red ubicua.
Steve Bratt
Tras su visita a Barcelona Digital Global Congress,
celebrado la semana pasada, entrevistamos a Steve Bratt en Madrid sobre el
cometido del Consorcio W3C (al que pertenece elmundo.es) como entidad que
trabaja en favor de los estándares Web.
Pregunta: ¿En qué consiste el trabajo
del Consorcio W3C?
Respuesta: El Consorcio W3C es una
comunidad global de expertos que colaboran para desarrollar tecnología que
hace que la Web funcione, trabajamos para desarrollar una interfaz humana
para Internet.
P: ¿Cómo se materializa ese trabajo?
R: Bueno, en esta organización tenemos
ahora mismo unos 60 grupos de trabajo, que se centran en diferentes
tecnologías web, y desarrollan los estándares y especificaciones que dictan
cómo construir las páginas, cómo usar la voz, los vídeos, y un largo
etcétera. Casi todo lo que se puede encontrar en la Web tiene al menos sus
bases en el trabajo de estos expertos, y este trabajo se pone a disposición
de todo el mundo gratis.
Nada de lo que hacemos es de obligada aplicación. No
tenemos la autoridad de la fuerza para imponer nada, ni llamamos al Consejo
de Seguridad de la ONU para obligar a la gente a que siga los estándares
(risas). Nuestros estándares se basan en dos cosas. En primer lugar, para
que la web funcione, todo el mundo debe adoptar un lenguaje web común, de
ahí que los estándares estén enfocados a hacer que la Red funciones
correctamente. Es un intento de lograr que la gente haga las cosas de la
misma manera, es decir, de la manera que nosotros sugerimos.
En segundo lugar, esperamos que la gente use nuestros
desarrollos porque quieren usarlos, por su calidad o porque les facilite su
trabajo.
P:¿Qué trabajo del Consorcio destacaría
personalmente?
R: Quizá deba destacar varios. En el
pasado, yo trabajé en la definición de HTML, que es el estándar más básico y
más conocido en la Web, y obviamente aún es muy importante. De hecho, su
desarrollo constituye uno de los grupos del Consorcio más importantes. Lo
que pasa es que de cara al futuro surgen nuevas tecnologías que necesitan
respuesta. La prueba es que existen, como ya dije, más de 60 grupos de
trabajo en W3C.
P:¿Qué está fallando, o qué se puede
mejorar, en la Web?
R:La Web funciona de maravilla. Internet
tiene problemas como la seguridad, el correo basura, la privacidad, y otros
problemas derivados de su vertiente social, y de hecho tenemos un grupo
llamado ''Technology and Social Domain', sobre el impacto social de la Web y
que trata precisamente de estos asuntos. Creemos que es algo crítico.
P:¿Cuál es el reto más importante para el
Consorcio?
R:(Silencio) Bueno, creo que en lugar de
hablar de retos yo hablaría de oportunidades. Las últimas cifras hablan que sólo
un 20% de los habitantes del planeta tiene acceso a la Web. Así, creo que uno de
los asuntos más importantes a los que nos dedicamos es a tratar de llevar la web
a todas partes en el mundo, con todos los beneficios que ello implica. Creo que
Internet es la plataforma de comunicación más importante que ha existido jamás
en la historia, y hacerla accesible a todo el mundo es creo lo más importante.
Si hablamos de retos tecnológicos, creo que los dispositivos
móviles es el más importante ahora mismo, la Web móvil.
P:La siguiente pregunta va por ahí: ¿Es
posible adaptar los contenidos a la web móvil, o deberían construirse
específicamente para los dispositivos móviles?
R:Esa es una excelente pregunta. Nosotros
creemos en la existencia de una sola Web accesible desde todo tipo de
dispositivos, que pueda organizar e interconectar información en el reloj, en el
móvil, en el ordenador, en la pantalla del televisor. Es muy importante ya que
el poder de la Red llega a través del enlace, de la relación entre contenidos no
importa dónde.
Deberíamos ser capaces de adaptar los contenidos a cualquier
tipo de dispositivo. Tenemos varios grupos en el Consorcio W3C trabajando
específicamente en los problemas que genera esa adaptación. En primer lugar,
tenemos que especificar cómo ofrecer contenidos en pantallas muy pequeñas, como
las de los móviles, o en dispositivos muy simples.
P:¿Podría explicar algún problema
importante?
R:Bueno, tenemos los teléfonos móviles.
Tengamos en cuenta que las inmensa mayoría de los móviles que hay en el mundo no
son muy avanzados, son muy simples, tienen teclados y pantallas pequeñas, y
cuentan con navegadores muy simples también, no tienen el mundo poder ni el
mismo enfoque que los navegadores de un escritorio normal. También existen otros
problemas tales como el escaso ancho de banda pueden usar, y el hecho de que son
dispositivos diseñados para funcionar en movimiento. Todo ello requiere que se
desarrollen nuevos estándares.
P:¿Puede darme una definición clara de 'web
semántica'?
R: Bien, piensa en que la Web 1.0 ha sido una
Web de documentos enlazados, documentos de millones de páginas en todo el mundo
enlazados entre sí. Pues la Web semántica es aquella en la que se enlazan datos,
siempre que éstos estén bien definidos, bien procesados, con valores,
descripciones, etc. Los enlaces entre esos datos también están definidos. Por
ejemplo, mi nombre y mi número de teléfono estarían enlazados de una manera más
explicativa, con una categoría de 'número de teléfono'. Es decir, que los
enlaces vienen acompañados de unas etiquetas que explican qué son esos datos,
por qué están relacionados.
P:¿Eso cómo se construye?
R: En primer lugar, hemos terminado la
tecnología básica para realizarlo a través de los enlaces, denominada
RDF, que te indica cómo realizar los enlaces en la Web. Es muy simple, en
realidad: propone un sujeto, un valor, y la relación entre ellos.
La construcción de la 'Web semántica' es básicamente la
construcción de una inmensa base de datos relacionada en la Web. Así, cuentas
con una fila con tu nombre, y una serie de atributos relacionados con ese
nombre, como la edad, el día de nacimiento, tu dirección , tu número de
teléfono, tu correo electrónico...
P:¿Y eso cómo se hace? ¿Existe alguna manera
automática de relacionar de esa manera la enorme cantidad de datos que hay ya en
Internet?
R:No creo que se deba de hacer a mano
exclusivamente, existen programas que relacionan datos para construir bases de
datos de este tipo. Aquí ha habido mucho avance gracias a la inteligencia
artificial, que yo defino como 'algoritmos más inteligentes'.
No obstante, ya existen datos suficientes que relacionar, te
pongo un ejemplo: muchos grandes museos tienen páginas web muy descriptivas, con
todas sus obras catalogadas, por autor, época, situación física y demás. Esas
descripciones pueden ser muy útiles para interrelacionar información en la Web.
Otro ejemplo: existe un interesante grupo llamado
'Linking Open Data Project', que recoge estadísticas públicas o abiertas,
como las que emite Eurostat, y datos también abiertos como los contenidos en la
Wikipedia, en un esfuerzo por estructurarlos para permitir consultas más
complejas. Y ahí tienes DBPedia.
Se trata, en definitiva, de maneras de realizar lo que Tim
Berners-Lee ya predicaba en 1999. La base de todo esto es tan sencilla como el
establecimiento de enlaces entre datos.
P:¿Qué relación tiene todo esto con la gran
cantidad de datos que se está generando gracias a la explosión de la Web social,
de la Web participativa?
R:En cierto modo, la Web 2.0, que
efectivamente implica que todo el mundo puede subir información a través de
blogs, imágenes, vídeo... cuenta con herramientas que están bien hechas, pero
están muy cerradas en sí mismas. El problema surge, por ejemplo, cuando quieres
combinar los tados de tu cuenta de Facebook en tu cuenta de MySpace, o en Bebo.
En realidad, has de duplicar la información. Mi sueño es que la web semántica
irrumpa en las redes sociales, de modo que puedas controlar tu información y los
vínculos que existen en ella. Mi información personal es mía, y debería ser
capaz de poder compartirla si quiero en otras redes sociales.
P:¿Algo así como la iniciativa OpenSocial?
R:Eso es lo que están tratando de hacer.
Nosotros queremos ayudar en problemas que surgen, cómo compartir los datos de
las identidades en la Web sin violar la privacidad, y lograr que cada uno pueda
tener el control de su propia identidad de una manera fácil. Lo cierto es que
mucha gente tiene esta misma idea, y la gran pregunta es qué tecnología será al
final la que permita algo así.
P:Para terminar, ¿Cuál es su principal
cometido como presidente del W3C?
R:Bueno, mi principal tarea es tratar de
difundir y educar en todo cuanto el Consorcio trabaja. Sobre todo, animar a
utilizar la tecnología que desarrollamos.
Fuente: elmundo.es, 28 de Mayo de 2008
´
-Phoenix por fin llega a Marte
La nave espacial Phoenix se posó sobre la región polar norte de Marte, el
domingo, iniciando de este modo los tres meses dedicados al estudio de un sitio
que fue escogido por sus buenas probabilidades de tener agua congelada al
alcance del brazo robótico del módulo.
Las señales de radio recibidas a las 4:53:44 p.m., hora del
Pacífico (7:53:44 p.m., hora del Este), confirmaron que el Módulo de Amartizaje
Phoenix había sobrevivido al difícil descenso final y había tocado el suelo 15
minutos antes de lo previsto. La señal de radio tardó ese tiempo en viajar desde
Marte hasta la Tierra a la velocidad de la luz.
Los miembros del equipo de la misión en el Laboratorio de
Propulsión a Chorro (Jet Propulsion Laboratory o JPL, en idioma inglés), de la
NASA, en Pasadena, California, así como también los miembros del equipo de
Sistemas Espaciales Lockheed Martin, en Denver; y de la Universidad de Arizona,
en Tucson, vitorearon la confirmación del "amartizaje" y aguardaron ansiosamente
que llegara más información a través de la sonda Phoenix durante la noche del
domingo.
Entre los miembros que ocupaban el cuarto de control en el
JPL se encontraba Michael Griffin, quien destacó que ésta fue la primera vez que
un módulo se posó exitosamente sobre Marte sin utilizar bolsas de aire, desde
que tuvo lugar la misión Viking 2 (Vikingo 2), en 1976.
"Por primera vez en 32 años, y sólo por tercera vez en la
historia, un equipo del JPL se ha posado suavemente sobre Marte", dijo Griffin.
"No podría estar más feliz de estar aquí, siendo testigo de este increíble
logro".
Durante su vuelo de 680 millones de kilómetros (422 millones
de millas) desde la Tierra hasta Marte, luego de su lanzamiento (el 4 de agosto
de 2007), la sonda Phoenix dependió de la electricidad generada por sus paneles
solares. El vehículo de transporte, alimentado por dichos paneles solares, se
separó siete minutos antes de que el módulo de amartizaje, protegido por una
cápsula, ingresara a la atmósfera marciana. Las baterías ahora proveerán
electricidad para el sistema hasta que se abra el propio par de paneles solares
del módulo.
Estas fueron las primeras imágenes enviadas por Phoenix
"Ya ha pasado la peor parte y podemos respirar de nuevo, pero
aún necesitamos saber si la sonda Phoenix ha abierto sus paneles solares y si ha
comenzado a generar energía eléctrica", dice Barry Goldstein, del JPL, gerente
del proyecto Phoenix. Si todo sale bien, los ingenieros conocerán el estado de
los paneles solares entre las 7 y las 7:30 p.m., hora del Pacífico, mediante una
transmisión de Phoenix triangulada por el orbitador Mars Odyssey (Odisea
Marciana), de la NASA.
El equipo estará también a la espera de la transmisión
nocturna del domingo para confirmar que los mástiles de la cámara estereográfica
y la estación de monitoreo del clima hayan alcanzado su posición vertical.
"¡Qué amartizaje más emocionante! Pero el equipo espera
impacientemente la próxima serie de señales que verificarán que la nave espacial
se encuentra en estado saludable", dijo Peter Smith, de la Universidad de
Arizona, quien es el investigador principal de la misión Phoenix. "Apenas puedo
contener mi entusiasmo. Las primeras imágenes que recibimos después de que la
nave se posó sobre el terreno polar marciano establecerán el escenario de
nuestra misión.
Otro despliegue crítico será el primer uso del brazo robótico
de 2,3 m (7,7 pies) de largo, tarea que no se intentará al menos hasta dentro de
dos días. Los investigadores harán uso del brazo durante las próximas semanas
para obtener y colocar muestras de suelo y de hielo en los instrumentos de
laboratorio situados en la cubierta del módulo.
La señal que confirmó que la sonda Phoenix había sobrevivido
al amartizaje fue triangulada mediante el satélite Mars Odyssey y fue recibida
en la Tierra por la antena de la estación Goldstone, en California, que forma
parte de la Cadena del Espacio Profundo (Deep Space Network, en idioma inglés),
de la NASA.
Fuente: ciencia.nasa.gov, 26 de Mayo de 2008
"Yo iré a Marte"
El nombre de la 101 División Aerotransportada se entreteje en
la historia con la operación de desembarco que, el 6 de junio de 1944, dio el
banderazo de salida para liberar a Europa del Tercer Reich. Lanzados en
paracaídas sobre la costa francesa más allá de la playa de Utah, algunos hombres
de la 101 cayeron tan apartados de su objetivo que recuperarlos se convirtió en
una odisea, como recreaba Steven Spielberg en
Salvar al soldado Ryan. Con tales antecedentes, difícilmente podría
pensarse en un cuerpo mejor entrenado si alguna autoridad competente decidiese
abordar los grandes desembarcos pendientes, aquellos que podrían inscribir el
próximo gran hito en la aventura de la especie humana. Pero en estas
operaciones, las playas de Utah y Omaha no bordearían otros mares que los
desiertos sin vida de la Luna o Marte. Y la recuperación de los soldados no
formaría parte del plan; no se trataría de un asalto, sino de una colonización.
Ruth
frente a un paisaje de Afganistán que podría pasar por ser marciano
Aunque ninguna voz de la NASA u otra agencia espacial se ha
atrevido a considerar jamás la posibilidad de un viaje sin regreso a otros
mundos, desde ahora tampoco podrán argüir que es por falta de voluntarios. Desde
las páginas de Público, el sargento de
primera clase de la 101 William H. Ruth, hoy destinado en Afganistán bajo el
mando de la OTAN, es el primer humano en dar un paso al frente y ofrecerse
públicamente como voluntario para emprender la colonización de otros planetas,
renunciando, si es preciso, a la opción del regreso a casa. Su oferta se
sustenta en dos premisas: “Uno, debería ser inmediato, no dentro de décadas.
Dos, la seguridad sólo puede ser una consideración, no un factor de decisión”.
Billete de ida
El origen de esta historia se remonta a dos años atrás,
cuando la revista The Space Review
difundió una idea audaz planteada por un ex ingeniero de la NASA, James McLane.
El pasado marzo, la web Universe Today
rescataba la propuesta en un reportaje de la periodista Nancy Atkinson. Frente a
los actuales programas de exploración espacial, que estiman la llegada del ser
humano a Marte en un horizonte de casi tres décadas, McLane alentaba a acortar
por una ruta que aceleraría la colonización del planeta vecino. Y si todo atajo
tiene sus baches, en este caso exigiría suprimir el paso más costoso y complejo
de una misión marciana: el regreso.
Para aminorar los riesgos asociados al proyecto, el pionero
–o la pareja fundadora– encontraría allí equipo y suministros previamente
depositados por misiones robotizadas. Al primer colono se unirían, en vuelos
sucesivos, otros viajeros que construirían un nuevo mundo lejos de éste. Bajo la
propuesta de McLane no yacía simplemente el anhelo de una hazaña técnica, sino
algo más: un objetivo común y aglutinador para la Humanidad. Según el ingeniero,
el proyecto crearía “un vínculo de hermandad que alumbraría una nueva era de
cooperación internacional y respeto por los valores humanos”.
Pese a lo elevado de la idea, su proponente no es, según sus
propias palabras, un autor de ciencia-ficción ni un soñador. Entrevistado por
este diario el pasado marzo, McLane aseguraba que sus 21 años en ingeniería
aerospacial como contratista de la NASA y otros 20 en el sector privado le dotan
de la suficiente autoridad en la materia: “Propongo algo que es factible y para
lo que tengo la experiencia adecuada”, sentenciaba. Su participación en el
diseño de innumerables misiones espaciales le avala cuando afirma que es posible
enviar un vuelo tripulado a Marte en menos de diez años.
Aunque simplificar el proyecto exige prescindir del viaje de
vuelta, McLane no busca un loco sin apego a la vida: “Esta misión no propone el
suicidio, sino una expedición de alto riesgo con la posibilidad de vivir
indefinidamente en Marte”, alegaba. McLane no esquiva la polémica que rodea tal
apuesta, pero juzga que su iniciativa es digna de debate. Excepto, al parecer,
para la NASA: “Hace diez años, lo propuse en una presentación técnica. ¡La
cuestión fue ridiculizada por el orador!”, concluía.
El siguiente capítulo de la historia se escribió hace un mes,
cuando el científico Stephen Hawking impartió una conferencia conmemorativa del
50 aniversario de la NASA. Desde su tribuna en la Universidad George Washington
de la capital estadounidense, el físico insistió en la tesis que viene
predicando en los últimos años: la humanidad debe extenderse a otros mundos como
sistema de respaldo ante las posibles catástrofes que amenazan con borrar a la
especie de su planeta de origen –pandemias, cambio climático o guerras
nucleares–. En esta ocasión, Hawking instó a las naciones a dedicar recursos
económicos para plantar bases en la Luna y Marte lo antes posible.
Las palabras de Hawking resonaron por todos los medios del
planeta, llegando hasta uno de los rincones más remotos: la frontera entre
Afganistán y Pakistán. Una conexión por satélite llevaba el mensaje del
científico, inserto en un artículo del editor de la web
Space.com, Tariq Malik, hasta la
pantalla del sargento William H. Ruth, un heredero de aquellos paracaidistas de
Normandía que combate contra los talibanes en la montaña afgana. Ruth pinchó en
el enlace al correo electrónico de Malik. La arenga de Hawking le había
inspirado: “Mis hombres y yo iremos, sentaremos una colonia donde sea preciso y
aguardaremos allí la llegada de los colonos”. La respuesta de Ruth apareció en
el blog de Anthony Duignan-Cabrera en
LiveScience.com.
Este diario rastreó la pista hasta contactar con Ruth. Tras
dejar claro que sus opiniones “no reflejan las actuales políticas del Ejército o
del Gobierno de EEUU”, el sargento expresó su interés por “discutir las opciones
para la colonización de la especie humana”. Aunque Ruth no conocía la propuesta
de McLane y sus inconvenientes, la primera exposición suscitó su interés:
“Parece que McLane y yo compartimos el mismo pensamiento en esta materia”.
Público le facilitó entonces el
reportaje de Atkinson, escrito en inglés.
La respuesta llegó 12 días más tarde: “Pido disculpas por
tardar en responder, desgraciadamente he tenido que tratar con el lado más
oscuro de la guerra, las batallas en las que pierdes hombres. Las cosas nunca
son monótonas aquí. Pero estas dos semanas sólo han vigorizado mi pasión por una
nueva manera de pensar a escala global. Sólo espero que la raza humana no esté
dada por perdida, que aún seamos capaces de cambiar nuestro curso y vivir mejor
juntos. Gracias por su interés en mi opinión, espero que mis humildes palabras
encuentren su camino a la sala de estar o al despacho de alguien. Quién sabe,
pequeñas chispas prenden grandes fuegos”.
Carta desde Afganistán
El resultado es una carta titulada
La perspectiva de un soldado,
reproducida aquí. En ella, Ruth se ofrece para asumir una misión espacial,
incluso sin billete de vuelta, si algún día esto llegase a formar parte de los
escenarios evaluados por la NASA. Como cualificaciones, le sostienen sus
credenciales de especialista en reconocimiento de objetivos hostiles: “Soy un
militar bautizado por el fuego durante más de 15 años, desde la temprana edad de
17. Así que no soy un loco ni un extraño para lo que algunos llamarían alto
riesgo”. A diferencia de la idea del ingeniero, Ruth propone una misión de
equipo formada por “los mejores pilotos astronautas del mundo, especialistas en
reconocimiento y pensadores creativos [...]. Hombres y mujeres soldado de todas
las naciones, con un propósito: encontrar una localización adecuada para el
establecimiento de los colonos”.
Ruth no ignora los recelos que el carácter militar de la
propuesta podría suscitar: “Para algunos, enviar soldados al espacio parecería
más una invasión o una ocupación que una exploración. [...] ¿Quién si no? ¿Quién
más tiene la mentalidad de ofrecerse voluntario para enfrentarse a un peligro
cierto y posiblemente a la muerte, a miles de millas de su hogar? Implicar a los
ejércitos del mundo en algo diferente de hacer la guerra unos contra otros me
parece algo que muchos querrían”.
Finalmente, en las palabras de Ruth late el mismo espíritu de
McLane: “Mirar más allá de nuestras mezquinas diferencias de raza y religión y
ver… paz, prosperidad y posiblemente un nuevo mundo”. “¿Podría este único factor
unir a la humanidad en una nueva era de cooperación global y un nuevo respeto
planetario por la vida humana, a diferencia de lo que conocemos hoy? Mis
respuestas… ¡Preguntadme de nuevo cuando haya llegado al nuevo mundo!”. ¿Una
inmensa utopía? Por el momento, sólo una diminuta chispa. Pero ya ha prendido en
un tercer continente. Desde allí, el primer voluntario de las
fuerzas espaciales se despide como
alguien acostumbrado, no a esperar que las cosas ocurran, sino a hacer que
ocurran: “Que la paz esté con usted; y si no lo está, llámeme y me aseguraré de
que lo está”.
William H. Ruth, sargento de primera clase, 101
División Aerotransportada del Ejército de EEUU, Afganistán
No soy un científico, ni creo ser un hombre brillante. Soy un simple soldado,
hombre de familia y quisiera pensar que buen marido, padre y hombre honesto. Mis
pensamientos no se escriben a menudo, pero cuando lo hacen, están llenos de
pasión por algo mejor para todos nosotros.
Mientras leía los pensamientos de Jim McLane y Nancy Atkinson sobre la
colonización espacial, comencé a darme cuenta de que hemos perdido el camino.
Nos han consumido tanto las mezquinas diferencias y antipatías por otros que
hemos olvidado nuestra predestinación para algo mejor. Sobre todos los
organismos de este planeta, se nos dieron las herramientas para avanzar y
expandir nuestro pensamiento más allá de la simple reproducción y supervivencia.
¿Qué haremos con ese destino? ¿Dudaremos a la menor sombra de muerte o peligro?
¿O haremos lo que tantos en la historia hicieron antes?
De todas las sociedades del pensamiento, la NASA debería entender esto.
¿Existirían la NASA o América si un hombre llamado Colón no hubiese perseguido
un viaje peligroso y posiblemente mortal a un nuevo mundo? ¿Qué hay de los que
viajaban en sus barcos, los que dejaron España sabiendo que nunca regresarían?
¿Podemos tener ahora la suficiente visión para mirar más allá de nuestras
mezquinas diferencias de raza y religión y ver… paz, prosperidad y posiblemente
un nuevo mundo?
¿Podemos construir una colonia fuera de este planeta? Yo lo arriesgaré todo
para ver esta visión realizada. Soy un militar bautizado por el fuego durante
más de 15 años, desde la temprana edad de 17. Así que no soy un loco ni un
extraño para lo que algunos llamarían alto riesgo. Dejad que los héroes de todos
nuestros países, por una vez, arriesguen un último sacrificio por algo más
grande que la idea de un solo hombre.
¿Qué pienso de misiones tripuladas sólo de ida? Coincido totalmente con la
NASA y otros en que es peligroso y quizá mortal. ¿Pero desde cuándo esto ha
detenido a alguien? Es un hecho probado en la historia humana que cuando a
nuestra especie se la arroja a una situación sin alternativas, prevalecerá y
sobrevivirá.
Conozco de primera mano las bajas y la ley de Murphy: todo lo que puede
fallar, fallará. En el ejército nunca enviamos a nadie solo, porque hemos
aceptado el hecho de que algo fallará. Cualquier misión debería tener tres o
cuatro pequeñas naves, con tripulaciones de entre cuatro y seis cada una. La
historia de la exploración espacial cuenta fracasos en menos del 50% de todas
las misiones a otros planetas. Es razonable que deberíamos enviar más de una
nave para aumentar el porcentaje de éxito en el primer vuelo.
Consideremos una partida de exploración compuesta por los mejores pilotos
astronautas del mundo, especialistas en reconocimiento y pensadores creativos
que podamos ofrecer. Preferiblemente, hombres y mujeres soldados de todas las
naciones, con un propósito: encontrar una localización adecuada para el
establecimiento de los colonos.
Soy consciente de que, para algunos, enviar soldados al espacio parecería más
una invasión o una ocupación que una exploración. Los que compartáis esta
preocupación, considerad esto por un momento y preguntaos, ¿quién si no? ¿Quién
más tiene la mentalidad de ofrecerse voluntario para enfrentarse a un peligro
cierto y posiblemente a la muerte, a miles de millas de su hogar? Implicar a los
ejércitos del mundo en algo diferente de hacer la guerra unos contra otros me
parece algo que muchos querrían.
¿Habría un lugar para las compañías privadas? ¡Desde luego! Una vez que
hubiese puestos de avanzada con informes fiables de condiciones de vida y
recursos disponibles, las compañías y las organizaciones científicas se
encargarían de asumir el siguiente paso de colonización.
Se mencionaban las parejas en estas misiones. No puedo expresar la
importancia de tener el fuerte apoyo de esa pareja al enfrentarte a los desafíos
del vuelo y del nuevo mundo. En mi caso, mi mujer ha servido más de 16 años en
el ejército y más de 10 en el campo médico.
Me pregunto quién será el primero en extender la mano para una alianza que
represente a toda la especie humana. ¿Podría ser ésta la respuesta que tantos
han buscado? ¿Podría este único factor unir a la humanidad en una nueva era de
cooperación global y un nuevo respeto planetario por la vida humana, a
diferencia de lo que conocemos hoy? Mis respuestas… ¡Preguntadme de nuevo cuando
haya llegado al nuevo mundo!
Fuente: publico.es, 23 de Mayo de 2008
-A Júpiter le sale una nueva "peca"
Tras
décadas de búsqueda, con la ayuda de los mejores telescopios del mundo, los
investigadores observaron el extraordinario evento. Júpiter
tiene una nueva 'peca'. El telescopio espacial 'Hubble' ha descubierto la
formación de una tercera mancha roja en el planeta, mucho más pequeña que el
conocido 'Gran Punto Rojo'.
La nueva mancha, una tormenta en la atmósfera del planeta gaseoso,
fue dada a conocer en el Instituto de Ciencia del Telescopio Espacial en
Baltimore, en el estado de Maryland, Estados Unidos.
El equipo internacional de científicos planetarios ha explicado que el
punto surgió de una tormenta blanca de forma oval, y que su cambio a
una tormenta color rojo indica que el fenómeno está ascendiendo en
la atmósfera joviana. El cambio de color señala que esta tormenta es muy
intensa y que lanza material desde debajo de la capa de nubes de Júpiter
hacia arriba, donde la radiación ultravioleta, a través de una reacción
química aún desconocida, hace que se vea el característico color rojo.
Las imágenes, conseguidas el pasado 9 y 10 de mayo por el telescopio,
respaldan la hipótesis de que el planeta más grande del Sistema Solar al que
pertenece la Tierra está atravesando un proceso de cambio climático.
Las temperaturas en Júpiter podrían modificarse en hasta 10 grados Celsius,
lo que produciría tormentas mucho más violentas. Esta nueva mancha se suma a
la conocida 'Gran Mancha Roja', que tiene entre 200 y 350 años, y a la 'Gran
Mancha Roja Junior', que se formó en 2006. "Comienza a parecer un
caso de sarampión planetario", afirmaron los astrónomos que operan
el 'Hubble'.
Fuente: elmundo.es, 23 de Mayo de 2008
Las tres manchas rojas fotografiadas por el Hubble
-Captan muerte de una estrella
Tras décadas de búsqueda, con
la ayuda de los mejores telescopios del mundo, los investigadores observaron el
extraordinario evento. Previamente, los científicos no habían podido más que
estudiar a estas supernovas varios días después de que estallaran. Los
resultados, publicados en la revista Nature, muestran que durante las dos
primeras horas después de la explosión una bola de fuego gigante lanzó desechos
radiactivos al espacio. Las estrellas que explotan, o supernovas, son uno
de los eventos más espectaculares del universo y producen una cantidad de
energía comparable a la detonación de billones de bombas nucleares
simultáneamente. Normalmente, el fenómeno ocurre cuando una enorme estrella -más
de ocho veces mayor que el Sol- se queda sin "combustible" y colapsa para formar
un vestigio ardiente llamado estrella de neutrones. Su brillo extremo
permite que se vean desde galaxias lejanas. Pero los observadores sólo
pueden ver esta emisión óptica varias horas o días después de la explosión, por
lo que los primeros momentos de una supernova son todo un misterio.
Muerte y nacimiento
Esta vez, lo que ocurrió en la constelación de Lynx fue
capturado por pura casualidad. Alicia Soderberg, de la Universidad de
Princeton en Nueva Jersey, Estados Unidos, y sus colegas estaban utilizando el
telescopio espacial Swift para observar la galaxia espiral NGC2770. Ellos
vieron una explosión de Rayos X extremadamente luminosa en un área del cielo que
no había mostrado señales de ningún tipo dos días atrás.
"Estuvimos en el momento preciso, en el lugar preciso,
utilizando el telescopio preciso", manifestó Soderberg.
Muere una estrella
Las observaciones iniciales fueron ampliadas por algunos de
los mayores telescopios del mundo, que estudiaron el fenómeno por más de 30 días
para asegurar que se trataba en efecto de una supernova.
"Pudimos observar cómo evolucionaba la explosión desde el
mismo comienzo", aseveró Edo Berger, de los Observatorios Carnegie, de
California.
Entretanto, Kim Page, de la Universidad de Leicester, quien
dirigió el análisis de los Rayos X, declaró: "Esta observación es el mejor
ejemplo logrado hasta ahora de la muerte de una estrella y el nacimiento de una
estrella de neutrones".
Los astrónomos dicen que las supernovas son parte de la
historia de la formación del universo debido a que sus grandes explosiones
crearon muchos de los elementos que componen los planetas. La captura de
la muerte de la estrella ayudará, según los expertos, a resolver algunos
misterios del nacimiento de las estrellas de neutrones y los agujeros negros.
Fuente: BBC Mundo, 22 de Mayo de 2008
-La NASA afina el tiro para posar la sonda Phoenix en Marte
El aplazamiento de la misión,
que debía haberse completado en 2001 y que finalmente no despegó hasta el pasado
año, ha dado mucho tiempo a ingenieros y científicos para probar los sistemas
Los ingenieros de la NASA han tomado todas las precauciones posibles para que
la sonda Phoenix descienda sin problemas sobre la superficie de Marte el
domingo próximo, pero admiten que la operación está llena de incertidumbre
La nave descenderá sobre una región del polo norte, donde la Phoenix tiene
como misión extraer con su brazo robótico agua congelada, observar la
meteorología e investigar si el ambiente bajo la superficie fue favorable al
desarrollo de vida microbiana.
La misión debió realizarse en 2001 pero fue cancelada tras la pérdida de la
Mars Polar Lander al llegar a Marte en 1999. Desde entonces, los ingenieros de
JPL han dedicado sus esfuerzos a anticipar y corregir los problemas que
pudieran presentarse, así como a adaptar sistemas en vez de crear nuevos, pues
han mejorado algunos y han agregado otros.
"Una consecuencia de tener tanto material instalado fue que pudimos dirigir
nuestros recursos a las pruebas y el análisis. Evaluamos la capacidad del
vehículo para realizar la misión, especialmente la entrada, el descenso y el
aterrizaje", señaló Barry Goldstein, jefe del proyecto "Phoenix".
Según el científico, se hizo todo lo posible por reducir los riesgos a
niveles aceptables, "pero no los hemos eliminado todos. La exploración
planetaria es peligrosa por naturaleza y quedan muchos desafíos por delante,
el primero es el ingreso, el descenso y el aterrizaje" para el que la sonda
utilizará un paracaídas.
Descenso autónomo
Antes del contacto con la superficie, y una vez que haya extendido su
escudo térmico, la sonda aplicará el radar para contar con información sobre
la altura y calcular la velocidad de descenso vertical y horizontal, lo que le
servirá para ajustar el encendido de sus 12 cohetes de descenso.
La sonda se separará del paracaídas unos 40 segundos antes del contacto con
la superficie y "lo peor que nos podría ocurrir es que el paracaídas caiga
justo encima de la nave e impida el despliegue de los paneles solares", añadió
Rob Grover, jefe del equipo encargado del descenso en JPL.
Si se supera la peligrosa prueba, "Phoenix" utilizará cuatro motores
eléctricos que aún mantienen activos a los vehículos "Spirit" y "Opportunity"
desde hace más de cuatro años en Marte. Una de sus labores es recoger hielo
bajo la superficie marciana y ponerlo en un laboratorio en la cubierta de la
sonda, para lo cual cuenta con una especie de cuchara con tres láminas de
metal que recogerá hielo tan duro como el cemento.
Experimento contrarreloj
Según Lori Shiraishi, ingeniero de JPL, se necesitarán de cuatro a seis
horas para recoger material suficiente, y el mayor problema es la sublimación
del hielo, su conversión en gas sin pasar por el estado líquido. "El hielo
estará desapareciendo en el mismo momento en que lo estemos recogiendo",
manifestó.
Para determinar si existe carbono orgánico, "Phoenix" tiene un analizador
termal tan sensible como para detectar que no lo haya traído desde la Tierra
la nave, dijo William Boynton, científico encargado de ese instrumento en la
Universidad de Arizona.
Fuente: adn.es, 22 de Mayo de 2008
-Tecnología del futuro para visitar una
ciudad en el pasado
Tres ciudades europeas están experimentando con un nuevo
aparato difícil de clasificar. Es, al mismo tiempo, ordenador de bolsillo (PDA),
navegador GPS, cámara y prismáticos. Además, gracias a su conexión inalámbrica (WiFi)
puede acceder a un servidor informático que almacena una base de datos
audiovisuales. Detrás de este cúmulo de tecnología está el objetivo de crear un
sistema para que turistas y vecinos puedan ver imágenes del pasado de su ciudad
o escenas de películas rodadas en ella.
El proyecto, que se llama
CINeSPACE , está
impulsado por la Unión Europea y hoy puede ser galardonado en Estocolmo (Suecia)
con uno de los premios Stockholm Challenge 2008, que se otorgan a los usos más
innovadores de las nuevas tecnologías en el ámbito de lo social y lo cultural.
Liderado por
San Sebastián
, participan también la ciudad escocesa de Glasgow, Venecia (Italia), empresas
tecnológicas de los tres países y el Instituto Fraunhofer de Alemania.
A primera vista, el aparato, que aún es algo tosco como todo
prototipo, tiene la apariencia de unos binoculares. De hecho, se puede mirar a
través de ellos con esa función. Pero también es una PDA. En su pantalla táctil
se pueden ver mapas y rutas de la ciudad. No en vano, el sistema es, además, un
navegador GPS. Esto hace que el portador pueda ser ubicado en todo momento. Por
otro lado, tiene una conexión inalámbrica WiFi.
Imágenes localizadas
El pasado mes de enero, una treintena de voluntarios probaron
el dispositivo en las tres ciudades europeas: vecinos de Glasgow lo llevaron
mientras paseaban por su ciudad. Al pasar por determinado punto, el aparato
disparaba un aviso. Al mirar por los binoculares, a la visión real se
superponía, otra pero del siglo pasado.
En el caso de Venecia, los elegidos para las pruebas fueron
una serie de turistas. Aquí, aunque el funcionamiento era el mismo, lo que
podían ver los visitantes de la ciudad de los canales eran fragmentos de escenas
de famosas películas como Muerte en Venecia.
Por último, en San Sebastián, miembros de la industria del
cine usaron el CINEsPACE para ver fotos antiguas en busca de localizaciones. La
ciudad, vinculada tradicionalmente al cine, quiere aprovecharlo para que
técnicos y directores rueden sus anuncioso elijan localizaciones.
El usuario también crea
Cada una de las ciudades eligió un público objetivo -vecinos,
turistas e industria audiovisual- para probar el aparato con distintos
escenarios y públicos. Además, cada zona tiene contenidos diferenciados. En el
caso de San Sebastián, las pruebas se han realizado en la playa de La Concha y
Alderdi Eder, los jardines del Ayuntamiento.
Las fotos, a las que en fases posteriores se añadirán vídeos
y archivos sonoros, estaban alojadas en un ordenador que las mandaba al
dispositivo gracias a la red WiFi municipal que cubre buena parte de la ciudad.
El archivo, que cuenta con imágenes incluso de 1900, pertenece a los fondos de
las Fototecas Vasca y la Kutxa.
Pero, como dice el técnico del proyecto, Gorka Díez, "la idea
es que no sólo se vean imágenes del pasado, queremos que el usuario también
pueda grabar o tomar fotografías y compartirlas con otros cercanos que estén
usando CINEsPACE". También podrán guardarlas en el servidor para que futuros
usuarios puedan verlas. Para ello, el aparato incorpora una cámara. Díez y otros
responsables del proyecto se reunieron la semana pasada en Glasgow para
intercambiar datos y resultados de las pruebas de las tres ciudades. Con estos
datos, pretenden mejorar las posibilidades del dispositivo, además de reducir su
tamaño y mejorar su diseño. Según tienen previsto, en septiembre volverán a
revisar los resultados y, tras dos años de trabajo, el prototipo definitivo
podría estar listo en diciembre. Su comercialización, para las misiones
inicialmente previstas (acceso a localizaciones para el sector audiovisual,
recorridos turísticos por las ciudades y disponibilidad del patrimonio histórico
y cultural y de la memoria colectiva) podría comenzar en julio de 2009.
Fuente: publico.es, 21 de Mayo de 2008
-Google anuncia la salida de un servicio de salud
El objetivo del producto de la
empresa californiana es otorgar a los pacientes el control sobre su historial
médico | La iniciativa llega con reticencias por los riesgos para la privacidad
de los pacientes
El gigante de Internet Google ha anunciado el lanzamiento de su nuevo y
controvertido servicio, Google Health, que permite a los usuarios archivar y
acceder a sus historiales médicos a través de la red, informó la compañía. El
objetivo de este producto de la empresa californiana es otorgar a los
pacientes el control sobre su historial médico, como por ejemplo las
radiografías tomadas en diferentes hospitales, y poder consultarlo desde
cualquier ordenador del mundo, lo que podría acelerar diagnósticos y
tratamientos.
"Ofrece a los usuarios una vía segura de recoger, guardar y utilizar su
información médica. ¿Cuántos de nosotros hemos visto o tocado nuestro
historial médico?, ¿no es una locura que no tengamos una copia de nuestro
historial médico bajo nuestro control?", se preguntó Marissa Mayer,
vicepresidenta de Search Products de Google.
Sistema abierto
El paso dado por la empresa, que aseguró que su servicio de salud no estará
patrocinado al igual que sucede con su servicio de noticias Google News,
originó sin embargo muchas reticencias por los posibles riesgos para la
privacidad de los pacientes. Según la compañía, la rentabilidad del producto
llegará gracias a que incrementará el flujo de usuarios hacia otras páginas de
Google. Google Health será un sistema abierto a otras empresas o instituciones
que quieran ofrecer servicios directos para el consumidor, como tablas de
medicación o recordatorios para vacunas, pero el acceso a los datos personales
requerirá el expreso consentimiento del paciente.
El sistema fue testado en más de 1.300 voluntarios del
hospital clínico estadounidense Cleveland Clinic, con total satisfacción por
parte de Google.
Fuente: adn.es, 20 de Mayo de 2008
-La ciudad de A Coruña fue dos islas y
después una estepa antes de ser península
Caminando desde el ascensor de San Pedro hacia
O Portiño por el paseo marítimo nos topamos con dos joyas geológicas. «Desde
hace dos millones y medio de años, que es cuando aparece el primer Homo sobre la
Tierra, el mar ha subido y bajado unas 30 veces. Por tanto, A Coruña ha estado
inundada quince. En geología, cuando queremos saber lo que ocurrió en el pasado,
tenemos que estudiar los sedimentos», detalla Juan Ramón Vidal Romaní, director
del Instituto Universitario de Xeoloxía. Hay sedimentos en esta zona: una duna y
una playa. Las encontró él en 1973.
Hace 400.000 años
Debajo del paseo marítimo en sentido O Portiño
hay una playa de cantos rodados con muchísima solera. Donde el profano no
distingue más que unos pedruscos incrustados en el suelo y que destacan por su
color más claro, el ojo experto ve mucho más allá en el espacio y en el tiempo.
Esta playa tiene 400.000 años de antigüedad. Cuando se formó, el nivel del mar
estaba 15 metros más alto que en la actualidad y cubría gran parte del lugar en
donde ahora está A Coruña, que estaba dividida en dos islas separadas por las
aguas: una en Monte Alto; la otra, en Santa Margarita.
Hace 300.000 años
Unos metros más arriba de la playa se exhiben
por dos ventanas de cristal sendos tramos de una duna. Después de la formación
de la citada playa, el nivel del mar descendió. De hace 300.000 años data el más
bajo que se conoce, «unos 20 metros por debajo del nivel actual». Entonces, lo
que hoy son las playas de Riazor y Orzán o la ría de A Coruña estaban muy
alejadas de la línea de costa. La ensenada de Riazor sería un inmenso arenal que
se prolongaría hasta un poco por delante de donde se alza hoy la torre de
Hércules. «Suponemos que lo que existía entonces era una playa y detrás de ella
una estepa recorrida por los ríos que ahora desembocan en el fondo de las rías
de A Coruña, Betanzos, Ares y Ferrol», resume Vidal Romaní. El Mero, que ahora
desemboca en O Burgo, llegaría hasta enfrente de cabo Prior, en la entrada de la
ría de Ferrol, que también estaría en seco y recorrida por un río.
Entonces, hace 300.000 años, se formaron unas
dunas coruñesas que aún se conservan: «Son las más antiguas encontradas hasta
ahora en toda la Península Ibérica», apunta Vidal Romaní. «Ahora esto es un
acantilado, y así una duna no se puede formar. Pero con un nivel más bajo, como
el que había entonces, que era -20 metros, los vientos que soplaban desde el mar
fueron moviendo poco a poco las arenas tierra adentro, como ocurre en el monte
Blanco de Ponteceso o en la playa de Trece de Camelle. Allí puede verse ahora
como las dunas impulsadas por el viento durante los temporales de inviernos han
cubierto los montes adyacentes a la costa, subiendo hasta alturas semejantes a
las del monte de San Pedro coruñés».
No hay rastro de seres vivos: «En esta zona de
rocas graníticas, los restos de este tipo desaparecen en 5.000 años debido al pH
de las aguas». Cuando en A Coruña se estaba formando la playa hace 400.000 años,
en Atapuerca ya vivía el Homo Heidelbergensis, y también que el Homo
Neanderthalensis estaba a punto de aparecer cuando se formó la duna. En la serra
do Courel se han encontrado algunas de las especies de animales que cazaban
neandertales y heidelbergienses, como mamut, ciervo de grandes cuernos y renos.
«Si las empresas pizarreras no destruyen los yacimientos, cualquier día
aparecerán restos de aquellos humanos ahora extinguidos, pues allí el pH de las
aguas es más favorable que en A Coruña para la conservación de restos fósiles».
Hace 200.000 años
La altura de los depósitos marinos que se
encuentran en la costa gallega no es proporcional a su edad. Por ejemplo, el
nivel del mar más alto detectado hasta ahora en esa costa y el norte de Portugal
es +60. Se estima que se dio hace unos 200.000 años. Entonces, el espacio ahora
ocupado por la ciudad estaba dividido en tres grandes islas rocosas. Lo único de
la urbe actual que emergería de las aguas serían la base de la torre de
Hércules, la parte más elevada de Monte Alto, los Rosales y los picos del monte
de San Pedro y del antiguo vertedero.
La mayor parte de los depósitos
correspondientes a este momento han desaparecido en el área coruñesa y solo en
zonas más alejadas, como punta Langosteira, se conservan restos.
Fuente: lavozdegalicia.com, 19 de Mayo
de 2008
-El cambio climático amenaza con una
nueva edad de hielo
Los estridentes y luminosos efectos
especiales de una producción de Hollywood pueden hacer parecer pura ficción la
teoría científica más rigurosa en la que se pueda pensar. Es el caso de la
gélida película 'El día de mañana' ('The day after tomorrow') dirigida por el
experto en superproducciones Roland Emmerich.
Sin embargo, los decorados y la nieve sintética no
desacreditan la teoría sobre la posiblidad de que el actual cambio
climático pueda desencadenar una nueva pequeña edad de hielo popularizada por el
prestigioso científico Wallace Broecker, descubridor de la circulación oceánica
global y de su influencia sobre el clima.
La idea se publicó hace tiempo en la revista 'Science' y,
aunque sigue habiendo debate en torno a ella, muchos investigadores consideran
que se puede dar la paradoja de que el calentamiento global detone una pequeña
edad de hielo. Uno de ellos es Godfrey M. Hewitt, un "genetista
que ha tenido que aprender paleoclimatología para desarrollar su trabajo", según
explicó a EL MUNDO.
En su reciente visita a España para ser investido como doctor
Honoris Causa por la Universidad Autónoma de Madrid, Hewitt también recordó que
el cambio climático puede ser el gatillo que dispare una pequeña edad de
hielo como la que ocurrió hace 11.000 años en la época que se conoce
como 'Dryas' reciente.
"Actualmente, nadie sabe qué ocurrirá con las corrientes
oceánicas y con su efecto sobre las oscilaciones de las glaciaciones a
consecuencia del cambio climático, hay demasiados factores implicados", aseguró
Hewitt, "pero yo no creo que el ciclo de las edades de hielo haya terminado, el
cambio climático puede ser el gatillo que dispare el comienzo de una época
fría".
Los ciclos de glaciaciones y periodos interglaciares que se
han producido durante el Cuaternario, el último millón y medio de años, han
estado controlados por tres factores que tienen que ver con la órbita terrestre
y que están incluidos en un ciclo llamado de Croll-Milankovic. Dos de ellos
tienen que ver con la inclinación del eje terrestre, pero el que quizá haya
tenido mayor importancia es el que se conoce como excentricidad de la
órbita.
La Tierra no gira alrededor del Sol describiendo siempre la
misma órbita. Tiene una oscilación que acerca y aleja nuestro planeta de la
radiación solar en ciclos de 100.000 años, los mismos que han pasado entre cada
uno de los máximos glaciares a lo largo de la Historia reciente de la Tierra.
La configuración orbital controla las grandes oscilaciones,
pero existen otros factores que generan los cambios intermedios. Una
investigación del propio Wallace Broecker publicada en 2006 en la revista 'Science'
señalaba a un cambio en la corriente oceánica del Atlántico
como principal causante del Dryas reciente.
Un lago sobre el hielo
El trabajo aclaró que esta época fría comenzó debido al
aporte masivo de agua dulce proveniente de un lago formado por el deshielo en el
casquete que en aquella época había sobre norteamérica. Esto frenó la corriente
termohalina que lleva aguas cálidas a la costa oeste europea y que regresa hacia
Canadá después de enfriarse en el Ártico y desencadenó una mini edad de
hielo.
Aunque no se tratase de un máximo glacial, sino de una época
fría en un periodo de transición hacia uno cálido, durante el Dryas reciente el
panorama biológico europeo cambió radicalmente. De hecho, esta pequeña edad de
hielo debe su nombre a una flor propia de la tundra llamada 'Dryas octopelata'
que ocupó durante este periodo las tierras meridionales de Europa.
La comunidad científica no pone en duda ni el origen de esta
época ni el importante papel de la corriente termohalina en los cambios abruptos
que ocurrieron después del último máximo glacial ocurrido hace 18.000 años. Sin
embargo, los investigadores consideran imposible que las consecuencias del
cambio climático puedan desencadenar una glaciación severa.
"Las causas del comienzo de una edad de hielo son muy
diferentes a las de los pequeños cambios y tienen que ver con cambios en
la configuración orbital de la Tierra", asegura Thomas Stocker, del
Instituto de Clima y Física Ambiental de la Universidad de Bern, en Suiza.
Francisco Javier Sierro, director del grupo de Geociencias
Oceánicas de la Universidad de Salamanca, matiza que las glaciaciones "están
controladas por el ciclo de Croll-Milankovic, pero lo que dispara el cambio
puede ser una alteración de la corriente termohalina".
Fuente: elmundo.es, 18 de Mayo de 2008
-Los cometas, mensajeros de la muerte
En su periplo por la Vía Láctea, el Sol rebota a través del
plano de la galaxia y puede meter en líos a los planetas que giran a su
alrededor. Cuando cruza las partes más densas del vecindario, la fuerza
gravitatoria de la estrella –según indican investigadores de la Universidad de
Cardiff (Reino Unido)– puede iniciar una marea galáctica, que desplace a los
cometas que abundan en la nube de Oort, un auténtico semillero de este tipo de
objetos. Atraídos por el Sol, los cometas se lanzan hacia el interior del
Sistema Solar y pueden impactar contra la Tierra. Uno de esos cometas habría
provocado el fin de los dinosaurios, hace 65 millones de años.
Los autores del estudio, que se publica en
Monthly Notices of the Royal Astronomical
Society, explican que el Sol atraviesa esta zona de la galaxia cada 35 o
40 millones de años, multiplicando por 10 las posibilidades de sufrir una
colisión. Ese ciclo coincide con los registros de cráteres de impacto sobre la
Tierra, que sugieren que cada 36 millones de años se entra en un periodo en el
que se incrementa el número de colisiones.
No obstante, de acuerdo al estudio realizado por William Napier y Janaki
Wickramasinghe, los cometas no sólo fueron mensajeros de la muerte; también lo
fueron de la vida. Los grandes impactos habrían lanzado al espacio trozos de la
corteza terrestre con microorganismos en su interior, que habrían viajado a
través del vacío cósmico, para acabar en las regiones de formación de estrellas
de la nube de Oort. Así, las nebulosas en las que se forman los sistemas
planetarios habrían quedado inseminadas con el germen de la vida terrestre.
Cometa Hyakutake
Microsupervivientes
Los autores son investigadores del Centro de Astrobiología de la Universidad de
Cardiff, dirigida por Chandra Wickramasinghe, uno de los principales impulsores
de la teoría de la panspermia. Esta hipótesis afirma que la vida no apareció en
la Tierra, sino que surgió en el medio interestelar y llegó a ella a bordo de
cometas o asteroides. Janaki (hija de Chandra) y Napier afirman en su estudio
que sus conclusiones son un apoyo para esta discutida teoría. Según ellos, sería
posible que los microorganismos expulsados de la Tierra por los cometas llegasen
hasta las nebulosas protoplanetarias sin que los rayos cósmicos los aniquilasen
antes.
“Se sabe que el tiempo de supervivencia varía mucho entre microorganismos y
no hay demasiada información disponible, pero podemos pensar en una semivida [el
tiempo en que habrían perecido la mitad de los organismos] de unos 75.000 años
para los microorganismos expuestos a los rayos cósmicos”, explica Napier. “El
tiempo para transferir microorganismos desde la Tierra hasta las regiones de
formación de estrellas dentro de la nube molecular cuando pasamos junto a ella
es cómodamente menor que esa cifra”, añade. En una inquietante afirmación, los
investigadores concluyen que la Tierra está a punto de llegar [puede llevar
millones de años] a la zona en que aumentan los impactos.
Fuente: publico.es, 16 de Mayo de 2008
-Asimo dirige la orquesta sinfónica de Detroit
Los avances tecnológicos han permitido que
ASIMO, el robot
humanoide desarrollado por
Honda, pueda ponerse
al frente de la Orquesta Sinfónica de Detroit para dirigir una pieza que hizo
las delicias de un público entregado, según ha informado los medios locales.
La actuación de ASIMO tuvo lugar la noche del martes y, según
el
Detroit News, el público estaba expectante ante la entrada en el
escenario de este robot de metro y medio que en el pasado ha sido capaz de
emular al ser humano en otras tareas, pero nunca al frente de una orquesta.
"Hola a todo el mundo", dijo ASIMO a la audiencia con una voz
aniñada, para luego saludar también a la orquesta.
Dirigir una obra en directo
Tal y como aseguró la portavoz de Honda, Alicia Jones, el
reto no sólo era dirigir una orquesta, sino una obra en directo, algo que nunca
antes había hecho un robot.
"Es emocionante trabajar con la Orquesta Sinfónica de Detroit
ante este magnífico auditorio", añadió ASIMO, que consiguió meterse al público
en el bolsillo.
El robot, perteneciente a la generación más avanzada de
humaoides, tiene una gran capacidad de movimiento, mayor que la de otros robots,
y además puede andar, correr, subir y bajar escaleras y mover sus articulaciones
como si fuera una persona.
Fuente: EFE, 16 de Mayo de 2008
-Los monstruos marinos del Cretácico llegan al Museo de
Historia Natural de New York
Unos monstruos marinos de la época de los dinosaurios
llegan a Nueva York, a su
Museo de Historia Natural, con el estreno del la película Monstruos
Marinos: Una aventura prehistórica, que permitirá a los visitantes
descubrir cómo eran los reptiles que vivían bajo el agua hace 80 millones
de años, durante el
período
Cretácico.
La cinta, de 40 minutos de duración está narrada por el
actor estadounidense Liev Schreiber y, a partir del próximo 24 de mayo,
mostrará el desconocido mundo de los otros dinosaurios que poblaron
el territorio que en la actualidad ocupa Estados Unidos.
El filme invita al espectador a acompañar en un viaje
por el fondo del mar a una familia de
Dolichorhynchops, llamados Dollies por los
paleontólogos, que son unas criaturas marinas prehistóricas del tamaño de
un delfín y con un morro largo, según comunicó ayer el museo neoyorkino.
Un viaje submarino
Durante este fascinante viaje, los Dollies se
encuentran con otros monstruos marinos como el
Platecarpus, otro reptil prehistórico con forma de lagartija que
es capaz de tragarse a su presa entera, o como el
Styxosaurus, con un cuello de más de seis metros de largo y
enormes aletas del tamaño de un humano adulto.
Los espectadores también podrán conocer más sobre la
vida del Tylosaurus, un depredador marino que llegaba a medir hasta
quince metros de largo.
La película muestra así mismo excavaciones
paleontológicas en todo el mundo que sirven para explicar cómo los
científicos han ido descubriendo por a poco cada vez más datos sobre estos
dinosaurios prehistóricos.
Así, por ejemplo, el descubrimiento de un fósil del pez
depredador
Xiphactinus con un pez que se había tragado entero, permitió tener
más detalles sobre su dieta.
La película Monstruos Marinos, producida por
National
Geographic Cinema Ventures, ha sido financiada en parte por la
Fundación Nacional de las Ciencias (NSF), una agencia independiente del
Gobierno de Estados Unidos responsable de promover la ciencia y la
ingeniería a través de programas de investigación y proyectos educativos.
Monstruos marinos del Cretácico
Fuente: adn.es, 16 de Mayo de 2008
-La NASA y el pasado mexicano
La tecnología de la agencia espacial estadounidense ayudará a desarrollar una
nueva aplicación arqueológica para estudiar a la antigua cultura que habitó en
el sur del país. Los arqueólogos del Instituto de Tecnología de Rochester,
en Nueva York, están trazando "el mapa más detallado y preciso" de Oaxaca, donde
los zapotecas formaron el primer "estado" y la primera sociedad urbana de
México.
"He trabajado en Oaxaca durante 18 años porque siempre me
ha interesado la civilización zapoteca", dijo a BBC Ciencia el profesor
Bill Middleton, del Departamento de Antropología y Sociología del
Instituto de Tecnología de Rochester, quien dirige el estudio.
"Por lo general, cuando se habla de arqueología mexicana la gente
menciona a los aztecas, los mayas y los toltecas".
"Pero muy poca gente conoce la importancia de los zapotecas -agrega-
que crearon el primer sistema de escritura, la primera sociedad estatal,
las primeras ciudades y controlaron un vasto territorio del país", señala
el científico.
área de estudio
Proyecto dirigido por Bill Middleton dirige el proyecto
financiado por la NASA y National Geographic
Paisaje arqueológico
La técnica satelital ha sido ya usada en estudios de paisajes urbanos, pero
es la primera vez que se utilizará en una investigación arqueológica.
"Creemos que es una herramienta muy útil en arqueología, porque nos ayuda a
conocer la forma como las distintas sociedades han utilizado la tierra", señala
el investigador.
Las imágenes de satélite que serán utilizadas cubren más de 30.000 kilómetros
cuadrados. Con éstas, los científicos esperan identificar y datar los más de
3.000 sitios arqueológicos de los valles centrales de Oaxaca. Asimismo
identificarán fósiles de plantas y otros indicios de vegetaciones y climas que
existieron en el pasado.
"Con esto queremos conocer como han cambiado con el tiempo los ecosistemas
de la región y podremos obtener un mapa extremadamente detallado del uso
moderno de la tierra", explica el científico.
"Es una enorme tarea -afirma Bill Middleton- pero nos permitirá analizar la
relación entre las antiguas ciudades y los antiguos asentamientos humanos de
forma como no se ha hecho antes".
"Y analizar el papel del ser humano en el cambio del paisaje y el papel del
paisaje para determinar cómo se desarrollaron los sitios arqueológicos".
Se trata, dice el experto, de responder -por ejemplo- si el éxito de una
sociedad depende del tipo de asentamiento ecológico, o si hubo preferencias en
la ubicación ecológica y ambiental de estos sitios arqueológicos. En el
proyecto, financiado por la NASA y National Geographic, participan también las
universidades de Colorado-Boulder, de Cornell, y el Instituto de Estudios
Antropológicos de la Universidad Nacional Autónoma de México.
-Astrónomos de Estados Unidos descubren
una supernova en la Vía Láctea
Un equipo de astrónomos ha descubierto la supernova más
joven de la Vía Láctea, de sólo 140 años y a la que se estaba siguiendo
la pista desde hacía más de dos décadas.
Hasta ahora, la supernova más reciente que tenían identificada databa de
1680, según los estudios sobre la expansión de los restos de Casiopea A. El
nuevo descubrimiento, y que se ha estado investigando desde 1985, ayudará a
determinar con mayor exactitud la frecuencia con la que las supernovas
explotan en la Galaxia.
La supernova descubierta, indicaron los científicos, no
había sido vista en estos 140 años porque explotó cerca del centro de la
Galaxia y quedó incrustada en un denso campo de gas y polvo. Esto la hacía
tres millones de veces más imperceptible que si hubiera estado en la
oscuridad, pero gracias a los nuevos sistemas de rayos X y a las
ondas de radio que se utilizan consiguieron penetrar en ella fácilmente.
"Podemos ver algunas explosiones de supernovas con telescopios ópticos en la
mitad del Universo, pero cuando están envueltas en esa densidad
podemos perderlas de nuestro campo visual", dijo el director de la
investigación Chandra, Stephen Reynolds, de la Universidad de Carolina del
Norte.
Este descubrimiento ha sido posible gracias al Telescopio Chandra de la
NASA y el Observatorio Nacional de Radio Astronomía (NRAO, por sus siglas en
inglés). "Afortunadamente, la expansión de la nube de gas tras la explosión
brilla en las radio ondas y en los rayos X durante miles de años.
Los rayos X y los radio telescopios pueden ver a través de la oscuridad y
nos han mostrado ahora aquello que nos habíamos estado perdiendo", agregó
Reynolds.
Los astrónomos, explicaron, observan el comportamiento de las supernovas
en otras galaxias como la Vía Láctea, y basándose en esas investigaciones,
calculan que cada siglo unas tres supernovas pueden explotar en la
Vía Láctea, aunque esas previsiones tienen un amplio margen de
error.
Más de dos décadas de trabajo
"Si estos cálculos fueran correctos, tendría que haber restos de unas diez
explosiones supernovas más recientes que la de Casiopea A", dijo David Green
otro de los investigadores perteneciente a la Universidad de Cambridge
(Inglaterra), quien aseguró que es "un gran descubrimiento el haber
conseguido seguir la estela de una de ellas".
Esta investigación comenzó en 1985 cuando un grupo de astrónomos dirigido por
Green identificaron el cuerpo celeste G1.9+0.3 como los restos de una supernova,
que pensaron que podría ser parte de otra supernova mayor que
habría explotado entre 400 y 1000 años antes.
Sin embargo, veinte años después, el seguimiento de este elemento desde el
observatorio Chandra reveló que desde 1985 había crecido un 16 por ciento, lo
que indicó que los restos de la supernova eran mucho más recientes de lo
que habían pensado. La nueva data de la supernova fue confirmada en las
pasadas semanas gracias a la nueva tecnología de la observación por radio.
La supernova es una explosión estelar que produce objetos muy
brillantes en la esfera celeste y suelen aparecen donde antes no se
observaba nada. En ocasiones son difíciles de distinguir si el polvo que
desprenden no deja ver su brillo. Los científicos subrayaron que este
descubrimiento es fundamental para calcular con mayor precisión la edad de las
supernovas de nuestra galaxia.
Añadieron que, además de tener el récord de ser la supernova más joven, la
G1.9+0.3 es importante porque nunca se había visto una expansión de
partículas tan rápida, lo cual estimulará más estudios desde el
observatorio Chandra.
Fuente: EFE, 15 de Mayo de 2008
-La sonda "Phoenix" está a punto de llegar
al polo Norte marciano
Serán menos de diez minutos, pero bastarán para que Marte
vuelva a tener en suspense a medio mundo en la Tierra. Ese tiempo durará el
descenso a través de la atmósfera marciana de la nave Phoenix Mars Lander,
de la NASA, el próximo 25 de mayo. La señal de que el aterrizaje ha sido
correcto se espera a las 1.53 del 26 de mayo (hora peninsular), aunque para
entonces Phoenix llevará un cuarto de hora posada en Marte -la señal
tardará todo ese tiempo en llegar a la Tierra-.
Dentro de su estrategia de mandar naves a explorar el planeta
rojo cada 26 meses, la NASA envía esta vez no a un vehículo todoterreno, sino a
una sonda de superficie fija. La misión tiene sobre todo dos objetivos:
averiguar cuánta agua ha tenido Marte a lo largo de su historia -y dónde- y
determinar si el planeta aún podría albergar vida. "No es una misión para
detectar vida pasada o presente", aclara la NASA, sino que "Phoenix
buscará, además del agua, otras condiciones favorables para la vida".
La nueva nave se encontrará a su llegada con tres sondas
orbitales operando en el planeta, más los dos todoterrenos Spirit y
Opportunity. Todas estas misiones están participando estas semanas en la
preparación del aterrizaje. Mars Odyssey (NASA) ha hecho ajustes en su
órbita de forma que le toque sobrevolar la región del aterrizaje de Phoenix
cuando éste se produzca; Mars Reconnaissance Orbiter (NASA) y Mars
Express, de la Agencia Europea del Espacio (ESA), también han hecho cambios.
Las tres naves recibirán y reenviarán a Tierra información de Phoenix
durante la delicada maniobra de entrada.
Spirit y Opportunity, por su parte, han enviado
señales a las naves orbitales como si ellos mismos fueran la nueva nave, para
demostrar que el sistema de comunicaciones funciona.
"Tendremos información de diagnóstico sobre la secuencia de
aterrizaje desde lo alto de la atmósfera hasta el suelo", ha declarado David
Spencer, uno de los jefes de proyecto de Phoenix Mars Lander. En caso de
fallo, esos datos contribuirán a evitar lo ocurrido con una antecesora de de
esta misión, la Mars Polar Lander: nunca llegó a saberse por qué falló su
aterrizaje, cerca del Polo Norte marciano, en 1999. Fue uno de los ocho intentos
fallidos de aterrizaje en la historia de la exploración marciana, que se
contraponen a los sólo cinco éxitos.
Es una estadística que remite a la cuestión del suspense, más
aún si se tiene en cuenta que Phoenix aterrizará con la misma técnica
usada por la Polar Lander: con retrocohetes y paracaídas, y posándose
sobre tres patas en lugar de con airbags, como lo han hecho las últimas
tres naves que han operado con éxito en la superficie marciana. La razón es que
el airbag que necesitaría Phoenix, más grande y con más
equipamiento científico que sus predecesoras, sería demasiado pesado. En
cualquier caso, la NASA asegura haber corregido los puntos débiles del sistema
de descenso y aterrizaje de la Polar Lander.
Hay otras similitudes con esa nave perdida. Phoenix es
también una misión para explorar una región polar, hasta ahora sólo observada
por naves orbitales. Phoenix aterrizará en la llanura Vastitas Borealis,
en un valle amplio y poco profundo que en invierno se cubre de hielo de dióxido
de carbono y se deshiela en primavera, la estación actual.
Pero lo que más interesa a los científicos es que los datos
de otras naves indican que ahí hay hielo de agua a menos de medio metro de
profundidad, y Phoenix es la primera misión capaz de tocar ese hielo.
Cuenta para ello con un brazo robótico que cavará una zanja y obtendrá muestras,
para después analizarlas in situ "calentándolas y 'olfateándolas",
explica la NASA. Y añade: como el brazo se introducirá en un entorno donde
podría haber microorganismos, irá envuelto en una "barrera biológica" que
evitará "la introducción de vida de la Tierra".
Fuente: elpais.com, 14 de Mayo de 2008
-Comer con miedo
Hidrocarburos en aceite de girasol ucraniano, dioxinas en mozzarella italiana,
productos alimenticios chinos con irregularidades en el etiquetado y en las
condiciones higiénico-sanitarias, aceite de oliva adulterado italiano o anisakis
en pescado son algunas de las últimas amenazas de la dieta de los europeos.
Si atendemos a las últimas noticias sobre seguridad de los alimentos, veremos
cómo se mantiene la línea anunciada por la Organización Mundial de la Salud
(OMS), cuando en el verano de 2007 advertía del alcance mundial de los problemas
de contaminación en alimentos. Entonces, la organización internacional sanitaria
confirmaba que cada mes puede llegar a recibir un total de 200 informes de
productos alimentarios en mal estado. En esta dirección parecen ir los últimos
incidentes confirmados en el ámbito comunitario, que vulneran la salud de los
consumidores si no se toman las medidas adecuadas.
Del aceite, al queso y demás
Los efectos del último de ellos todavía se dejan ver en las decisiones de
las autoridades sanitarias españolas. La detección de hidrocarburos, un grupo de
más de 100 sustancias de las cuales un pequeño grupo son cancerígenas, en aceite
de girasol procedente de Ucrania movilizaba hace tan sólo una semana los
responsables sanitarios europeos. No sólo se han retirado las partidas de aceite
de girasol procedente de este país, sino que la misma Agencia Europea de
Seguridad Alimentaria (EFSA,
en sus siglas inglesas) recomienda que los países afectados (España, Francia,
Italia, Reino Unido y Holanda) retiren también los productos que hayan sido
fabricados en más de un 10% con este aceite. La medida afectaría pues a
productos como la mayonesa, las conservas o la bollería industrial.
Si queremos comer queso, deberemos vigilar con la mozzarella procedente de
tierras italianas, concretamente de la zona de la Campania. La alerta llegaba el
pasado mes de marzo, cuando se confirmaba la presencia de dioxinas, sustancias
potencialmente cancerígenas producto de la combustión de algunos materiales, en
queso mozzarella fabricado con leche de búfala. Según los resultados de las
investigaciones, estas sustancias habrían llegado al alimento a través del
forraje o de la basura acumulada en la región de Nápoles tras ser quemada.
Lejos de las fronteras europeas, pero no por ello con menos repercusión en el
campo de la seguridad alimentario fue la detección, a principios de 2008, de
mercurio en sushi (pescado crudo) comercializado en locales de Nueva York.
Entonces, el riesgo se centró en locales de la ciudad, donde el sushi que
servían excedía los límites máximos exigidos por ley. Más amenazas: acrilamida
en alimentos ricos en carbohidratos sometidos a altas temperaturas; micotoxinas
en cereales que pueden tener riesgos en la salud humana; anisakis en pescado, un
parásito habitual en este alimento; virus entéricos en moluscos bivalvos o
formación de aminas biogénicas.
Muchas de estas amenazas han puesto en tela de juicio algunas de las actuaciones
en materia de producción alimentaria, y han obligado a que las autoridades
sanitarias tomaran cartas en el asunto, no sólo para reducir el riesgo real,
sino también para ganar la cada vez más comprometida confianza del consumidor.
Una labor que lleva implícito un gran esfuerzo de todos los implicados, desde
autoridades internacionales y nacionales hasta productores.
Amenazas latentes
En ello aún se trabaja en el sector cárnico, concretamente para
restablecer lo perdido en la crisis de las vacas locas, que se traducía en sus
inicios (por el año 2001) en un brusco descenso del consumo. Recuperada la
confianza, la crisis vuelve a tambalearse con el anuncio, en España, de dos
casos de la enfermedad de Creutzfeldt-Jakob, la variante humana del mal de las
vacas locas, registrados en diciembre de 2007 y febrero de 2008 en Castilla y
León. No cabe duda de que se trata de dos muertes relacionadas con la crisis
iniciada hace más de ocho años.
Y si en el ámbito de la sanidad animal nos movemos, no debemos pasar por alto la
amenaza que de nuevo significa la lengua azul, cuyo vector transmisor acaba de
reaparecer en zonas consideradas ya como «estacionalmente libres» en el
territorio nacional. Desde el pasado mes de abril y hasta diciembre de 2008
están vigentes en la UE, a expensas del Comité Permanente de la Cadena
Alimentaria, condiciones que obligan a vacunar los animales que se trasladan de
zonas restringidas a otras áreas consideradas «libres de lengua azul». De no ser
así, deberá garantizarse de que están inmunizados naturalmente.
Sea de donde sea que procede el problema, lo que está claro es que el riesgo
cero en alimentación es casi una utopía, uno de los ideales para los
responsables de este sector y una garantía fuertemente perseguida por los
consumidores.
Fuente: Weblogs mi+d: Política científica, 15 de Mayo de 2008
-La sonda "Cassini" busca un
océano de agua en el polo sur de la luna Encedalo
Todos esperaban grandes sorpresas de la
misión 'Cassini-Huygens',
pero pocos apostaban por Encelado, una pequeña y hasta ahora discreta luna de
Saturno que se ha revelado como uno de los cuerpos planetarios más interesantes
del Sistema Solar.
Tras haberse mostrado como un mundo mucho más activo de lo que se creía,
sobre todo por la posibilidad de albergar agua líquida en su superficie, este
satélite de Saturno se ha convertido en uno de los objetos de estudio
más interesantes para la nave 'Cassini', que orbita alrededor del
planeta de los anillos desde el año 2004. La sospecha de que hay agua en
Encelado se debe a los enormes géiseres o surtidores de hielo que emanan de su
polo sur. La atmósfera del satélite es muy tenue, pero algo más intensa en esta
zona, lo que probablemente se debe a los gases que emanan de los propios
géiseres.
Los géiseres de hielo, además, escapan al espacio y forman uno de los anillos
de Saturno. Los científicos creen que el origen de esta actividad puede
hallarse en un lago o incluso un océano de agua, igual que en la Tierra
los surtidores provienen de aguas subterráneas. Durante su acercamiento a
Encelado, la sonda 'Cassini' tenía previsto rondar el satélite a unos 200
kilómetros de distancia, y situarse a sólo 50 kilómetros en el momento de máxima
proximidad.
Aunque la maniobra se llevó a cabo sin problemas, un error de programación
impidió que el Analizador de Polvo, uno de los instrumentos claves de la nave,
recogiera sus datos.La NASA describió el problema como "un contratiempo de
software inexplicable". "Al atravesar la columna, no estaba funcionando
apropiadamente", explicó Bob Mitchell, director del programa 'Cassini', según
informa Reuters.
"Probamos el software muy cuidadosamente. No sabemos por qué no funcionó",
agregó.
Fuente: elmundo.es, 14 de Mayo de 2008
-Siete plumas de hace 100 millones de
años avalan la evolución de los dinosaurios en aves
El hallazgo de siete pequeñas plumas de hace 100 millones
de años atrapadas en un trozo de ámbar ha abierto nuevamente la polémica
científica de si corresponden a un dinosaurio alado o pertenecieron a un ave. En
cualquier caso, el descubrimiento arrojará luz sobre la etapa crucial de
la evolución de las plumas entre las fauna que poblaba la Tierra.
Plumas de hace 100 millones de años fosilizadas en ámbar
Las siete plumas presentan un excelente estado de
conservación, y un fueron halladas en una mina de la región de
Poitou-Charentesm en el oeste de Francia, en el año 2000.
Todas se encuentran dentro del mismo trozo de ámbar, y el
cañón de las mismas (eje central) es de los más primitivos que se
conocen y que más parecidos son a los actuales, según ha señalado
el equipo investigador a National Geographic News.
Los filamentos o lengüetas tienen gran parecido a los de
las actuales plumas, con la tendencia de mantener siempre la misma
curvatura de los filamentos más finos hacia la punta final.
«Es muy probable que las plumas procedan de un
dinosaurio y no de un ave», ha señalado Vincent Perrichot, del
Instituto Paleontológico de la Universidad de Rennes, en Francia, autor del
hallazgo y que ha participado en su posterior estudio.
Las plumas de 100 millones de años de antigüedad son
similares a las fibras fosilizadas encontradas en los dinosaurios de
sólo dos patas, conocidos como terópodos, igualmente parecidas a
las de las aves actuales.
Esta circunstancia indica que el hallazgo en Francia
podría aportar nuevos datos a la teoría dominante de que los dinosaurios
dieron lugar a las aves una vez que desaparecieron, según ha explicado el
equipo de Perrichot.
El descubrimiento proporciona un ejemplo claro «de la
evolución entre los filamentos primitivos y una pluma moderna»
señala Didier Néraudeau del equipo investigador, perteneciente a la
Universidad de Rennes, en Francia.
Otros restos fosilizados de dientes de dinosaurio fueron hallados justo por
encima del sustrato que contenía los trozos de ámbar donde fueron
halladas las plumas, lo que todavía da más verosimilud a que
pertenecieran a una especie de dinosaurio.
Fuente: elmundo.es, 14 de Mayo de 2008
-"Moko", la delfín que salvó a dos ballenas
Una hembra de delfín ha salvado a dos cachalotes que quedaron encallados en una
playa de la Isla Norte de Nueva Zelanda, ante la mirada atónita de un miembro
del departamento de Conservación del Gobierno. El experto Malcolm Smith ha
explicado que los hechos ocurrieron el lunes, cuando se había pasado más de una
hora intentando animar a las ballenas, una madre y su cría, para que dieran
media vuelta y volvieran a mar abierto. Los cetáceos lo intentaron una y otra
vez pero quedaron atrapados en un banco de arena frente a la playa sin poder
salir al océano, por lo que Smith empezó a valorar la posibilidad de
sacrificarlos para ahorrarles el sufrimiento.
"Las ballenas estaban desorientadas y exhaustas, tenían la espalda arqueada y
se llamaban la una a la otra continuamente", relató Smith.
Entonces llegó una delfín que a menudo visita la playa y es conocido por los
locales como 'Moko', y en ese momento las dos ballenas se sumergieron en el
agua, giraron y siguieron al animal unos 200 metros mar adentro, logrando
superar la larga barrera de arena que las mantenía encalladas. La delfín, que ya
era popular entre bañistas de la zona y turistas por su carácter amigable,
regresó a la playa de Mahia, al este de la isla, para jugar con los locales,
dijo Smith, quien aseguró que nadie ha vuelto a ver a las ballenas.
Fuente: elmundo.es, 13 de Mayo de 2008
-Científicos españoles trabajan en un prototipo para llevar a
cabo la transportación cuántica
Un equipo de investigadores españoles trabajan en un proyecto de la
Agencia Espacial
Europea (ESA) sobre teletransportación cuántica que consiste en el envío
de un manual de instrucciones para reconstruir objetos idénticos en lugares
lejanos. El llamado "transceptor", que estará listo en junio de 2010, es el
prototipo de un sistema que se instalaría en el módulo Columbus de la
Estación Espacial
Internacional (EEI) y enviaría fotones entrelazados a dos estaciones
terrestres, ubicadas a 1.400 kilómetros de distancia, en Tenerife y en la
localidad de Calar Alto, en Almería.
José Capmany, miembro del Grupo de
Comunicaciones Ópticas y Cuánticas de la
Universidad de
Politécnica de Valencia (UPV), ha explicado a Efe que el proyecto,
conocido como Space-Quest: Quantum Entanglement in Space Experiments,
está formado por una serie de experimentos que pretenden investigar el
comportamiento de los fenómenos cuánticos en el espacio.
Según Capmany, "desplazar individuos de un planeta a otro en un instante
sigue siendo ciencia ficción, pero los científicos ven factible transmitir el
estado cuántico de partículas microscópicas de un punto del espacio a otro
alejado del primero", ha matizado.
El investigador de la UPV precisó que "no se trataría de transportar
materia, sino de enviar el manual de instrucciones que permita reproducir
fielmente el estado de una partícula en otra partícula alejada de la primera".
"De hecho, éste resultado ya se ha logrado en laboratorios terrestres. Sin
embargo, indicó Capmany, conseguir el mismo efecto en el espacio tendría unas
implicaciones cruciales para el desarrollo de aplicaciones tecnológicas".
El transceptor cuántico tendrá las características que impone una misión
espacial, como son las dimensiones pequeñas (una caja de no más de 20
centímetros de lado), peso limitado (menos de 3 kilogramos) y bajo consumo
(menos de 15 watios).
Fuente: EFE, 12 de Mayo de 2008
-Descubierto un planeta de volumen similar a
la Tierra
Un nuevo exoplaneta de un volumen similar al de la Tierra ha sido descubierto
en la constelación de Sagitario por un equipo internacional dirigido por el
astrónomo estadounidense David Benett, según el sitio internet Ciel & Espace.
Este exoplaneta, bautizado MOA-2007-BLG-192-Lb, gira en torno a una estrella que
y su masa es de sólo unas tres veces la de ésta, según la publicación
especializada.El descubrimiento se había hecho el pasado año, pero los
investigadores no habían querido darlo a conocer hasta tener la certidumbre de
que no se trataba de un simple artefacto.
Con él son ya 230 los planetas exteriores al sistema solar registrados desde
1995, y su localización viene a confortar la idea de que la Vía Láctea contiene
miles de millones de ellos similares al nuestro De acuerdo con las informaciones
disponibles, MOA-2007-BLG-192-Lb tiene temperaturas del orden de 250 grados bajo
cero, y eso pese a que la distancia con respecto a su estrella es similar a la
que hay entre el Sol y Venus, que es por su parte un horno. La razón es
que como la masa de dicha estrella es el 6% de la del Sol, la energía que emite
no es suficiente para que se puedan dar condiciones de vida en el planeta, a
menos de que esté dotado de una atmósfera muy densa "capaz por efecto
invernadero de retener su calor interno", según explicó a "Ciel & Espace" el
astrónomo francés del Observatorio de Midi Pyrénées Pascal Fouqué.
Fuente: EFE, 9 de Mayo de 2008
-Ciencia pasada por agua
Es la edición número trece, y cuesta recordar otra tan
pasada por agua. En la fiesta de la ciencia, los supersticiosos se llenaron
de razón. Pese a que la lluvia restó asistencia, el espectáculo continuó, y
los estudiantes, un millar, mantuvieron abiertos contra viento y marea sus
puestos en el parque de Santa Margarita, al igual que las entidades
colaboradoras.Pasadas las doce, cuando la lluvia solo es una amenaza, en la
carpa de la Facultade de Informática, un robot sigue, a duras penas, una
gruesa línea negra trazada sobre una mesa. «Le han puesto un circuito
difícil. Si va Fernando Alonso dentro, aún bueno, pero es que es un robot»,
reflexiona un señor que sigue la zigzagueante trayectoria del bólido. «El
circuito lo ha pintado un visitante, y sí, nos lo ha puesto complicado»,
admiten Manuel Eiroa y Javier Álvarez, del equipo de robótica, que es el que
ha programado este ingenio. «Tiene varios sensores. Uno de ellos distingue
los cambios de intensidad del color», explican el funcionamiento del robot.
Muy cerca, la Agrupación Astronómica Coruñesa Io invita a mirar por un
telescopio. Lo tiene enfocado a un punto concreto del cielo. «¿Pero cómo es
posible que se vea una galaxia, y además de día?», preguntan asombrados un
buen puñado de curiosos que echan un ojo. La explicación la encontramos en
la cúpula de la Casa de las Ciencias, de donde han colgado una fotografía de
una galaxia: «Es la M-31», explica Julio Casal, de Io.
Demostración en la que se usa un corazón
Caen del cielo las primeras gotas. Desde la megafonía, una voz
femenina anuncia: «Llueve, pero en el módulo siete demuestran que el agua no
moja». Allá se dirigen, a presenciar tal milagro, muchos sin paraguas .
Dos alumnas de las Franciscanas te sirven un chupito de agua, te piden que
pegues un papel al vasito y le des la vuelta. Claro, no se cae. «Es debido a la
presión atmosférica», precisa una estudiante que tiene muy bien aprendida la
lección. Carpa debutante es la del Museo Nacional de Ciencia y Tecnología, que
tendrá su sede principal en A Coruña. Para su estreno, apuesta por enseñar
«aparatos de precinema». Antes de que José Sellier rodase en A Coruña la primera
película española con una cámara Lumière, proliferaron aparatos de nombres tan
peculiares como taumátropo o fenaquistiscopio, que son los que aquí se muestran.
La lluvia va a más, así que quizá sea un buen momento para
dejar atrás las 35 carpas y subirse en el bus gratuito que te transporta hacia
cuatro recintos cerrados. A elegir: Domus, Casa de los Peces, Instituto Español
de Oceanografía o Agencia Estatal de Meteorología. Optamos por esta última, en
la que nos explican que en A Coruña llueve una media de 171 días al año. Al Día
de la Ciencia en la Calle del 2008 le ha tocado ser uno de ellos.
Fuente: La Voz de Galcia, 11 de Mayo de 2008
-La NASA contará con uno de los ordenadores más
potentes del mundo
Se trata de supercomputadoras capaces de hacer 1.000 trillones de cálculos
por segundo. La NASA espera tener la máquina en 2009 y estima que tres
años más tarde podría aumentarle la potencia a 10 petaflops.
Si logra concretar el proyecto, será una de las pocas organizaciones que
contará con una supercomputadora tan potente. La supercomputadora se
instalará en el Centro de Investigación Ames de Moffet Field, California.
Allí la NASA tiene su actual supercomputadora, llamada Columbia, que fue
encendida por primera vez en 2004 y que tiene una velocidad teórica de 88,88
teraflops.
Columbia ocupa el vigésimo lugar entre las más poderosas supercomputadoras
del planeta, según el Proyecto "Top 500", que elabora una lista del rendimiento
relativo de estas máquinas. Construir una computadora petaflop
catapultaría a la NASA hacia los cinco primeros lugares de la lista.
Actualmente, la más poderosa supercomputadora en la Tierra es la Blue Gene/L que
tiene una velocidad máxima de 478,2 teraflops.
Se espera que las computadoras petaflops hagan su debut en la nueva lista de
las "Top500" que saldrá en junio. El Proyecto Pléyades, como fue bautizado
por NASA, contará en la fabricación de la máquina con la ayuda de Intel y SGI.
En un comunicado el director de Ames, Pete Wordem dijo que la instalación de la
supercomputadora se necesita para permitir una "fidelidad más alta" en sus
futuras misiones de modelado y simulación. La actual supercomputadora ha
sido usada por la NASA para investigar el rendimiento de aviones hipersónicos,
simular procedimientos de aterrizaje y modelar materiales para futuros trajes
espaciales.
"Este rendimiento adicional de las computadoras es necesario para ayudarnos a
lograr avances en descubrimientos científicos", señaló Worden.
Fuente: BBC Mundo, 11 de Mayo de 2008
-La zona de aterrizaje del Phoenix a color
El aterrizador marciano Phoenix de la NASA tiene previsto
aterrizar en las llanuras norteñas marcianas el próximo día 25 de Mayo de 2008,
cerca de los 68 grados de latitud norte y 127 grados de longitud oeste. Como
preparativo para el aterrizaje, el Orbitador ‘Mars Reconnaisance Orbiter’ (MRO)
ha estado monitorizando el tiempo en la región cercana a la zona de aterrizaje.
La cámara contextual de la MRO tomó esta imagen de la zona
de aterrizaje a la vez que la cámara de color tomó la anterior. Esta imagen,
tomada el 20 de Abril, consiste en una franja que cubre unos 26 kilómetros
por lado, y es parte de una imagen mayor (PIA10632). Muestra dos remolinos
de polvo con sus sombras. A partir de la medida de la sombra, uno de los
remolinos alcanza una altura de 590 metros con una cola de polvo
extendiéndose 920 metros sobre la superficie. El otro alcanza unos 390
metros de altura, con una cola de polvo de 790 metros. La resolución de la
imagen es de 6 metros/píxel.
El 20 de Abril, la cámara de color del MRO capturó esta
vista de una vasta región del norte de Marte que incluye la zona designada
para el aterrizaje en el cuadrante inferior derecho. Esta versión de la
imagen, con anotaciones, muestra la localización de la elipse de aterrizaje,
de unos 100 kilómetros de longitud. Cuando la cámara de color adquirió esta
imagen, era finales de primavera en el hemisferio norte de Marte. Unas pocas
semanas antes, el sitio de aterrizaje de Phoenix estaba cubierto de escarcha
estacional. Un punto dentro de la elipse de aterrizaje marca la localización
de dos remolinos de polvo (‘dust devil’) visibles en la imagen de la cámara
contextual.
Fuente: sondasespaciales.com, 9 de Mayo de 2008
-El desierto del Sáhara se terminó de
formar hace tan sólo 2700 años
La transición del norte de África de un Sáhara verde a uno
de los desiertos más grandes del mundo ocurrió "lentamente" en vez de ser un
cambio abrupto como hasta ahora se pensaba. Así lo afirma un estudio dirigido
por científicos del Instituto de Arqueología Prehistórica de la Universidad de
Colonia en Alemania publicado por la revista
'Science'.
Lago Yoa, al noroeste del Chad, el más grande del Sáhara,
proporciona el único archivo continuo
de las transformaciones climáticas del desierto más
importante del mundo
Los resultados señalan que el paisaje extremadamente árido del Sáhara se
consolidó hace tan sólo 2.700 años. La mayoría de los registros
físicos que documentan la evolución del paisaje del Sáhara se han perdido con el
tiempo, pero al estudiar uno de los lagos más grandes de la zona, el
lago Yoa al noreste del Chad, fue posible llegar a estas conclusiones.
Los investigadores, dirigidos por Stefan Kröpelin, lograron construir un
registro continuo y bien datado del cambio en el clima y el ecosistema en esa
localización en los pasados 6.000 años. En el estudio se utilizaron datos de una
secuenciación de alta resolución de sedimentos y lecturas geoquímicas, así como
indicadores biológicos como el polen, esporas y los restos de
organismos acuáticos.
Los resultados proporcionan evidencias de que la transformación del paisaje
del Sáhara en los pasados 6.000 años supuso una reducción gradual en la
abundancia de la vegetación tropical, seguida por la pérdida de la cubierta de
hierba y finalmente por el establecimiento de la actual comunidad de plantas de
desierto.Estos descubrimientos están en oposición con algunos resultados previos
que indican un colapso rápido de la vegetación y un final repentino del
periodo húmedo africano.
Fuente: Agencias,
9 de Mayo de 2008
-La
NASA homenajea a "2001: una odisea del espacio"
La NASA rindió el jueves homenaje a 2001: Una odisea
del espacio, una película que en su estreno hace 40 años anunció muchos
de los adelantos que ahora son una realidad en la exploración espacial.
Esa película, dirigida por Stanley Kubrick, "despertó la
imaginación e hizo un anuncio realista de lo que sería nuestro futuro en el
espacio", señaló la agencia espacial en su sitio de Internet. Cuando la
cinta se estrenó hace 40 años, vivir y trabajar en el espacio a tiempo
completo era una cosa de ciencia ficción, dijo la NASA.
Actualmente, hay tres ocupantes en la Estación Espacial
Internacional (EEI) los 365 días al año y controlan uno de los proyectos de
ingeniería más complejos de la historia. "La estación nos ayuda a ampliar
los horizontes de la ciencia, la tecnología y la ingeniería del siglo XXI",
agregó.
En La película, basada en el cuento The Sentinel
del escritor inglés Arthur C. Clarke, el astronauta y científico David
Bowman realiza una misión en busca de un extraño objeto geométrico hallado
en la Luna.
La historia se escenifica en el año 2001 y en su búsqueda
Bowman llega a una órbita en torno al planeta Júpiter. En su nave llamada "Discovery",
como uno de los veteranos transbordadores de la NASA, Bowman mantiene
contacto con un compañero de tripulación y una supercomputadora llamada HAL
9.000.
Esta computadora sufre un desperfecto que causa la muerte
del compañero de tripulación de Bowman, quien debe utilizar toda su astucia
e inteligencia para vencer a la supercomputadora y recuperar el control de
la nave.
2001: Una odisea del espacio, muestra una versión
imaginada del futuro en el espacio, "gran parte del cual está ahora en el
pasado", dice la NASA. Para los científicos de la agencia espacial
estadounidense una de las visiones más notables del filme es la enorme
estación que gira en una órbita baja sobre la Tierra.
Futurista acertado
Pero esa no fue la única visión futurista con la que los
productores de la película tuvieron un acierto pleno. Había también
monitores de pantalla plana, algo que en aquella época eran una cosa de
ciencia ficción de la que ni siquiera se hablaba en 1968. También lo eran
las cabinas transparentes de las naves y los recursos de diversión y
entretenimiento para los larguísimos viajes del espacio.
"Hoy están los DVDs, los iPod y las computadoras
portátiles, (incluso de bolsillo), con acceso al correo electrónico",
manifiesta la NASA. La agencia espacial apunta a una de las escenas más
recordadas de la película en la que Bowman, el personaje central, hace
ejercicio físico.
"A bordo de la Estación Espacial Internacional eso ya es rutina. En abril
de 2007, a más de 350 kilómetros de la Tierra y mientras estaba en órbita,
la astronauta Sunita Williams, corrió el maratón de Boston", recuerda.
Arriba estación espacial de 2001, abajo la Estación
Espacial Internacional (ambas en construcción)
A la izquierda tenemos al astronauta corriendo por el
interior de la nave de la película. A la derecha, la astronauta de la
NASA Williams haciendo haciendo lo mismo en la ISS.
Arriba tenemos a un astronauta de 2001 listo para salir
al espacio, abajo la misma escena pero en la ISS
La película épica sobre el futuro de la exploración
espacial: "2001, una odisea en el espacio" hizo que muchos se enamoraran de
las ilimitadas posibilidades de la exploración espacial. La película
despertó la imaginación y permitió prever como podría ser el futuro en el
espacio.
Hace 40 años, cuando se estrenó la película, trabajar y
vivir en el espacio era ciencia ficción. Hoy, tres personas viven a lo
largo de todo el año en la Estación Espacial Internacional trabajando en los
más complejos de ingeniería a lo largo de la historia. La estación está
ayudando a expandir los límites de la ciencia, la tecnología y la ingeniería
del siglo 21. Desde el complejo espacial de la NASA, el astronauta
Garrett
Reisman ha grabado un mensaje que fue escuchado en el homenaje que se
hizo a "2001, una odisea en el espacio", el 25 de Abril en el teatro
Samuel Goldwyn situado en Bervelly Hills. El acto fue organizado por la
Academy of Motion Picture Arts and Sciences. El actor Tom Hacks hizo una
introducción al comienzo del acto. Luego, los actores Keir Dullea, Gary
Lockwood and Daniel Richter y los técnicos en efectos especiales
Douglas Trumbull y artist Bruce Logan hablaron sobre su trabajo en la
película.
La película fue una creación entre el director Stanley
Kubrick y el novelista de ciencia ficción Arthur C. Clarke. De esta
colaboración nació un guión y una novela, ambas inspirados en un relato
escrito por Clarke en 1950 llamado "The Centinel".
"2001, una odisea en el espacio" muestra un futuro
del que se podría destacar varios momentos que se han convertido en
realidad:
-La estación espacial orbitando alrededor de la Tierra y
girando sobre si misma. Aunque tenga una forma distinta, la Estación
Espacial Internacional permite que exista una tripulación de
nacionalidades distintas permanente en el espacio.
-Los monitores de ordenador de pantalla plana,
inimaginables en 1968, son ahora comunes.
-En el film aparecen cabinas de cristal en las naves
espaciales, algo que existe desde hace tiempo en los transbordadores.
-En el film aparecen aparatos de entretenimiento que
recuerdan a los videojuegos, ipod, ordenadores con acceso a internet o DVDs
de la actualidad.
-Otra famosa escena de la película es la de un astronauta
corriendo dentro de la nave. En la Estación Espacial Internacional eso es
rutinario. En Abril de 2007, la astronauta Susan Williams corrió la maratón
de Boston mientras estaba en órbita.
Aunque hay cosas de la película que no se han hecho realidad, algunas
están siendo proyectadas actualmente. Un ejemplo es el proyecto de
colonización de la Luna que está planificando la NASA para el 2020. Otros
proyectos como hoteles espaciales y viajes turísticos al espacio están
siendo planificados por compañías privadas.
Cuando terminemos la estación espacial, trabajaremos para regresar a la
Luna, viajar a Marte y más allá. Somos parte del fantástico futuro que
Kubrick y Clarke imaginaron hace 40 años.
Fuente: adn.es, NASA, 9 de Mayo de 2008
-América se pobló mil años antes
Un grupo de científicos asegura haber encontrado nueva evidencia que respalda
esa revelación. Con esto, afirman los investigadores en la revista
especializada Science, esperan poner fin al largo debate sobre cómo y cuándo
ocurrió la migración de los primeros americanos. El estudio, llevado a
cabo por científicos de la Universidad de Vanderbilt, Estados Unidos, y la
Universidad Austral de Chile, afirma que los pobladores siguieron una ruta de
migración por la costa del Pacífico hace más de 14.000 años.
"Volvimos a analizar muestras que recolectamos en Monte Verde (un sitio
arqueológico en el sur de Chile)" dijo a BBC Ciencia el profesor Mario Pino, de
la Universidad Austral de Chile y uno de los autores del estudio.
"Descubrimos fragmentos de algas de especies que no habíamos visto antes en
el sitio y después de fecharlas con técnicas radiocarbónicas confirmamos que
tienen entre 13.980 y 14.220 años de antigüedad", afirma el investigador.
El sitio de Monte Verde, localizado a unos 800 kilómetros al sur de Santiago
de Chile, fue descubierto en 1976. Allí se encontraron ruinas bien
conservadas de un pequeño asentamiento de unas 20 ó 30 personas que vivían en
una docena de cabañas. Se encontró también una gran variedad de fósiles de
productos alimenticios, incluidas especies extintas de llamas, de un animal
parecido a un elefante llamado gomphotere, mariscos, vegetales y nueces.
Restos arqueológicos
Controversia
Los científicos llegaron a la conclusión de que estas muestras databan de
hace 14.000 años, lo cual desató un acalorado debate ya que estos resultados
contrariaban la teoría ampliamente aceptada sobre los primeros asentamientos
humanos en América. Esta teoría afirma que la colonización humana de
América comenzó a fines de la última Edad de Hielo, hace unos 13.000 años. Y
que los primeros pobladores fueron grupos de cazadores, llamados Clovis, que
cruzaron de Siberia a Alaska por el estrecho de Bering y gradualmente se
establecieron en el norte de América.
Monte verde
Sin embargo, ninguno de los artefactos de los Clovis
descubiertos hasta ahora datan de más de 13.000 años. Después de años de
controversia, y tras haber revisado la evidencia de Monte Verde, los científicos
dicen que la nueva evidencia confirma la antigüedad del asentamiento de Monte
Verde.
"Con el análisis de los fragmentos de alga que logramos
recuperar, podemos confirmar que Monte Verde fue ocupado unos 1.000 años antes
que los otros asentamientos americanos fechados hasta ahora", afirma el profesor
Pino.
La mayoría de los académicos cree que los primeros pobladores
siguieron una ruta de migración a lo largo de la costa del Pacífico, con lo cual
pudieron aprovechar los recursos costeros. Pero hasta ahora no se ha
podido encontrar pruebas que apoyen esta teoría de migración costera. El
principal problema es que el nivel del mar en aquella época era 60 metros más
bajo que hoy en día, y a medida que el nivel aumentó pudo haber cubierto dichos
asentamientos costeros. Tal como señala el profesor Pino, la nueva
evidencia de Monte Verde apoya esa teoría de migración costera.
"Dibujamos el mapa de la costa de la época para calcular la
distancia que tenían que recorrer para obtener algas de fondo rocoso y algas de
fondo arenoso", señala el investigador.
Monte Verde está localizado en pequeño afluente de un río y
el sitio se ubica a unos 120 metros sobre el nivel del mar a unos 80 kilómetros
de la costa.
"Y a pesar de esta ubicación tierra adentro, pudimos
identificar hasta nueve especies distintas de algas, que los monteverdinos
tuvieron que haber traído desde la costa", afirma el profesor Pino.
Los científicos creen que al haber encontrado tantas nuevas
especies de algas tierra adentro demuestra que los pobladores de Monte Verde
eran conocedores experimentados de la playa y sus recursos. Y también
mantuvieron la tradición de explotar esos recursos costeros.
"La relación de las culturas antiguas con las plantas
-explica el profesor Pino- ya sean plantas continentales o marinas es una
relación que se origina muy lentamente".
"Lo vemos con las plantas medicinales, que sólo se
desarrollan cuando hay una experiencia de muchas generaciones", agrega.
"Este estudio revela que el uso de plantas marinas de los
monteverdinos confirma que su relación con el mar es muy antigua".
"Y esto es un argumento a favor de que la ruta migratoria de
los americanos estuvo muy cerca del mar, desde el estrecho de Bering hacia
Puerto Montt", expresa Mario Pino.
Fuente: BBC Mundo, 8 de Mayo de 2008
-Don "Carlos" Darwin, el naturalista
curioso que hablaba español
Si hay alguien que se conozca los más
asombrosos detalles de la vida y obra de Charles Darwin es John Van Wyhe,
historiador de la Ciencia en la Universidad de Cambridge (Reino Unido)y creador
de la página web
Darwin
on line, el mayor compendio de materiales sobre el famoso científico
británico, padre de la Teoría de la Evolución.
Van Wyhe, que ofreció ayer una conferencia en la Residencia
de Estudiantes invitado por el British Council, reconocía a este diario que
siempre ha sentido admiración por Darwin, al que ha dedicado su vida
investigadora.
De hecho, si se le pregunta, es incapaz de encontrarle un
defecto. "Cambió la evolución de la Ciencia como ningún otro contemporáneo. Si
hubiera muerto en el Beagle [el barco en el que dio la vuelta al mundo] se
hubiera tardado muchos años en llegar a sus conclusiones. Además, era un
hombre amable, nada arrogante y, como se refleja en sus cartas, con
sentido del humor; le gustaban los chistes", asegura.
Charles Darwin en 1840 antes de publicar el "Origen de las Especies"
El investigador británico se conoce infinidad de detalles
de su vida. Por ejemplo que hablaba español, aunque con mal acento.
"En otro caso, era imposible que conociera tantos detalles de especies
locales de Latinoamérica, que le transmitían los guías y las gentes de los
lugares". O que los gauchos le llamaban Don Carlos, el naturalista. Y si
alguien preguntaba qué era eso, puntualizaban: «Es la persona que sabe de
todo».
Van Wyhe cree que si guardó 20 años la Teoría de
la Evolución en un cajón antes de publicarla fue "porque estaba muy ocupado"
. ¿Acaso no la creía importante? «Si sabía que su trascendencia,
pero pensaba que su aportación había sido poca. Era muy humilde», insiste.
Por ello no le entra en la cabeza que 150 años después
surjan las teorías creacionistas, como contraposición al Darwinismo. «Es
increíble porque ya en su época se aceptó, incluso entre los
cristianos», recuerda.
Fue en el año 2002 cuando, durante una estancia en la
Universidad de Singapur, el joven británico comprobó que toda la información
sobre Darwin andaba desperdigada por Internet, y a retazos.
Jonh Van Wyde, investigador sobre Charles Darwin
Inició entonces un proyecto que ha culminado ahora, en abril
de este año, con la publicación 'online' de 43.000 páginas de texto e
imágenes sobre el personaje, que incluyen todas sus obras, sus diarios,
sus cartas, sus fotos infinidad de estudios sobre su persona y obra.
Sólo el primer día, Darwinonline.org recibió siete
millones de visitas. Un éxito rotundo. "En abril se descargaron 68.000
copias de 'El origen de las Especies', más de las que Darwin vendió en toda su
vida", asegura Van Wyhe. Pero aún queda material por recopilar y el investigador
recuerda que hay una lista de libros en la web que se le pueden enviar «también
desde España».
Para el bicentenario de su nacimiento, en 2009, Van Wyhe
prepara un museo en el Christ’s College, donde estudio el
naturalista, y varios libros. El museo incluye la habitación en la que vivió
Darwin cuando era estudiante, además de muchos de sus libros. Aún se está
investigando de qué color era entonces.
Fuente: elmundo.es, 8 de Mayo de 2008
-El ornitorrinco: mitad reptil, mitad mamífero
El ornitorrinco comparte características genéticas con
los reptiles y con los mamíferos, además de tener rasgos genéticos
propios, según se desprende de un estudio publicado en la última edición
de la revista científica Nature.
Tras secuenciar y analizar el genoma del
ornithorhynchus anatinus, un grupo internacional de investigadores ha
concluido que las proteínas del veneno del ornitorrinco pertenecen a la
misma familia genética que genera el veneno de los reptiles.En cuanto a
los genes de las proteínas de la leche, son los propios de cualquier
mamífero. Finalmente, la familia de genes del sistema inmunológico del
ornitorrinco deriva de su propia biología.
Endémico en Australia y la isla de Tasmania, el
ornitorrinco es un animal monotrema, es decir, un mamífero que conserva
características reptiles como la reproducción ovípara.También conocido
como platipo, llegó por primera vez al Museo de Historia Natural de
Londres en 1799, procedente de Australia, para que los naturalistas e
investigadores lo analizasen. Ante un animal con piel de topo, cola de
castor, patas de rana, espolón de gallo, pico de pato y dientes, el doctor
británico George Shaw lo consideró inicialmente un fraude, pues no daba
crédito a la existencia de un animal tan sorprendente. De hecho, se
considera uno de los mamíferos actuales más primitivo desde el punto de
vista evolutivo.
Fuente: EFE, 7 de Mayo de 2008
-Física cuántica contra "hackers"
El ordenador cuántico puede ser el futuro de la informática,
pero también su pesadilla. Los expertos investigan nuevas tecnologías para
construir ordenadores que dejarán en ridículo la capacidad de procesamiento de
los actuales. Esas máquinas aprovechan las leyes de la mecánica cuántica para la
computación y, en lugar de bits, se basan en algo llamado qubits.
Pero los científicos advierten de que, cuando llegue, ya no
serán seguros los actuales protocolos de encriptación utilizados para proteger
transacciones electrónicas y comunicaciones confidenciales en Internet, porque
un ordenador tan potente solucionaría las inabordables operaciones matemáticas
en que se basa hoy la criptografía. Ante la eventualidad de que una herramienta
así caiga en manos de las mafias que operan robando datos en la Red, la ciencia
necesita adelantarse al desafío y cree saber cómo hacerlo: con una ración de su
misma medicina cuántica.
La solución consiste en una nueva criptografía infranqueable
que generará las claves no mediante matemáticas más o menos ingeniosas, sino
aprovechando las propiedades cuánticas de las partículas elementales, como los
fotones, las partículas de la luz. Una de ellas es que un fotón no puede ser
interceptado y copiado sin alterarlo (por el denominado principio de
incertidumbre, que Heisenberg formuló en 1927). Así, la seguridad estaría
garantizada por un principio absoluto de la física. A este campo se le llama
criptografía cuántica y puede abrir camino a aplicaciones como las elecciones
por Internet o las tarjetas de crédito que no puedan ser duplicadas. En Suiza,
se utilizó el pasado octubre para proteger el recuento de las elecciones en
Ginebra.
Para avanzar en la criptografía cuántica, la Agencia Europea
del Espacio (ESA) acaba de adjudicar a un consorcio mayoritariamente español la
construcción de un "transceptor [emisor-receptor] cuántico", un aparato
transmisor y receptor (como los walkie-talkies) de fotones encriptados.
El proyecto, con un presupuesto de 600.000 euros, durará hasta 2010. De él
tendrá que salir un prototipo seguro capaz de funcionar desde la Estación
Espacial Internacional (ISS), y que volaría a ella quizás en 2015.
El diseño del aparato para cumplir con su función de emitir y
recibir claves cifradas recae en el Instituto de Ciencias Fotónicas (ICFO) de
Barcelona y en el Grupo de Comunicaciones Ópticas y Cuánticas de la Universidad
Politécnica de Valencia. El jefe de este último, el catedrático José Capmany,
explica a EL PAÍS que "es la técnica más segura para cifrar información en el
espacio, porque si tratas de saber qué información lleva el fotón, la
destruyes". El físico Valerio Pruneri, italiano afincado en Barcelona y jefe de
grupo en el ICFO, muestra cómo se encriptan los mensajes con esta tecnología:
"Cada fotón es una partícula de luz y lo polarizamos vertical, horizontal o
diagonalmente, aplicándole un filtro como hacen las gafas de sol con los rayos
solares. Las polarizaciones son complementarias y si alguien espía, el tráfico
de fotones las modifica, y el emisor y receptor se dan cuenta de los cambios".
Este fenómeno sólo ocurre en el universo microscópico: si
interceptamos una carta, podemos leerla y cerrarla a continuación, evitando
dejar señales visibles. Pero los fotones y las partículas que componen la misiva
cuántica quedan irremisiblemente trastocados en su polarización desde el momento
en que alguien los detecta y observa. Es imposible hacerlo en secreto.
"Éste es el proyecto más complejo con que nos hemos
encontrado", subraya Francisco Gutiérrez, director de innovación de la empresa
Alter Technology Group, coordinadora del proyecto y encargada de conseguir un
sistema que funcione en las duras condiciones de la órbita en la que vuela la
ISS (350-460 kilómetros sobre la superficie terrestre). El transceptor consiste
en un láser de fotones muy delicado, "en el que desviaciones mayores de una
micra en la posición de sus componentes pueden provocar que se desalinee y no
funcione". Dos empresas españolas (Lidax y Emxys) desarrollarán los sistemas
térmicos y electrónicos para ello.
"La seguridad en las comunicaciones espaciales es un aspecto
que, dada la situación socio-política actual, está adquiriendo cada vez más
importancia, y estamos investigando técnicas para proteger el acceso a un
satélite y a los datos provenientes de los instrumentos de a bordo", afirma
Josep Maria Perdigues, responsable técnico de los estudios sobre comunicación
cuántica de la ESA. Destaca Perdigues que la construcción del transceptor se
enmarca en un ambicioso experimento llamado Space Quest, pionero en el mundo, y
que "consiste en demostrar la viabilidad de distribuir fotones individuales
desde la ISS a receptores terrestres -telescopios- para validar principios
fundamentales de la física cuántica".
Uno de los axiomas a corroborar tiene un nombre que sólo con
mencionarse hace volar la imaginación: la teleportación, que estos físicos
cuánticos se toman tan en serio como los protagonistas de Star Trek. José
Capmany, jefe del grupo valenciano, remarca que "una parte de nuestro
transceptor también estará adaptada a enviar dos fotones entrelazados a
localizaciones muy alejadas entre sí en la Tierra, para realizar experimentos de
teleportación; comprobaremos si las propiedades de estos fotones vinculados
entre sí se mantienen al mandarse cada uno a miles de kilómetros de distancia".
Fuente: elpais.com, 7 de Mayo de 2008
-Sondas: al servicio de la ciencia hasta el último aliento
Hace tiempo que el ser humano dejó de ocupar la vanguardia en la exploración
de nuevos mundos. La aventura que en otros tiempos emprendían los más osados
está ahora en manos de sondas que se baten el cobre por todo el Sistema Solar
para traer a la Tierra un buen bocado de datos que los científicos puedan
llevarse a la boca. Pero como Mallory en su ascenso final al Everest o Scott
tratando de alcanzar el Polo Sur, estos artefactos -con ayuda de los ingenieros
que los manejan- son capaces de continuar con su misión hasta el último aliento.
El pasado mes de febrero, la Agencia Espacial Europea (ESA) anunciaba que la
sonda Ulysses, encargada de estudiar el
Sol, estaba a punto de morir congelada. El plutonio que le había proporcionado
energía para sobrevivir en el espacio durante 18 años se había debilitado y la
lejanía del Sol hacía que su combustible se helase. Sin embargo, en abril, el
director de la misión para la ESA, Richard Mardsen, afirmó que esperan conseguir
la mayor cantidad de ciencia posible hasta el próximo 1 de julio, cuando acabe
la fase actual de la misión.
Ulysses
Hayabussa
rover marciano
Después, los responsables de Ulysses
se plantean realizar una operación con la sonda digna de los mejores momentos de
la exploración humana. Se trataría de colocar el satélite en estado de
hibernación para ahorrar combustible. Así permanecería durante cinco años para
poder resucitar cuando se acerque a unos 200 millones de kilómetros del Sol
(ahora está a más de 400) y las temperaturas sean suficientemente altas como
para sacar a la nave de su letargo. Despertaría justo a tiempo para estudiar el
próximo máximo solar, que se producirá entre 2012 y 2013. Habría servido a la
ciencia durante 23 años, casi seis veces más de lo previsto.
Otro ejemplo de resistencia son los dos exploradores de la NASA,
Spirit y
Opportunity. Estas sondas rodantes
llegaron a Marte en 2004, con una misión mínima prevista de tres meses. Hoy
continúan en la brecha, pero los años no han pasado en balde. Desde 2006,
Spirit se desplaza dejando tras de sí un
surco. Ese año, su rueda delantera se averió y desde entonces tiene que caminar
marcha atrás, arrastrando su extremidad maltrecha.
El pasado mes de abril, se agravaron los problemas del otro gemelo. Un brazo
robótico que había comenzado a fallar hace dos años sufrió una nueva avería en
uno de los motores que ayudan a desplegarlo. Habitualmente, ese brazo, que se
emplea para estudiar la composición de las rocas marcianas, se plegaba para
pasar la noche a cubierto bajo el frontal de
Opportunity. Para no perderlo definitivamente, los ingenieros han
comenzado a dejar el brazo extendido. De esta manera, aunque la artrosis fuese
definitiva, el brazo podría continuar siendo útil.
En estas condiciones, los dos robots han sido capaces de sobrevivir a los
duros inviernos marcianos, cuando la cantidad de sol que llega a sus paneles
solares es apenas suficiente para sobrevivir. Por el momento, la pericia de los
ingenieros ha logrado que sobrevivan a estos malos momentos. El próximo invierno
podría ser el último, pero los dos gemelos han demostrado que su piel se vende
muy cara.
Un último explorador cuyos apuros se han conocido en las últimas semanas es
Hayabusa. La sonda japonesa, que iba a
ser la primera en retornar muestras de un asteroide a la Tierra, podría perderse
en el espacio. El mes pasado, ya en su viaje de vuelta, la agencia japonesa del
espacio informó de que el último giróscopo (encargado de dirigir el aparato) que
le quedaba operativo se había averiado. La situación es crítica, pero los
ingenieros ya han superado una pérdida de contacto con la sonda que retrasó su
regreso en más de tres años o una fuga de combustible grave. Aprovecharán hasta
el último respiro de Hayabusa para traer
a casa la ciencia que transporte.
Se resisten a morir
Exploradores
Los robots de la NASA Spirit y
Opportunity llegaron a Marte en enero de
2004 para cumplir una misión de exploración que iba a durar tres meses. Cuatro
años después continúan enviando información aunque ya han mostrado varios
achaques. La misión, que tuvo un coste inicial de unos 820 millones de dólares,
podría continuar, al menos, hasta 2009 multiplicando por diez su periodo activo
previsto.
De ida y vuelta
La sonda Hayabusa, de la agencia espacial
japonesa, tenía previsto visitar el asteroide Itokawa, aterrizar sobre su
superficie y tomar muestras del material que lo compone para devolverlas a la
Tierra. La recogida de muestras falló, pero los científicos todavía esperan que
pueda traer polvo del asteroide capturado por azar. Llegaría a la Tierra en
2010.
Una veterana Ulysses fue lanzada en 1990 para
estudiar el Sol desde una perspectiva que ningún artefacto había logrado antes.
Se colocó en una órbita lejana del astro y en un plano que le permitía observar
sus polos, claves para comprender los intensos efectos de la estrella en el
Sistema Solar. Entre ellos está la capacidad para trastocar los sistemas de
telecomunicaciones. Cada año, Ulysses le
cuesta a la ESA unos 2,6 millones de euros.
Fuente: público.es, 7 de Mayo de 2008
-Detectan materia ordinaria nunca antes vista
Imágenes del Hubble
Un grupo de físicos observó en el
espacio materia
ordinaria nunca vista hasta ahora, cuya existencia ya había sido reconocida en
el plano teórico, reveló este miércoles el Instituto Max-Planck de Física
Extraterrestre de Garching, en el sureste de Alemania.
El universo está compuesto en más del 95% de sustancias cuya composición es
desconocida: se trata de la materia negra (21%) y de la energía oscura (75%). El
resto, entre el 4% y el 5%, es materia ordinaria (protones, neutrones). Pero
todas las galaxias y los gases interestelares descubiertos hasta ahora sólo
contaban con la mitad de esta materia bariónica.
Gracias al telescopio XMM-Newton de rayos X de la Agencia Espacial Europea,
los astrofísicos del Max-Planck y dos institutos holandeses detectaron un
"puente" de gas caliente y muy poco denso que unía dos galaxias, Abell 222 y
Abell 223, alejadas de la Tierra de unos 2.300 millones de años luz.
Contrariamente a varias otras, esta constelación se encontraba en el punto de
mira del telescopio, por lo que el puente de gas pudo ser observado de frente.
El gas, cuya temperatura está comprendida entre 10.000 y un millón de grados,
es "probablemente la parte más densa y más caliente del gas difuso presente en
el cosmos y podría constituir la mitad" de la materia ordinaria, declaró Norbert
Werner, quien dirigió este estudio publicado en la revista estadounidense
Astronomy and Astrophysics Letters.
"Hasta ahora, sólo podíamos observar los nudos densos de la telaraña del
universo. Ahora empezamos a ver los filamentos", explicó por su parte la
astrofísica Aurora Simionescu del Max-Planck.
"Para comprender la distribución de materia en el universo, deberíamos
observar otros sistemas como éste", concluyó Werner.
Fuente: AFP, 7 de Mayo de 2008
-Objetivo: una red inalámbrica de última generación
para todo Estados Unidos
Todos para una; y una para todos. Un consorcio de grandes empresas de
diferentes sectores ha llegado a un acuerdo para poner en marcha lo antes
posible una red móvil de nueva generación que abarque todo Estados Unidos y
pueda competir con las existentes de Verizon y AT&T. El monto de la operación:
16.700 millones de dólares, casi 11.000 millones de euros.
¿Y quién tiene tal cantidad de dinero? Tres de los firmantes del acuerdo son
muy conocidos: Google, Intel y Time Warner; Internet, tecnología y
entretenimiento. Los otros miembros del club lo son menos. Y eso que dos
de, Sprint Nextel (una de las empresas de telecomunicaciones más grandes del
mundo, con una red muy extendida en su país) y Clearwire (otro proveedor de
acceso a Internet -ISP-) aportan algo más de 9.000 millones de euros del total.
El sexto invitado es Comcast, uno de los grandes ISP de EE UU.
Según informa
la edición digital de The New York Times, los seis socios esperan
construir una red, nunca antes de dos años, que provea conexión a Internet a
través del teléfono móvil en todo el territorio estadounidense con un ancho de
banda y una calidad mucho mayor de la que ofrecen las redes actuales. El
objetivo es el vídeo.
Fuente: elpais.com, 7 de Mayo de 2008
-El apocalipsis de los insectos
Un informe publicado en los Anales de la Academia Nacional
de Ciencia de Estados Unidos (PNAS, por su sigla en inglés) revela que por el
contrario, aquellos insectos que viven más lejos del Ecuador podrían
experimentar una explosión demográfica.
Los insectos tropicales pueden ser los primeros en caer
por el brusco cambio de temperaturas
Los investigadores que colaboraron con el estudio analizaron decenas de
especies de insectos de todas partes del mundo, a la luz de los cambios de
temperatura registrados entre 1950 y 1990. Su objetivo era descubrir cómo
los habían afectado y predecir cómo se adaptarían a finales del siglo XXI si las
temperaturas suben, como mucho expertos vaticinan. Al contrario de los
animales de sangre caliente, los de sangre fría no pueden regular su temperatura
corporal.
No tienen una piel que crece para los meses fríos, o que mudan cuando hace
calor. Los insectos están limitados a tomar el sol cuando tienen frío o
refugiarse en la sombra cuando hace mucho calor. Los científicos
pronostican que tales especies tendrían dificultades en adaptarse al incremento
de 5,4 grados centígrados en zonas tropicales que se espera para el 2100
"En el trópico, muchas especies parecen estar viviendo muy cerca de su
temperatura óptima, lo que les permite prosperar", dijo Joshua Tewksbury, de la
Universidad de Washington.
"Pero una vez la temperatura aumenta por encima de ese grado óptimo, los
niveles vitales disminuyen rápidamente, sin que puedan hacer mucho para revertir
la situación", añadió.
Los resultados también indican que los insectos en zonas más templadas, como
Gran Bretaña por ejemplo, se adaptarían mejor. Algunas especies en estas
latitudes podrían experimentar una explosión en sus números. El impacto sería
mayor en las zonas tórridas, donde los insectos son más sensibles a pequeños
cambios de temperatura.
Aquellos que no puedan adaptarse o migrar podrían extinguirse, afectando a su
vez a las plantas que polinizan y a las personas que dependen de estas plantas
para alimentarse.
Fuente: BBC Mundo, 6 de Mayo de 2008
-Craig Venter: "Confiamos en crear la
primera forma de vida este año"
Craig Venter,
para unos un héroe, para otros un villano
raig Venter es el hombre del momento en el mundo de la
ciencia. A finales del pasado mes de enero, este controvertido investigador,
considerado uno de los padres del genoma humano, volvió a dar la campanada
al publicar en la revista 'Science' la creación del primer genoma sintético
fabricado en un laboratorio.
Algunos no tardaron en rasgarse las vestiduras ante los potenciales
peligros que podría representar esta tecnología si cayera en manos
equivocadas.
Venter, sin embargo, está convencido de que sus investigaciones podrían
servir para resolver algunos de los problemas más graves a los que se
enfrenta la Humanidad.
"La creación de bacterias sintéticas puede ayudarnos a combatir el
cambio climático, mediante la obtención de biocombustibles
alternativos al carbón y el petróleo".
"Es cierto que esta tecnología podría usarse para crear armas
biológicas, pero detenerla sería tan absurdo como prohibir el
conocimiento porque puede ser peligroso".
"Las personas muy inteligentes no son necesariamente las que tienen
éxito en la sociedad, y realmente no sabemos lo que hay que hacer
para mejorar la naturaleza humana".
"Habría que examinar las causas del terrorismo: desigualdad, pobreza,
guerras religiosas... Lo que es evidente es que la biotecnología
no tiene la culpa de que exista el fundamentalismo".
El profesor Venter, gran aficionado al mar, pasó dos años
sirviendo en la marina americana en Vietnam, tras lo cual estudió Bioquímica y
se doctoró en Fisiología y Farmacología en California. Hombre de gran sentido
del humor, decía que su papel principal era servir el café durante las
reuniones. Después de unos años como profesor asociado en la Universidad de
Búfalo y el Roswell Park Cancer Institute, se trasladó a los Institutos
Americanos de la Salud, en Bethesda.
A consecuencia de la primera reunión internacional que sobre el genoma humano se
organizó en Valencia en el 88, mi amigo Cook-Degan, consciente de que era una de
las jóvenes promesas en genética, me habló de él, y por eso fui a buscarle a
Bethesda.
Así pues, cuando en 1991 se celebró la segunda reunión sobre el Proyecto Genoma
Humano, dedicada a la Ética y patrocinada por la Fundación BBV, lo invitamos a
que asistiera. He de reconocer que esta segunda reunión en Valencia causó dos
hechos trascendentes: promovió el interés de la entonces recién creada Fundación
en la genética y las consecuencias de sus descubrimientos; y sirvió para el
lanzamiento del joven y, por entonces poco conocido a nivel internacional J.
Craig Venter. En dicho simposio participaron, entre otras personalidades de las
pocas interesadas entonces en el Proyecto Genoma Humano, Victor Mckusick, James
Watson y Walter Gilbert. McKusick ha sido recientemente galardonado con el
Premio Japón y está considerado el padre de la medicina génica. Walter Gilbert,
Premio Nobel, contribuyó a descubrir cómo se sintetizan las proteínas a partir
de grupos de tres bases del ARN, y fue el primero en postular que los orígenes
de la vida fueron debidos a la aparición de cadenas de ARN. El impulsivo James
Watson, famosísimo por su trabajo sobre la estructura de la doble hélice del
ADN, no necesita comentario; así que recordaré que aquélla fue su única visita a
España, y que se entrevistó con el Rey, como he comentado en otra ocasión
recientemente.
La redacción de las conclusiones de esta segunda reunión sobre el Genoma Humano
se le encomendó a Craig Venter, y fue él quien las consensuó trabajando hasta la
madrugada, para que se presentaran en la clausura de la reunión, presidida por
la Reina Doña Sofía. Ya advertimos entonces, y nos impresionaron a todos su
capacidad de trabajo, su imaginación y su pasión por el mar. Recuerdo que Venter
me propuso que a esta reunión en Valencia ¡viniese todo el mundo en barco!
La tercera reunión sobre el Genoma Humano, celebrada en Bilbao en el 93 y
también patrocinada por la Fundación BBV, contó con la presencia de Venter, al
que invité a participar como miembro de su Patronato, como recuerda él mismo en
su libro «Life Decoded. My Genome: My Life». Por entonces Venter ya empezaba a
destacar por sus estudios del genoma viral. En aquella reunión conoció a
Hamilton Smith, Premio Nobel por el descubrimiento de los enzimas de
restricción, la herramienta que ha permitido dividir la larga molécula de ADN en
fragmentos que así se pudieron analizar. Durante una cena Venter convenció al
doctor Smith de las posibilidades comerciales de los descubrimientos del Genoma
Humano, a las que nadie habíamos hecho mucho caso. Ya había problemas sobre su
proyecto de generar patentes antes de que lograra la primera secuencia completa
del genoma humano. Por todo ello, no es de extrañar que Craig Venter nos
hablara, en dicha reunión en Bilbao, sobre «La rentabilidad de patentar los
descubrimiento genéticos». Venter fue tan convincente que el Premio Nobel Smith
dejó su Cátedra en la Universidad Johns Hopkins y se fue a trabajar con el joven
Venter al Instituto de Ciencias Genómicas que éste había creado en el 92 y, como
es sabido, desde entonces siguen trabajando juntos.
Apenas cinco años después de la reunión de Bilbao, se creó Celera con el objeto
de realizar el primer mapa completo del genoma humano, proyecto en que
naturalmente participó Hamilton Smith.
La fama de Craig Venter se extendió por su desarrollo de tecnologías
importantísimas para secuenciar rápidamente el genoma, como la llamada
identificación de secuencias dianas (EST). Muy simpático y claramente
«inconformista», no se lleva bien con otros científicos, incluyendo al también
iconoclasta James Watson, quien dijo que lo que Venter hacía con dicha técnica
«lo podía hacer un mono». Venter no lo ha olvidado. Su creatividad, diligencia y
originalidad en la secuenciación, le llevaron a publicar en el año 2003 en la
revista Science la secuencia del genoma humano.
Con los años, Craig Venter abandonó Celera y ha creado el Instituto Craig Venter,
y se ha dedicado a recorrer los mares en su yate Sorcerer II, analizando genomas
de bacterias con el objetivo de conseguir nuevos recursos, especialmente
energéticos.
Venter acaba de anunciar el éxito de un proyecto en el que lleva trabajando
varios años, la síntesis del genoma de un ser vivo, el de la bacteria Mycoplasma
laboratorium, es decir, el primer paso para crear vida en el laboratorio, lo que
provocará no sólo importantes avances científicos sino también grandes
discusiones éticas y filosóficas. Es la gran noticia, en la que ha estado
trabajando mucho tiempo con Hamilton Smith.
Hace unas semanas me telefoneó mi hijo mayor, James, que vive en San Diego, y me
dijo que se iba a reunir con Hamilton Smith, a quien conoce por las reuniones de
los Jurados de los Premios Rey Jaime I. El profesor Smith se encontraba allí
desarrollando una sede de la Fundación Craig Venter.
Por todo lo dicho, esperamos con avidez conocer más detalles del futuro de «la
creación de vida» directamente de Venter, que estos días 5, 6 y 7 de mayo
imparte sendas conferencias en el Museo de las Ciencias Príncipe Felipe de
Valencia.
Venter es un asiduo visitante de España, pues, además de participar en las dos
últimas reuniones sobre el Genoma Humano, volvió en 1998 cuando se le reconoció
con una Medalla de la Fundación Valenciana de Estudios Avanzados, durante un
curso en la Sede de la Universidad Internacional Menéndez Pelayo de Valencia, y
hace unos siete años recibió en Oviedo el Premio Príncipe de Asturias,
compartido con otros distinguidos investigadores, incluyendo su competidor y
poco amigo Francis Collins.
Dada su gran categoría científica y, por tanto, su cada vez mayor número de
ocupaciones, es de agradecer, que Craig Venter, posiblemente el biólogo
molecular más famoso en la actualidad, venga a pasar unos días a España, para
compartir sus ideas revolucionarias con cuantos científicos y estudiantes deseen
aprender aspectos novedosos y fascinantes de la genética.
Fuente: elmundo.es, ABC.es, 6 de Mayo de 2008
-El gordo ¿ nace o se
hace?
El Instituto Karolinska de Suecia acaba de dar una
vuelta de tuerca al estudio de la obesidad al descubrir que las células
del cuerpo donde se deposita la grasa, los adipocitos, experimentan una
constante renovación. Cada año mueren y vuelven a nacer aproximadamente
un diez por ciento, tendiendo a un misterioso equilibrio tenaz, decidido
en los primeros compases de la vida. Su totalidad se renueva cada diez
años y su número permanece constante a lo largo de la vida.
Este estudio sueco ha causado un enorme impacto en
los Estados Unidos, donde la obesidad es una plaga nacional y se dedican
enormes esfuerzos a comprenderla y a combatirla. Hasta ahora, con escaso
éxito más allá de la constatación de algunas obviedades: que los niños
obesos tienden a ser adultos obesos, sin que eso libre a muchos niños y
jóvenes delgados de acumular grasas indeseadas a partir de cierto umbral
de edad. Ahora se sabe que la obesidad depende del número de adipocitos
y de la cantidad de grasa acumulada en estas células almacén.
Para la Ciencia siempre ha sido un frustrante
misterio el por qué es tan difícil perder peso a largo plazo. Por qué la
grasa perdida se reproduce tan fácilmente. Cuando se extrae un tumor
graso éste no vuelve a crecer, ¿por qué tras una liposucción el número
de adipocitos sí vuelve a aumentar a su nivel original tras dos años
como mucho?, se preguntaba ayer «The New York Times».
Como suele suceder en los tiempos de la ciencia
hiperespecializada, lo que a veces falla es la visión global de cómo
funciona realmente el cuerpo. No es casualidad que entre los autores del
revolucionario estudio del Instituto Karolinska figure Jonas Frisén,
biólogo e investigador de la renovación celular que hace tres años ya
impactó con su obra «La edad de nuestro cuerpo». Allí Frisén revelaba
nada menos que la mayor parte de usted es usted desde hace mucho menos
tiempo de lo que usted se imagina. La inmensa mayoría de sus células no
existían hace menos de diez años. Algunas, menos de diez días. Renovarse
o morir.
Frisén descubrió el verdadero reloj biológico, un
método muy ingenioso y certero para medir la edad corporal, por lo menos
en esta generación. Hasta 1963 se probaron armas nucleares a cielo
abierto. Eso inyectó en la atmósfera carbono 14 radiactivo que ha
penetrado en la composición de todos los organismos, seres humanos
incluidos. El carbono 14 va directo al ADN, que es lo único que no se
modifica cuando una célula se divide: midiendo entonces los incrementos
de carbono 14 en el ADN, Frisén estableció una regla de cálculo
extraordinariamente precisa de la edad de las células.
Se descubrió así que casi todas ellas están en constante renovación,
excluyendo parte de las de la corteza cerebral, las de la lente interna
del ojo y algunas del músculo cardíaco. Para algunas modalidades
celulares, las más expuestas al desgaste -por ejemplo las de la
epidermis, que es la barrera frente al mundo, o las del hígado, que es
la aduana de los tóxicos-, el ritmo de muerte y regeneración es casi
vertiginoso.
Células madre de confianza
Si uno lo piensa despacio se comprende que el cuerpo cambie deprisa.
¿Cómo si no iba a sobrevivir tanto tiempo, soportando toda clase de
pruebas, peligros e infortunios? El vértigo de verse de repente a uno
mismo como un caleidoscopio celular en constante recomposición queda
matizado por la existencia de algunas «células madre» de confianza, que
son las que fijan el rumbo biológico de la identidad. El lento desgaste
de estas últimas sería lo que quizá explicaría la claudicación final
ante la vejez.
Y en medio de este ir y venir molecular, ¿qué pasa con los adipocitos?
No es fácil estudiar su comportamiento sin liarse con otras ráfagas de
ADN o sin incurrir en riesgos tóxicos. Pero Frisén y sus colegas han
logrado sacar algo en limpio del estudio de las células grasas obtenidas
de 35 adultos que se habían sometido a una liposucción o a una
reconstrucción abdominal.
Las conclusiones son que el número de células grasas queda
determinado muy precozmente, en la infancia y primera juventud, y ya no
se modifica nunca. Por lo menos no para «bien». Es más fácil que una
persona delgada que de repente ingiere muchísimas grasas rompa el techo
de sus adipocitos y les obligue a multiplicarse, que una persona obesa
logre su disminución, por mucho que se prive de comer. Podrá bajar de
peso, podrá hacer descender la carga grasienta de sus células, pero no
el porcentaje de estas últimas en su cuerpo. Esto explica por qué es tan
difícil no volver a engordar.
Fuente: abc.es, 6 de Mayo de 2008
-Un avión volará cinco años sin parar
Programa Vulture. Objetivo: crear un avión no tripulado capaz
de mantenerse en el aire durante cinco años sin tener que aterrizar. Misión:
labores de espionaje, vigilancia, reconocimiento y centro de comunicaciones en
cualquier zona del planeta.
Prototipo de avión volador de larga duración
Eso es lo que quiere
DARPA (la agencia federal
dedicada a proyectos de investigación para uso militar dependiente del
departamento de Defensa de EEUU), que acaba de dar el contrato para el diseño de
Vulture al fabricante de aviones
Boeing . Esta compañía
tiene ahora un año para realizar un diseño teórico del aparato, además de
estudiar los problemas y las posibilidades de éxito, acabando con la creación de
un prototipo a escala.
Lo que piden los militares estadounidenses es que Vulture
funcione como un satélite pero sin las desventajas de éste. Para ello debe volar
y no orbitar, pudiendo ser dirigido y mantenido en una posición concreta a una
altura de entre 60.000 y 90.000 pies (entre 20.000 y 30.000 metros). Esta
posición suborbital en la estratosfera le permitiría convertirse en un centro de
comunicaciones lleno de sensores que no sería posible con un satélite
geoestacionario. En la actualidad, el único sistema capaz de funcionar
durante un lustro son los satélites geosíncronos (que giran alrededor de la
Tierra pero a su misma velocidad y a unos 38.000 kilómetros de altura, cubriendo
siempre la misma zona).
Por otro lado, Vulture también deberá soportar 450 kilogramos
de carga y al menos cinco kilovatios de potencia a bordo. Pero el principal reto
al que se enfrentan los ingenieros es el de cómo alimentar a un pájaro que no
debe posarse en el suelo en cinco años. Las dos alternativas propuestas son
suministrarle combustible en vuelo o conseguir que sea autónomo. Para la primera
se piensa en pilas de combustible (posiblemente hidrógeno) de larga duración. La
segunda opción es aprovechar la energía de Sol y desarrollar un ciclo de energía
completo.
De 54 horas a cinco años
El reto de Vulture es enorme. A día de hoy, el récord de
permanencia en vuelo de un avión no tripulado no va más allá de las 54 horas,
frente a los cinco años que quieren los militares. Fue el pasado mes de
septiembre cuando Zephyr, un ultraligero de 18 metros de envergadura y 35 kilos
de peso, sobrevoló los cielos de la base militar que EEUU tiene en White Sands,
en el estado de Nuevo México.
El aparato, fabricado por la británica
Qinetiq , será la base sobre la que se construirá Vulture. El fabricante
Boeing se ha asociado con Qinetiq para conseguir lo que necesita el Ejército de
EEUU. El programa Vulture tiene la ambición estratégica de otorgar a EEUU un
sistema de vigilancia y reconocimiento de alcance global, sin necesidad de bases
en el extranjero ni centros de mantenimiento. Dada la lentitud de este
avión, pensado para espiar zonas concretas del terreno, el departamento de
Defensa de EEUU tiene en marcha otro proyecto con el que completar a Vulture.
Rapid Eye es otro aparato de vigilancia no tripulado pero que podrá ser lanzado
como carga de un misil. Esto le permitiría estar sobre la zona de un nuevo
conflicto en cuestión de minutos. Los obstáculos aquí no son menores. Los
investigadores aún tienen que idear cómo meter un aparato de este tipo, con sus
características largas alas de fibra de carbono, en un cohete, y que el avión se
despliegue a 65.000 pies de altura.
Fuente: publico.es, 5 de Mayo de 2008
-Robots detrás del juego de la Bolsa
A comienzos de la década de los ochenta, The Buggles saltaba
a la fama por un estribillo pegadizo que pronosticaba que la estrella de la
radio se apagaría por el brillo de un nuevo astro: el vídeo. Si el grupo de pop
británico tuviera que actualizar ahora su canción, podría inspirarse en los
mercados financieros. La aplicación de las matemáticas como herramienta para
tomar decisiones de inversión amenaza con arrinconar los modelos basados en la
teoría económica. O dicho de otra forma, los autómatas ganan terreno a las
personas a la hora de invertir nuestros ahorros.
El auge de ordenadores que compran y venden activos basándose
exclusivamente en algoritmos y series estadísticas despierta recelos y
adhesiones a partes iguales. Los partidarios del software argumentan que
éste está a salvo de debilidades humanas como las emociones, los estados de
ánimo o el cansancio. También destacan su velocidad de reacción. Los
detractores, en cambio, alegan que la proliferación de los fondos cuantitativos
(como se les conoce) distorsiona el comportamiento del mercado y está detrás del
fuerte repunte de la volatilidad. Además, ironizan sobre su rentabilidad. Y es
que la crisis crediticia ha puesto en evidencia que la inteligencia artificial
tampoco está a salvo de los números rojos.
La aplicación de las matemáticas en la Bolsa viene de lejos,
pero en los últimos años es cuando se ha sofisticado e intensificado. En 1953,
el premio Nobel Harry Markowitz demostró matemáticamente que la diversificación
de carteras reduce el riesgo no sistemático. A partir de ahí, y en paralelo con
el desarrollo informático, se han generado modelos numéricos más o menos
complejos que toman decisiones de inversión. Hoy no hay banco o gestora de
fondos de renombre que no disponga al menos de un sistema algorítmico.
Entre los brokers artificiales se pueden distinguir
dos grandes grupos. Por un lado están aquellos programas que, basándose en
series estadísticas históricas de diferentes activos, intentan anticiparse a lo
que pueda hacer el mercado, y por otro se encuentra el software
matemático, que intenta buscar ineficiencias en la formación de precios para
arañar rentabilidades al mercado a muy corto plazo.
"Claramente, las matemáticas están ganando peso en el ámbito
de la inversión", reflexiona Marcos Pérez, gestor de fondos de gestión
alternativa de Renta 4 y astrofísico. "Los números por sí solos no nos van a
decir qué va a hacer el mercado, pero sí podemos establecer un modelo que pueda
hacer dinero a largo plazo". Para este experto, que ha trabajado también en
proyectos de diseño de robots, la gestión tradicional, en la que el profesional
elige una serie de valores en función de parámetros económicos y empresariales,
está muy sometida a criterios personales difíciles de proyectar hacia el futuro.
Desde hace tiempo existen dispositivos que permiten controlar
el riesgo en las inversiones. Un ejemplo son las stop loss. Estas órdenes
están programadas para que se venda o compre un activo cuando su precio rebase
determinados niveles. Sin embargo, ahora el cóctel entre matemáticas e
informática va más allá, y lo que se busca es que la máquina pueda tomar sus
propias decisiones.
"Los programas basados en algoritmos intentan descubrir
patrones en una serie histórica de precios y así encontrar una tendencia. Las
personas sólo pueden reconocer patrones fáciles, como, por ejemplo, que las
Bolsas suelen subir en diciembre y caer en enero. Pero sólo el software
algorítmico es capaz de explorar los miles de interacciones que hay en los
mercados financieros", explica Manel Baucells, profesor de Análisis de
Decisiones de la escuela de negocios IESE.
El auge de las matemáticas aplicadas a los mercados también
está generado una revolución en el perfil del profesional que maneja el dinero a
invertir. Siguen predominando economistas y licenciados en Empresariales, pero
cada vez son más las ofertas de empleo para matemáticos, físicos, informáticos o
ingenieros. "Hay mucho interés por contratar a nuestros alumnos. Las empresas
llaman a la facultad para solicitar profesionales con este perfil. Antes les
bastaba con que fueran licenciados, pero ahora también quieren gente que tenga
dotes para la investigación", reconoce Enrique Oleada, profesor de Matemáticas
Financieras de la Universidad Complutense.
Al calor del uso de programas algorítmicos para invertir en
Bolsa ha surgido toda una industria. Mientras las grandes instituciones
financieras tienen sus propios departamentos de investigación para desarrollar
un software personalizado, los pequeños inversores también se pueden
beneficiar de las matemáticas gracias a los robots de alquiler. Admira
Interactive ofrece estos servicios a través de sus autómatas Alice, Bob y Carlos
2.0. Esta empresa catalana fue creada por tres investigadores que empezaron a
aplicar las matemáticas en el campo de la meteorología y ahora intentan
anticipar el devenir de la Bolsa para sus 3.000 clientes.
"Nuestro sistema inteligente aprende del pasado para ver qué
causas provocan un determinado fenómeno", comenta Xavier Orriols, portavoz de
Admira. Si un cliente quiere saber qué provoca que las acciones de Telefónica,
por ejemplo, suban o bajen, los autómatas repasan las correlaciones que tienen
las acciones de la teleco con 1.000 activos diferentes (acciones,
divisas, índices, materias primas, datos macro...) hasta hallar el patrón de
comportamiento que más se repite. "Una vez determinadas las correlaciones llega
la fase más compleja: aprender a invertir", apunta Orriols. En este paso, al
robot se le aplica la misma técnica que cuando se quiere educar a un perro: el
aprendizaje por refuerzos (recompensas o castigos). El autómata decide comprar o
vender tras repasar su historial de aciertos o errores con ese mismo patrón de
comportamiento.
"La principal ventaja de estas estrategias es que permiten
analizar un número mayor de activos y de variables que un gestor humano",
comenta Jorge Yzaguirre, director de renta variable de BME. "En cambio, su mayor
riesgo es que se basan en datos del pasado, y la realidad es cambiante, por lo
que hay que analizar continuamente el riesgo que se asume y los resultados. Los
entornos de mercados volátiles nos muestran situaciones reales que la
estadística no contemplaba".
Lo que ocurra con el dinero invertido de acuerdo con las
matemáticas no es una cuestión baladí. Su peso en los mercados es cada vez más
creciente. De hecho, la consultora TABB Group prevé que en 2010 la gestión
algorítmica supondrá el 50% del volumen de negociación en EE UU, el mayor
mercado del mundo.
Aparte de su cuestionable fiabilidad para ganar dinero en
todas las fases bursátiles, los modelos numéricos han despertado las críticas de
asociaciones de inversores minoritarios. Éstos se quejan de que los gigantes
autómatas podrían estar distorsionando el mercado al elevar los niveles de
volatilidad de los activos (se mueven en décimas de segundo y en determinados
momentos del día, principalmente en las horas previas al cierre del mercado) y
haciendo más difícil a los pequeños accionistas reaccionar al mismo tiempo que
ellos. Los defensores de los modelos matemáticos indican que su uso es positivo
para el mercado, puesto que al detectar desviaciones de la tendencia reaccionan
de forma contraria y sirven de equilibrio. Daniel Stroock, profesor del MIT, ha
publicado un reciente estudio acerca de los fondos cuantitativos y los compara a
la relación de los peces murciélagos con los arrecifes de coral. "Estos animales
no colaboran en el desarrollo de los tesoros submarinos, pero aseguran su
supervivencia al comerse las algas que amenazan con asfixiarlos", explica.
¿Llegará el momento en el que la máquina reemplace al hombre
para decidir dónde colocar nuestros ahorros? "El ordenador es una prolongación
de la manera de pensar de un gestor humano", reflexiona el astrofísico y gestor
Marcos Pérez. "Es un instrumento que aumenta el alcance de nuestro modo de
pensar y hacer las cosas. Y modos de pensar hay tantos como personas. Por lo
tanto, la respuesta correcta no sería decir que al final sólo habrá máquinas
operando en los mercados, sino que las diferentes aproximaciones que podemos
tener a las Bolsas serán más eficientes gracias a los ordenadores".
Fuente: elpais.com, 4 de Mayo de 2008
-Descubren en Argentina los restos de un
armadillo gigante
El Museo Paleontológico de la ciudad argentina de San
Pedro ha anunciado el hallazgo de restos óseos de tres ejemplares de una gran
especie de armadillo prehistórico que murieron en un pantano hace unos
800.000 años.El descubrimiento lo consiguió un equipo de trabajo del museo
en una cantera de extracción de tosca a las afueras de San Pedro, a unos 170
kilómetros al norte de Buenos Aires.
Se trata de "los primeros restos óseos conocidos hasta el momento de unos
gigantescos armadillos fósiles correspondientes a la especie denominada
'Glyptodon munizi'", informaron los descubridores en un comunicado.Los
huesos fosilizados fueron extraídos de sedimentos finamente laminados que se
habrían depositado en el fondo de un pantano que luego se secó.
Las piezas fueron recuperadas en un estrato situado a unos 15 metros bajo el
nivel actual de suelo. Hasta este descubrimiento solo se tenía la certeza de la
existencia de los 'Glyptodon munizi' por el hallazgo de partes de la
coraza que los cubría.
Los paleontólogos lograron extraer en San Pedro un
ejemplar con un 90 por ciento de su esqueleto en "óptimo estado de
preservación". Asimismo, fueron descubiertos el cráneo, la
mandíbula y fragmentos de costillas de un segundo ejemplar, y un húmero, una
escápula y algunos huesos de las extremidades de un tercer individuo.
El esqueleto más completo "presenta detalles de gran
valor científico que se desconocían en esta especie, como son un
grupo de placas óseas que le protegían la zona del vientre y una
gran cantidad de pequeños huesecillos que estaban incrustados en la piel de
los pómulos cuando el animal vivía", destacó el museo.
Estos diminutos huesos dérmicos, llamados "osteodermos",
cumplían la función de reforzar la piel ante el ataque de los
depredadores, para evitar así que fuera desgarrada.
La especie 'Glyptodon munizi' estuvo representada por
armadillos de talla gigantesca que superaban los 1.000 kilos de peso
y medían unos tres metros de longitud
Cráneo de un armadillo gigante
descubierto en Argentina
Fuente: elmundo.es, 4 de Mayo de 2008
-Tristán Guillot: puede haber sorpresas en la
detección de vida
Hace poco más de una década, la existencia de planetas fuera del Sistema
Solar sólo era un planteamiento teórico para los astrónomos o material de
inspiración para los autores de ciencia-ficción. La situación cambió en
1995, cuando los suizos Michel Mayor y Didier Queloz anunciaron el
descubrimiento del primer planeta extrasolar. Desde entonces, se han encontrado
más de 300 y el hallazgo de un nuevo exoplaneta ha dejado de ser algo
extraordinario. Ahora, el objetivo de los astrónomos es comenzar a conocer
de verdad esos cuerpos (de la mayoría de ellos se sabe poco más que su
localización y su tamaño) y, en último término, encontrar vida.
Encontrar un planeta extrasolar es ya algo bastante
común. ¿Cuáles son ahora los retos para los buscadores de exoplanetas?
Por una parte, queremos descubrir un gran número de planetas, porque así, con
una muestra más grande que la que tenemos, podremos comprender en qué
condiciones se formaron, si eso sucedió cerca o lejos de la estrella... y
entender así los problemas en su formación.
Por otra, trataremos de caracterizarlos mejor, estudiar su atmósfera y saber
de qué están hechos. Y por último, intentaremos descubrir planetas más pequeños,
que por ahora son muy difíciles de localizar. Querríamos hallar los más
parecidos a la Tierra, para después estudiar su atmósfera, observar si contiene
agua líquida y ver si en ella hay señales de vida.
Con las técnicas actuales y considerando las
condiciones más favorables, ¿qué se puede llegar a saber hoy sobre un planeta
que se encuentra a años luz del nuestro?
Al principio, cuando se descubrieron los primeros planetas, sólo se podía
tener una idea de su masa. [Éstos se encontraron con observaciones indirectas,
estudiando las anomalías que causan en los movimientos de su estrella].
Después, con el sistema de tránsitos [observando los ligeros oscurecimientos
que produce en el disco de una estrella el paso frente a ella de un planeta que
la órbita] fue posible, cuando la luz de la estrella atraviesa la atmósfera del
exoplaneta, mirar a diferentes frecuencias de luz para identificar distintos
componentes químicos en su atmósfera.
Así se pudo identificar la presencia de sodio en uno de ellos, un elemento
raro, pero que absorbe mucha luz. Después hemos llegado a descubrir moléculas,
como el agua o el metano. Y gracias al telescopio Spitzer, que trabaja en
infrarrojo y ve el calor emitido por el planeta, ha sido posible ver la
circulación atmosférica de éste.
De esta manera hemos sido capaces de comprender la meteorología de algunos
planetas extrasolares. Los instrumentos actuales tienen tan buenas prestaciones
que podemos medir una estrella que se encuentra a cientos de años luz y que se
desplaza a sólo unos pocos metros por segundo, la velocidad a la que una persona
se desplaza por la calle.
De los más de 300 planetas extrasolares
conocidos, ¿de cuántos se puede llegar a lograr ese grado de conocimiento?
Hay unos 40 conocidos por tránsitos y entre estos hay tres o cuatro de los
que se han podido hacer medidas adicionales: detectar un elemento en la
atmósfera, las diferencias de temperatura entre el día y la noche o la
meteorología.
¿Y detectar vida?
Aún no somos capaces. De momento sólo encontramos planetas gigantes y que
están muy cerca de su estrella. En la mayor parte de casos la orbitan en unos
pocos días y están más cerca de ellas que Mercurio del Sol. Esperamos que con
nuevas misiones, como el satélite COROT, sea posible descubrir los más alejados
que estén en tránsito con sus estrellas. Así podremos observar objetos más
parecidos a los que encontramos en el Sistema Solar.
Sin embargo, para detectar indicios de vida, como la Tierra, serán necesarios
instrumentos más potentes, ir al espacio y tener varios telescopios juntos. No
obstante, lo que nos ha enseñado el descubrimiento de exoplanetas es
precisamente que hay muchas sorpresas.
No pensábamos que seríamos capaces de estudiar la atmósfera de un exoplaneta
apenas una decena de años después del descubrimiento del primero porque creíamos
que necesitaríamos una tecnología muy superior.
Hay planetas que son como una especie de piedra Rosetta, que nos permitirían
recoger más información sobre otros y saltar etapas.
¿Cuándo cree que podrá detectarse vida en alguno de
ellos?
Espero que podamos descubrir planetas más parecidos al nuestro en los
próximos años y después, en unos 10 años, caracterizar algunos con agua líquida
en la superficie, algo que es posible que ya exista en los identificados hasta
ahora.
La detección de marcas de vida, como una atmósfera fuera de equilibrio que
indica que hay unos procesos biológicos que mantienen la atmósfera en ese
estado, requerirá quizá 20 años, pero es posible que tengamos sorpresas.
¿Es el Sistema Solar una rareza dentro del
Universo?
Cuando se descubrió el primero, uno gigante que estaba más cerca de su
estrella que Mercurio, nos quedamos muy sorprendidos. Creímos incluso que los
autores habrían cometido algún error, porque teníamos una idea sobre la
formación de planetas con nuestro sistema solar como modelo.
Pensábamos que debería haber planetas rocosos como la Tierra próximos a la
estrella y más lejos, donde el hielo se puede condensar, los planetas gigantes.
Pero no era así. Nos hemos dado cuenta de que, como se había predicho a finales
de los 70, los planetas, aunque se hubiesen formado lejos de su estrella, podían
después migrar, acercarse a ella e incluso caer sobre ella.
Entre los planetas extrasolares se han encontrado algunos con comportamientos
muy poco habituales…Hay muchos sistemas muy exóticos. Tenemos planetas que
tienen órbitas muy elípticas, como los cometas. Esto no sucede en el sistema
solar, donde son más circulares. También hay planetas como los tres descubiertos
en 1992 girando en torno a una estrella muerta.
¿Cuáles son los próximos pasos en el estudio de
exoplanetas?
Uno de ellos es continuar descubriendo exoplanetas para tener una estadística
importante. Hemos encontrado más de 300, pero estaría bien tener varios miles o
decenas de miles para caracterizarlos y ver su tamaño. Esto nos permitiría saber
dónde se forman.
Fuente: publico.es, 3 de Mayo de 2008
-Confirmada la existencia de un nuevo
tipo de estrella
Científicos estadounidenses confirmaron hoy la existencia de un nuevo tipo de
estrella en la constelación de la Osa Mayor, a unos 600 años luz de la Tierra.
En un informe publicado en la revista Astrophysical Journal Letters,
los astrónomos de la Universidad de Texas, Michael Montgomery y Kurtis Williams,
señalaron que la existencia de ese cuerpo fue confirmado mediante el telescopio
Otto Struve, en el Observatorio McDonald de esa universidad.
La nueva estrella ha sido llamada "enana blanca de carbono pulsante" y es la
primera de la nueva clase de enanas blancas descubierta en más de 25 años.Debido
a que la mayoría de las estrellas, incluyendo nuestro Sol, mueren como enanas
blancas, el estudio de sus pulsaciones (destellos de luz) de estos nuevos
cuerpos da a los astrónomos una forma de calcular su lapso de vida y determinar
su estructura.
En general, las enanas blancas son restos de una estrella similar al Sol que
han agotado todo el combustible nuclear de su núcleo y son extremadamente
densas.
Hidrógeno y helio
Hace un año astrónomos de la Universidad de Arizona descubrieron un tercer
tipo de estrellas que han perdido su cubierta de hidrógeno o de helio y que se
les denomina "enanas blancas de carbono candente".Aun cuando todavía no han
logrado comprobarlo, los científicos creen que éstas serían las enanas blancas
más grandes del universo.
Tras el anuncio, Montgomery decidió verificar su existencia a través de las
pulsaciones que son cruciales para determinar lo que ocurre en su interior, de
la misma forma en que las ondas sísmicas muestran lo que ocurre en el interior
de la Tierra.
Fuente: EFE, 2 de Mayo de 2008
-El cambio climático
crea desiertos en los océanos
Los desiertos no sólo se expanden
por la tierra firme, también están formándose en el fondo de los océanos a causa
del calentamiento climático. La culpa: la disminución de la concentración de
oxígeno en grandes áreas submarinas, lo que dificulta la supervivencia de
muchas especies, y la pesca.
La confirmación de este desastre medioambiental la ha
realizado un equipo de científicos de la Universidad de Kiel, en Alemania,
dirigidos por Lothar Stramma. Stramma y sus colegas han elaborado una serie
cronológica sobre la concentración de oxígeno que hubo en los
últimos 50 años en regiones tropicales de los oceános.
Fue así como han identificado las zonas de oxígeno
mínimo (también llamadas hipóxicas)en grandes áreas marinas. En concreto
comprobaron que en el Pacífico ecuatorial y en el Atlántico tropical, en la
capa que va de los 300 a los 700 metros de profundidad, la
diminución del oxígeno es de 0,09 a 0,34 micromoles (unidad de
cantidad en química) por cada kilo en un año.
«Estos niveles reducidos afectan a procesos
biogeoquímicos marinos y tienen importantes impactos en los ciclos de
nitrógeno y carbono», señalan los investigadores en el trabajo que hoy
publican en la revista 'Science'.
Señalan, asimismo, que las concentraciones de
oxígeno son muy sensibles a los cambios en los flujos entre el mar y el
aire, por lo que el oxígeno disuelto es un buen parámetro para entender el
papel del océano en el clima. «Los grandes organismos marinos sufren
tensiones muy graves o mueren en condiciones de oxígeno por debajo
de los 60 a 120 micromoles por kilo, un margen que varía en función de las
especies», explican los autores. No es la primera vez que ocurre esta
reducción del oxígeno oceánico, como recuerda el equipo de Stramma.
En el Cretácico hubo ya este tipo de alteraciones.
Submarinista estudiando el blanqueamiento
de corales
Datos dispersos
Incluso hubo una época, hace 251 millones de años, en
la que el océano era anóxico, es decir, sin nada de oxígeno. Curiosamente, en
ese mismo periodo hubo también grandes concentraciones de dióxido de
carbono en la atmósfera y se produjeron extinciones masivas tanto en la
tierra como en los mares. La realización del estudio no ha sido fácil, debido a
que los datos históricos de los que disponían eran muy escasos. Sin embargo,
ahora hay en los oceános unos flotadores, los Argo, que proporcionan valiosa
información sobre los perfiles de oxígeno en todos los mares del planeta.
«Estas tendencias afectan a los ecosistemas y a
las industrias pesqueras, que deberán cambiar su gestión para hacerla
sostenible», aconsejan los expertos.
Fuente: elmundo.es, 2 de Mayo de 2008
-Diseñan la primera nave espacial privada
rusa para turistas cósmicos
Una compañía privada rusa ha encargado el diseño de un
cohete planeador espacial para turismo cósmico, informó hoy el servicio de
prensa de la Planta experimental "Miasischev".
"Nuestra empresa ya trabaja en ese diseño y la
respectiva documentación, y concluye el cálculo de la viabilidad técnica y
económica del proyecto", dijo un portavoz de la planta a la agencia Interfax.
La fuente indicó que la financiación del proyecto corre
a cargo de una compañía privada rusa, cuyo nombre eludió precisar. Explicó que
la nave espacial será instalada encima de un avión de transporte que la elevará
a la altura de varias decenas de kilómetros, donde se desprenderá para iniciar
un vuelo autónomo.
Con ayuda de sus propulsores, la nave subirá a la
altura de unos cien kilómetros, donde se termina la atmósfera terrestre, y
empezará a planear haciendo que sus pasajeros experimenten el estado de
ingravidez. La nave, de unas 27 toneladas de peso, estará calculada para dos
pilotos y 14 pasajeros, aunque en el futuro el número de turistas podrá
aumentar. En calidad de aviones portadores se prevé utilizar los dos aparatos de
transporte pesados 3M-T disponibles en Rusia y fabricados en base a un modelo de
bombardero estratégico.
Fuente: adn.es, 1 de Mayo de 2008
-La ciencia, vista desde el
cielo
El mes pasado, investigadores de la
universidad pública de La Rioja, Argentina, descubrían un importante yacimiento
Arqueológico gracias a
Google
Earth (GE), la popular herramienta del buscador
de Internet, disponible desde febrero de 2005. No es un hecho aislado. El uso
con fines científicos de GE es cada vez más habitual en diferentes campos de
investigación.
Según Clara Rivera, responsable de
Marketing de
Google en España, las
aplicaciones científicas de GE son muchas, "todas las que tengan algún
componente de referencia cartográfica", desde estudios de biodiversidad hasta
proyectos urbanísticos.
Desde la comodidad de un despacho
se pueden descubrir barreras de coral en zonas remotas del litoral
australiano, controlar on-line la actividad volcánica, incluso ver en tiempo
real la actividad sísmica en el planeta o el estado de los glaciares. Todo
esto es posible gracias a los archivos KML (Keyhole Markup Language), con
los que se integran en una capa, por ejemplo, los datos de cada volcán,
otorgando a cada uno un icono que lo sitúa e identifica en función de su
actividad. Los archivos KML hacen posible que científicos de todo el mundo
puedan disponer, en tiempo real, de infinidad de datos de su campo de
investigación y otros relacionados, aportados por colegas o el resto de
usuarios, que también pueden acceder a esa información.
"Existe una comunidad de Google
Earth donde los científicos comparten su trabajo", señala Clara Rivera. Es
el caso del Dr. Mark Mulligan, del departamento de Geografía del King´s
College de Londres, que asegura en el foro de la comunidad que muchos
científicos utilizan GE para publicar su información, lo que la hace más
comprensible y accesible al público en general.
Google Earth se convierte así no
sólo en un medio para investigar, sino también en una nueva manera de
transmitir los avances científicos a la sociedad. "Ha revolucionado la forma
de ver muchos resultados, y es especialmente útil en transferencia de
conocimiento", afirma Joaquín Tintoré, investigador del
CSIC
en el IMEDEA (Instituto Mediterráneo de Estudios Avanzados), que destaca
además lo útil que es para el desarrollo de herramientas con base científica
de apoyo a la toma de decisiones para frenar el cambio climático, por
ejemplo.
Documentación y docencia
En España son muchas las instituciones
y científicos que utilizan Google Earth, como el Instituto de Oceanografía
Física, que está simulando vertidos de hidrocarburos en las costas gallegas. En
la Universidad Complutense de Madrid se utiliza en investigación sobre Historia
Contemporánea en la Facultad de Geografía e Historia, como documento
cartográfico y territorial de referencia en la Facultad de Ciencias Geológicas,
o para la docencia e investigación, como hace Mª Eugenia Pérez González,
profesora titular de Geografía Física. "En la asignatura de climatología
necesito muchas veces localizar diferentes regiones del planeta, para lo cual
esta página es muy adecuada.
Igual sucede con la investigación
climática, en la que, en numerosos casos, necesito conocer los lugares sobre los
que analizamos otras variables. Para mí son muy útiles también las herramientas
para medir distancias, la escala, la altitud de la imagen y las numerosas
conexiones que existen a Internet", asegura Pérez González.
De forma personal, investigadores,
estudiantes y particulares le dan también un uso científico a Google Earth.
Algunos alumnos de doctorado de la Universidad Autónoma de Madrid lo utilizan
para delimitar el territorio sobre el que realizan sus estudios. Miguel de las
Doblas, geólogo estructural y geodinámico del Museo Nacional de Ciencias
Naturales, opina que GE es una herramienta "extraordinaria" para los geólogos,
pero también explica que todavía no se ha incorporado "como tal en la
cartografía geológica oficial en nuestro país".
Se están localizando
estructuras de impacto de meteoritos en diferentes lugares.
No obstante, él lo utiliza a menudo.
"Con GE he encontrado muchas fallas y pliegues espectaculares en España, en
zonas donde ya existe una cartografía geológica reciente y de detalle y que no
refleja su existencia", comenta, y añade que gracias al programa se están
localizando posibles estructuras de impacto de meteoritos en muchos lugares de
la Tierra, que posteriormente requerirán un estudio sobre el terreno.
Pinos y aire
Fuera de nuestro país hay otros muchos
proyectos. Uno de ellos es el del Departamento de Ecología y Biología Evolutiva
de la Universidad de California, que utiliza Google Earth en una investigación
sobre los pinos de bristlecone, los seres vivos más antiguos de la tierra (se
puede consultar el archivo KML en la página principal de Google Earth
Solidario). Otro proyecto muy interesante es el de la Agencia de Protección
Medioambiental de Estados Unidos (EPA, Environmental Protection Agency en
inglés) que utiliza Google Earth como un sistema de detección de la calidad la
del aire. Mediante un archivo KML que sigue la pista de las fuentes de emisión,
el programa ofrece un listado de empresas que arrojan a la atmósfera gases
nocivos. También se recogen los historiales ecológicos de las mismas.
Con poco más de tres años de
existencia, Google Earth se ha convertido en una nueva herramienta para la
ciencia y, aunque es la más popular, no es la única. Según la opinión de la
mayoría de investigadores y docentes consultados, su uso se extenderá todavía
más y más por las muchas y amplias posibilidades que ofrece.
Google también en el océano
Google podría estar preparando un sistema de navegación
similar a Google Earth pero para el mar. Según cuenta el sitio de noticias
News.com , el futuro
‘Google Ocean' ya está en desarrollo, si bien en una fase muy temprana. La
compañía ha reunido un grupo de expertos en oceanografía y, en diciembre pasado,
invitó a investigadores y oceanógrafos de todo el mundo a Googleplex, la sede
del buscador en Mountain View (EEUU), para idear sistemas que permitan la
creación de un mapa del mar en 3D.
Como las versiones Earth y Sky, la Ocean permitirá
navegar por debajo del mar, observar su batimetría (versión marina de la
topografía) o detenerse en lugares concretos. Google no ha querido confirmar lo
contado por News.com. La mayor extensión de la superficie marina y la escasez de
material previo son los principales problemas con los que se enfrenta.