Inicio

 

Ya puedes DESCARGAR todos nuestros PROGRAMAS DE RADIO "EL ALEPH" en la Sección NOSOTROS-PROGRAMACIÓN--

 

NOTICIAS CIENTÍFICAS


 Agosto 2011

TITULARES DE LAS NOTICIAS DEL MES

 

Diseñan las primeras plantas de energía nuclear para futuras bases en la luna y Marte

La estación espacial podría quedarse sin astronautas

Química de película

Google retrasa su llegada a Europa

Los neandertales mejoraron al ser humano no africano

Detectada una explosión estelar cercana a la Tierra

Morir en forma de diamantes

Rusia aplaza hasta septiembre el lanzamiento de la próxima Soyuz

El 90% de la vida está por descubrir

El futuro telescopio espacial James Webb peligra por su elevado coste

China quiere desviar un asteroide cercana a la Tierra

La anguila más vieja del mundo

Encuentran el ADN común entre medusas y humanos

Street View llega al Amazonas

Las emisiones radiactivas de Fukushima se reducen un 80%

La Luna rejunvenece 200 años

"El cuerpo se conectará a internet"

Un sistema evalúa la restauración forestal

100 años de física nuclear: de la galleta de electrones a la sopa de quarks

Descubren los grupos de galaxias más alejados

"Opportunity" llega a un gran cráter de Marte

El mono que cruzó el estrecho a Europa

La carrera para perforar Marte

Comienzan a tratar agua radiactiva en Fukushima mediante evaporación

Internet se queda con tu cara

Las primeras fotos de la Tierra cumplen 50 años

Juno, la nave que desnudará Júpiter

Un impacto formó las montañas de la cara oculta de la Luna

"Negros" , mentiras y artículos científicos

Hallado el cráneo del "matusalen" primate

Polémica en la Estación Espacial

La NASA desvela la primera fotografía de Vesta

La desobediencia civil alcanza a la publicación de estudios científicos

 

Archivo


-Diseñan las primeras plantas de energía nuclear para futuras bases en la luna y Marte

La reunión de la Sociedad Americana de Química, que se ha celebrado este fin de semana en la ciudad norteamericana de Denver (Colorado), ha convertido a Marte y la Luna en el centro de todas las miradas.

Varios equipos científicos han centrado sus exposiciones en el planeta rojo, y mientras unos quieren llevar mini-centrales nucleares a tan larga distancia, otros plantean soluciones al problema de la alimentación en un astro que está yermo, aunque pueda haberse encontrado agua helada.

El responsable del proyecto anunció que las primeras plantas de energía nuclear para los futuros asentamientos en la Luna y en Marte ya están en camino. James Werner, director del Laboratorio Nacional de Idaho del Departamento de Energía (DOE), y su equipo tienen previsto tener una demostración para principios de 2012.

Producción de electricidad

La construcción de estas plantas serviría para producir la electricidad que necesitarían las bases permanentes- habitadas o no- en la Luna, en Marte y en otros planetas a los que pudieran llegar las naves espaciales en un futuro.

Se trata de un proyecto conjunto entre el Departamento de Energía (DOE) y la Agencia Espacial Estadounidense (NASA), que se ha marcado como nuevos retos llegar a un asteroide en 2025 y a Marte en 2030.

Según explicó Werner, las nuevas tecnologías de fisión para la aplicación de energía a ese tipo de superficies son muy diferentes de las estaciones de energía nuclear en la Tierra tal y como las conocemos, que necesitan grandes espacios por sus dimensiones y sus grandes estructuras como las torres de refrigeración.

"La gente nunca reconocería el sistema de energía de fisión (en Marte o en la Luna) como un reactor de energía nuclear", aseguró Werner.

El sistema de fisión

El científico explicó que el sistema podría tener aproximadamente 30,5 centímetros de ancho por 61 de alto, "aproximadamente el tamaño de una maleta de mano" y no necesitaría torres de refrigeración.

Werner afirmó que "un sistema de energía de fisión es una unidad compacta, fiable y segura que puede ser fundamental para la creación de bases o hábitats en otros planetas".

Las células de la luz del Sol y el combustible fueron los pilares para la generación de electricidad para las misiones espaciales hasta ahora pasado, pero los ingenieros han indicado que la energía solar tiene sus limitaciones. Las células solares funcionan bien en las órbitas terrestres cercanas pero los expertos aseguran que la energía nuclear ofrece algunas características únicas que podrían apoyar las bases espaciales.

Ventajas de los reactores nucleares

"La mayor diferencia entre los reactores de energía solar y la nuclear es que los reactores nucleares pueden generar energía en cualquier ambiente", explicó Werner.

"La tecnología de fisión nuclear no depende de la luz solar, por lo que es capaz de producir grandes cantidades constantes de energía durante la noche o en entornos hostiles como los que se encuentran en la Luna o Marte", aseguró.

Como ejemplo señaló que un sistema de energía de fisión en la Luna podría generar 40 kilovatios o más de energía eléctrica, aproximadamente la misma cantidad de energía necesaria para alimentar ocho casas en la Tierra. Werner aseguró que la tecnología está "madura" para conseguir un logro así a un precio "asequible" y esta tecnología proporcionaría energía a los astronautas en todo tipo de medioambiente de manera "segura".

"La tecnología de fisión nuclear se puede aplicar en la Luna, en Marte, o donde la NASA necesite energía continua", aseguró Werner.

Fuente: elmundo.es, 31-8-11

-La estación espacial podría quedarse sin astronautas

Los fallos que se han producido en los últimos lanzamientos de vuelos no tripulados han llevado a la agencia espacial rusa, Roscosmos, a paralizar sus planes, lo que podría dejar a la Estación Espacial Internacional (ISS) sin ocupantes por primera vez en su historia.

El detonante fue el accidente sufrido por el carguero no tripulado Progress M-12M, que se estrelló la semana pasada en Siberia, tras sufrir un fallo en el cohete propulsor Soyuz-U, similar al utilizado para el lanzamiento de vuelos tripulados.

La misión de relevo de los actuales tripulantes de la estación, prevista para el próximo 22 de septiembre, ha sido cancelada y aún no tiene fecha definitiva, dado que la NASA y Roscomos han acordado retrasar todos los lanzamientos hasta que se identifique la causa del accidente.

Si la comisión encargada de la investigación no aclara sus causas antes de noviembre, los seis tripulantes de la ISS tendrán que hacer uso de las cápsulas de emergencia Soyuz para volver a la Tierra, dejando la estación sin ocupantes por primera vez en sus diez años de historia.

 

Fuente: publico.es, 30-8-11

-Química de película

De 'El doctor Frankenstein' a 'Armageddon', pasando por 'Matrix'... Y para los adictos a las series: 'CSI', 'Bones' o 'Navy'. El cine siempre se ha valido de la ciencia, y los científicos de la gran pantalla (y de la pequeña) para la divulgación de sus conocimientos. Tal vez por ello llama la atención que en este Año Internacional de la Química, guionistas y productores hayan querido estrechar aún más sus lazos con los investigadores. Y lo han hecho durante la celebración en Denver (EEUU) de la Reunión Nacional y Exposición de la Sociedad Americana de Química (ACS, sus siglas en inglés).

El acercamiento se ha producido durante un simposio: 'La ciencia sobre la Pantalla de Hollywood'. En él, una de sus coorganizadoras, Nancy Jackson, del Instituto de Tecnología de Massachusetts, ha reconocido que la serie 'CSI' es un gran ejemplo de cómo un espectáculo sumamente popular puede ser divertido y, a la vez, hacer la ciencia más comprensible para el público.

"Las personas que hacen programas de televisión y films "realmente están interesadas en presentar la ciencia con exactitud. Por este motivo han estado animando a los científicos para que se conviertan en sus asesores técnicos. Así me ocurrió a mí y ha sido muy gratificante colaborar en el capítulo 'Breaking Bad' de la serie 'CSI'", testifica la experta.

En declaraciones a ELMUNDO.es, la científica estadounidenses admite: "Esperamos construir puentes entre Hollywood y los científicos. Esperamos mejorar la frecuencia con la cual la ciencia, exacta o razonable, es retratada en películas y televisión. Pero, sobre todo, deseamos que los científicos colaboren más con el cine, así como que los productores vengan a conocernos mejor y ofrezcan una mejor percepción de quiénes somos al público".

 

Fotograma de la serie 'Bones'. | El Mundo

Gerardo Ojeda, vicepresidente de la Asociación Española de Cine e Imagen Científicos (AECIC), defiende que el escenario ideal "sería la estrecha colaboración de ambos grupos profesionales, pero todavía quedan obstáculos por resolver. En muchas ocasiones la dificultad reside en que los guionistas y productores desean 'rebajar' el contenido científico para hacerlo más accesible a la población y este interés choca con los profesionales de la ciencia que temen que se desvirtue su mensaje y carezca de rigor".

Manuel Moreno Lupiáñez, del departamento de Física e Ingeniera Nuclear, de la Universidad Politécnica de Cataluña y autor de varios artículos y libros sobre la ciencia y el cine, reconoce que el simposio es "una magnífica iniciativa. En los últimos años han aparecido algunos libros tanto en EEUU como en España que analizan la ciencia y la tecnología de los filmes (no sólo de Hollywood), en concreto aspectos de Física, Matemáticas y Biología. Faltaba profundizar en otras disciplinas, como la Química. Y este es el caso de este congreso. Este nuevo encuentro de la ficción y la ciencia, que tanto interés despierta, puede ayudar a aumentar el bagaje cultural de la ciudadanía".

Para este experto, el encuentro entre, "científicos productores, guionistas y personas del universo cinematográfico y televisivo, responsables de series y filmes de éxito con contenido tecnocientífico (CSI, Battlestar...) es una buena mezcla que dará lugar, seguro, a nuevas ideasque se plasmarán en futuras producciones. Y al revés, puede ser también que algunas ideas de la ficción sirvan de acicate para la mente despierta de los científicos".

Mundos compatibles

El profesor Moreno reconoce que "ciencia y cine comparten dos aspectos: especulación y sentido de la maravilla. No son (no deberían ser) mundos antagónicos. El cine no es, ni lo pretende, un medio de divulgación y comunicación de la ciencia. Tiene su propio lenguaje. Pero cuando presenta aspectos de ciencia y tecnología (tecnociencia) no estaría de más exigirle, como espectadores (y consumidores de esa industria del espectáculo), cierta rigurosidad. Nadie toleraría, por ejemplo, que en un filme histórico de romanos (un péplum) estos apareciesen con teléfones móviles".

Aaron Thomas, guionista y productor de la serie 'CSI Nueva York', defiende que para los "guionistas que no tienen algunos conocimientos científicos, la investigación es esencial. Dedicamos mucho tiempo a asegurarnos que las historias que contamos conectan con la realidad. Esto incluye los aspectos científicos y forenses que mostramos. Muchas de las historias que divulgamos se basan en casos actuales. Para ello contamos con asistentes que cotejan sus ideas con lo publicado en las revistas científicas con el fin de ser lo más exactas posibles. A menudo, los episodios arrancan con misterios de ciencia muy interesantes".

"La colaboración de científicos expertos en el tema que se trate en el filme mejora la verosimilitud del mismo. Pero, también, permite el aumento de la cultura tecnocientífica de los espectadores y la ciudadanía en general lo que ayudaría a forzar a los directores a realizar filmes más rigurosos. No es cierto que el rigor (que exige la ciencia) y la amenidad (que impone el séptimo arte) deban estar reñidos. Ejemplos de series como CSI son una buena muestra", determina Manuel Moreno.

Defiende, además, que series como "CSI o Bones, de temática policíaca, han conseguido introducir la tecnociencia de la disciplina forense y de la ciencia criminalística en la estructura que sostiene al argumento. Claro que hay concesiones al medio: el caso debe resolverse en los 30 o 45 minutos que dura el episodio y por eso algunos de los test que aparecen (espectrógrafos de masas, pruebas de ADN, etc.) funcionan de manera instantánea, muy diferente de la realidad donde estas técnicas necesitan cierto tiempo para dar sus resultados", agrega.

Por este motivo, Nancy Jackon recuerda que "los científicos tienen que ser flexibles y recordar que la ciencia al completo no siempre puede estar presente en las películas, su objetivo es atraer, entrentener. Se realizan pensando en la audiencia".

Fuente: elmundo.es, 30-8-11

-Google retrasa su llegada a Europa

La semana pasada los analistas comenzaron sus a mostrar sus reticencias sobre el éxito del servicio de televisión online de Google. Google TV es un aparato que se conecta al televisor o que viene directamente en algunos dispositivos de Sony.

Los dos fabricantes del producto, Sony y Logitech no han registrado ventas notables de este aparato que parece una mezcla de mando a distancia con teclado y decodificador al uso. En su presentación en septiembre del año pasado Eric Schmidt, entonces consejero delegado de Google, explicó que llegaría a Europa a finales de 2011. En febrero, durante el congreso de móviles de Barcelona, confirmó la fecha en una entrevista a EL PAíS.

Sin embargo, este plazo a ha dejado de ser fiable. Schmidt ha explicado en el Festival de Televisión de Edimburgo, que la televisión online de Google se estrenará en Europa, prioriotariamente en Reino Unido a comienzos de 2012.

Desde su estreno esta combinación de contenido web y televisión online no ha tenido gran aceptación del público. Logitech, por ejemplo, ha tenido que bahar el precio a 99 dólares (unos 68 euros) en julio de un aparato cuyo precio sugerido al salir al mercado era de 299 dólares (unos 205 euros).

Con Google TV el gigante de las búsquedas replica el modelo de Apple TV, el videclub de la manzana. La diferencia más sensible es que contará con una mejor integración de YouTube, así como contenidos a 1080 píxeles, por encima de los 720 que presenta de Apple.

Fuente: elpais.com, 29-8-11

-Los neandertales mejoraron al ser humano no africano

Los neandertales, esos cercanos primos de la especie humana moderna que dejaron de existir hace 28.000 años, mejoraron la genética de los 'Homo sapiens' una vez que estos últimos salieron de África. Así se demuestra en un artículo, publicado esta semana en 'Science, en el que los autores han logrado identificar varios genes y regiones el ADN que furon aportados por los neandertales al sistema inmune que aún tenemos.

El estudio, dirigido por Peter Parham, de la Universidad de Stanford, ha sido posible una vez que se conocen los genomas tanto de los neandertales (homínidos que evolucionaron en Eurasia hace medio millón de años) como los denisovanos (una especie humana recién descubierta en Siberia, que habría poblado Asia y procedería de la misma rama evolutiva que los neandertales).

Investigaciones previas ya habían señalado que el cruce entre las tres especies humanas que compartían el planeta hace más de 60.000 años, se produjo en Eurasia, razón por la cual se identificó un 2,5% de ADN neandertal (de media) en todos los no africanos. También se detectó parte de ADN denisovano en poblaiones asiáticas, sobre todo de Melanesia, donde el porcentaje de ADN ancestral asciende a casi el 6%.

Pero se pensaba que es aportación de seres menos evolucionados no habría sido importante, algo que desmiente ahora el estudio. Los investigadores se centraron en el sistema inmune (conocido como HLA), porque está sometido a la presión de las enfermedades y muta con facilidad. Sospechaban que una parte podía venir de homínidos primitivos, dado que no eran habituales.

La comparación de secuencias genómicas les dió la razón: había varios genes en el HLA (como el B*51 o el C*07) que eran propios de la evolución de los neandertales y habían pasado a las poblaciones de humanos modernos, y lo mismo pasaba con una región llamada 'HLA class I'. Los porcentajes de presencia entre los europeos era de un 50%, los asiáticos un 80%, los de Papúa Nueva Guinea hasta un 95%, pero no estaban en los africanos.

 

Mapa mundi con el porcentaje de herencia neandertal. De azul a rojo, de menos a más.|Science

 

Genes de los denisovanos

También encontraron dos genes que son propios del genoma de los denisovanos (la única especie descrita con un trozo de dedo y un diente) que están presentes en los asiáticos, sobre todo del oeste, pero que no aparecen en el genoma de los nacidos en África.

La conclusión, indican los autores, es que "el mestizaje con otras especies mejoró a los humanos modernos". Así lo cree también Carles Lalueza-Fox, del CSIC, que ha secuenciado ya varios genes de neandertal: "Estos humanos se adaptaron durante cientos de miles de años a un entorno, en Eurasia, y crearon defensas inmunológicas frente a patógenos locales que luego se extendieron entre los humanos modernos".

Para los investigadores de Stanford se trata de un claro ejemplo de selección natural: aquellos que portaban los genes protectores, es decir, procedían de la hibridación con los neandertales, sobrevivieron en mayor medida que quienes no los tenían.

Lalueza-Fox, por su parte, indica que "pudo deberse al azar y luego se expandió a medida que aumentaban las poblaciones".

Fuente: elmundo.es, 29-8-11

 

 

-Detectada una explosión estelar cercana a la Tierra

Un equipo de astrónomos ha conseguido observar una supernova apenas unas horas después de que esta se haya producido. Se trata de la explosión estelar más energética de los últimos 30 años y de una de las más cercanas a la Tierra, a una distancia de 21 millones de años luz.

Secuencia en la que se ve la aparición de la supernova.

 

 

La supernova fue observada por un equipo de astrofísicos del Laboratorio Nacional Lawrence Berkeley (EEUU). "La detectamos poco después de que se produjera la explosión", afirmó Peter Nugent, investigador del laboratorio de Berkeley. "Está aumentando de brillo a cada minuto y ya es 20 veces más luminosa que ayer", aseguró.

La observación de una supernova al poco tiempo de producirse ofrece un escenario único para los astrofísicos, con lo que los observatorios de medio mundo han dirigido sus telescopios hacia el preciado evento. Entre ellos se encontraban los telescopios del Observatorio del Roque de los Muchachos, situado en la isla canaria de La Palma. Tan sólo tres horas después de que los investigadores de Berkeley realizaran la observación, los telescopios canarios ya habían conseguido identificar el espectro, algo fundamental para determinar el tipo de supernova con el que están tratando. Ha sido catalogada como una de tipo Ia.

Este tipo de fenómenos es uno de los más energéticos que tienen lugar en el universo y se produce en un sistema binario de estrellas, formado por una gigante roja y una enana blanca. Las capas exteriores de la gigante roja son absorbidas por la enana blanca aumentando la masa de esta última. Llegados a un punto, la acumulación de masa es superior a lo que la enana blanca puede soportar y termina por colapsar, produciendo una enorme explosión.

Debido a su cercanía, la supernova podrá ser observada durante los próximos días utilizando unos prismáticos desde cualquier punto del hemisferio norte. El evento ha tenido lugar en la galaxia spiral M101, conocida como galaxia del molinete, que se encuentra a la altura de la Osa Mayor.

Fuente: publico.es, 27-8-11

-Morir en forma de diamantes

Hace ya algunos años, una empresa del sector funerario incluía en su catálogo la posibilidad de convertir las cenizas de un difunto en un diamante. Esta curiosa iniciativa ha encontrado un símil cósmico gracias a las observaciones de un equipo internacional de astrofísicos. Los investigadores han descubierto una estrella que, tras su muerte, ha terminado convertida en una diamante de proporciones planetarias.

La realidad, según explican los autores del estudio, publicado en Science, es que este planeta no es más que el resultado de "un conjunto de circunstancias especiales que han permitido a una estrella convertirse en un planeta exótico", afirman. Los investigadores se encontraban observando un púlsar localizado en la Constelación de la Serpiente, situada dentro de la Vía Láctea, a unos 4.000 años luz de la Tierra.

Este tipo de objetos no son más que estrellas de neutrones, otro tipo de cadáver estelar, que giran a una velocidad de varios cientos de vueltas por segundo y emiten pulsos en radio. Al analizar la señal emitida por dicho objeto, los científicos advirtieron que existía una pequeña anomalía que se repetía de forma sistemática y concluyeron que se debía al efecto de otro objeto que orbitaba alrededor del púlsar, formando lo que se conoce como sistema binario.

Los astrofísicos asumen que la mayor parte de estos púlsares han ganado la energía que les permite girar a mucha velocidad gracias a una estrella, compañera de la que absorben materia. De esta forma, el sistema más habitual es el formado por un púlsar y una enana blanca. Así que, teniendo en cuenta que el púlsar, de apenas 20 kilómetros de diámetro y más masivo que el Sol, posee un campo gravitatorio muy intenso, los investigadores concluyeron que el planeta de diamante no era sino el remanente de una estrella muy masiva cuyas capas externas fueron devoradas por el propio púlsar.

 

Recreación del planeta diamante orbitando en torno al púlsar.-Universidad Tecnológica de Swinburne

Del análisis de la señal, los científicos dedujeron que este remanente orbitaba a gran velocidad en torno al púlsar y debía de tener un diámetro cinco veces mayor que el de la Tierra, pero con una densidad mucho mayor. "Este último dato fue crucial y nos dio pistas sobre la historia del planeta", afirma Matthew Bailes, científico de la Universidad Tecnológica de Melbourne (Australia) y responsable de la investigación. Teniendo en cuenta la elevada densidad del planeta y sabiendo que las enanas blancas están compuestas esencialmente por carbono, Bailes afirma que, "seguramente, el material habrá cristalizado, es decir, se ha convertido en un diamante".

El investigador reconoce que el proceso sufrido por la estrella para que haya terminado convertida en un planeta "es algo extremadamente raro" y asegura que "tan sólo el 1% de las estrellas de neutrones podrían hacerle eso a su compañera". Para que la estrella consiga sobrevivir a la atracción del púlsar, "debe orbitar a mucha velocidad y tener la masa adecuada", explica.

Casualidades o no, un planeta hecho de diamante es algo lo suficientemente atractivo para hacer funcionar la imaginación de cualquiera. La posibilidad de que el planeta acabe chocando contra la estrella de neutrones y provoque un lluvia de diamantes en el espacio, ofrecería, sin duda, un espectáculo digno de cualquier obra de ficción. Sin embargo, Bailes afirma que "el sistema será estable durante los próximos mil millones de años", así que la lluvia de diamantes tendrá que esperar.

Fuente: publico.es, 26-8-11

 

-Rusia aplaza hasta septiembre el lanzamiento de la próxima Soyuz

Rusia ha aplazado hasta el mes de septiembre el lanzamiento de la próxima nave Soyuz, según ha anunciado el comandante de las fuerzas espaciales rusas después de que el carguero espacial no tripulado Progress M-12M, que llevaba suministros a la Estación Espacial Internacional, se estrellase el pasado miércoles en Siberia.

 

Estaba previsto que una Soyuz-2 se pusiera en órbita esta misma semana desde el cosmódromo de Plesetsk. "El lanzamiento ha sido pospuesto hasta mediados de septiembre", ha declarado el general Oleg Ostapenko. "No hemos hablado de fechas específicas", ha añadido este alto mando tras la reunión de una comisión estatal en Baikonur.

El sistema Glonass fue diseñado por Rusia para competir con el sistema de navegación GPS estadounidense y el sistema europeo Galileo.

A primera hora de la mañana, un responsable de la industria espacial rusa ha anunciado que ésta había "decidido suspender el lanzamiento de cohetes Soyuz hasta que la causa del accidente se haya aclarado".

La nave espacial de carga Progress M-M12, que llevaba varias toneladas de suministros y alimentos a la ISS, se estrelló el miércoles segundos después de despegar en el cosmódromo de Baikonur (Kazajstán) tras sufrir el fallo de un motor, segúna ha difundido la Agencia Espacial Rusa (Roskosmos).

Se ha puesto en marcha una operación para recuperar los restos desperdigados en una zona despoblada en la región rusa de Altai, en la frontera de China, Mongolia y Kazajstán

Fuente: elmundo.es, 25-8-11

 

-El 90% de la vida está por descubrir

8.700.000 especies habitan este planeta, millón arriba millón abajo. La cifra es, según los científicos que la han obtenido, la más precisa dada hasta ahora. Teniendo en cuenta que hay 1,25 millones ya catalogadas, esto significa que aún quedaría casi el 90% por descubrir. Los investigadores creen que muchas desaparecerán antes de saberse que han existido.

Su afán por encontrarlas no es un capricho de los taxonomistas: muchas de ellas podrían albergar la solución a varios de los problemas del ser humano.

Intentar averiguar cuántas especies habitan el planeta ha sido uno de los eternos objetivos de zoólogos, botánicos o bacteriólogos durante décadas. Para hacer sus cálculos, todos parten de la existencia ya catalogada de 1,25 millones de especies y otras 700.000 avistadas pero que aún no están bien asentadas en las bases de datos.

Las diferentes estimaciones de lo que queda por descubrir van desde los tres hasta los cien millones, demasiada oscilación. Investigadores del Censo de la Vida Marina , un proyecto donde más de 2.000 científicos dedicaron la pasada década a rastrear los océanos, han acotado ahora la cifra hasta los 8,7 millones de organismos eucariotas, aquellos formados por células con núcleo. El margen de error de su cálculo es de 1,3 millones.

Pero ¿cómo han conseguido esta cifra?. El truco es sencillo pero ingenioso. Desde que Linneo ideara su sistema para describir y organizar los diferentes seres vivos en 1758, estos son agrupados en grupos ascendentes según sus características: especie, género, familia, orden, clase, filo y reino.

 

Histiophyrne psychedelica es un pez descubierto en 2009 en Indonesia. Tiene una forma única de moverse en el agua, al nadar rebota como una pelota de goma entre los corales.David Hall

Hay otras subcategorías, pero estas son las que aún se estudian en la escuela. Así, el hombre sería de la especie Sapiens, género Homo, familia Hominidae... Según publican en PLoS Biology, lo que han descubierto los investigadores es que existe una relación entre los niveles taxonómicos superiores y el de las especies: sabiendo el número de familias u ordenes, por ejemplo, se puede estimar el de las especies.

Para validar su hipótesis, los científicos la usaron para dar una cifra de los grupos taxonómicos mejor conocidos, como los mamíferos, las aves o los peces, donde descubrir una nueva especie es difícil. Comprobaron que su método daba números similares a los que aparecen en las grandes bases de datos, como el Catálogo de la Vida o el Registro Mundial de Especies Marinas.

Animales y plantas

Por eso pueden afirmar que hay 7,7 millones de especies de animales, de las que casi un millón ya están catalogadas. También habría unas 300.000 del grupo de las plantas, con el 70% ya descubiertas. El reino Fungi (hongos, levaduras, setas...) sería el más desconocido de todos. De los 611.000 estimados, sólo se han registrado unos 43.000.

Los dos ordenes eucariotas restantes, Protozoa y Chromista, aportarían unas 60.000 especies más, con el 20% ya estudiadas. La gran mayoría de las especies, tanto descubiertas como por descubrir, son terrestres: 6,5 millones, frente a 2,2. Eso implica que aún no se conoce el 86% de las que viven en la tierra y el 91% de las que lo hacen en el mar.

"La cuestión de cuántas especies existen ha intrigado a los científicos durante siglos y la respuesta es particularmente importante ahora, porque una gran cantidad de actividades del hombre están acelerando la tasa de extinciones", explica el investigador principal, Camilo Mora , de la Universidad de Hawái. "Muchas de las especies pueden desaparecer antes de que siquiera sepamos de su existencia", añade.

Para Mora, la tarea de completar la taxonomía de la vida en la Tierra es inaplazable. Pero, teniendo en cuenta que, en los últimos 20 años, la ratio de descubrimiento de nuevas especies ha sido de 6.200 anuales, se tardarían 1.200 años en catalogar toda la vida, y eso, dedicando 303.000 taxonomista a tiempo completo.

Fuente: publico.es, 24-8-11

 

 

-El futuro telescopio espacial James Webb peligra por su elevado coste

Nuevos documentos de la NASA aseguran que el futuro telescopio espacial James Webb, que será el sucesor del 'Hubble', costará unos 8.700 millones de dólares, es decir, 2.000 millones más de los que estaba presupuestado y que para muchos era prácticamente inasumible con el actual presupuesto de la agencia espacial norteamericana.

El nuevo coste del 'James Webb', cuya puesta en órbita está prevista para 2018 y que funcionará durante al menos cinco años, figura en unos documentos enviados al Congreso de Estados Unidos, según informa la BBC en su página werb. Su objetivo principal, gracias a un espejo de 6,5 metros de diámetro, es lograr ver la luz emitida por las primeras estrellas que brillaron en el Universo tras el Big Bang.

Algunos políticos norteamericanos ya han dicho que, debido a la crisis económica, el proyecto debería ser cancelado, si bien el Comité de Asignaciones ya recoge este gasto en un primer borrador para 2012. De hecho, la NASA siempre ha defendido que había que seguir adelante con el futuro telescopio, que será de infrarrojo, en lugar de óptico como el que está ahora en el espacio. No obstante, aún necesita el visto bueno del Senado.

No es el primer encarecimiento que experimenta el proyecto. Ya el año pasado su presupuesto inicial había aumentado primero de los 3.500 a los 5.000 millones de dólares, que con los posibles retrasos podría acercarse a los 6.500 millones más.

También ha habido cambios en su fecha de lanzamiento, prevista en un principio para 2013 y retrasada más adelante al 2018 que ahora se maneja y que, según el medio británico, incluso podría retrasarse hasta el 2020. El hecho de que el 'Hubble' siga funcionando juega en su contra, dado que muchos se preguntan si es necesario tener dos telescopios espaciales.

 

Diseño del futuro telescopio espacial 'James Webb'.|NASA

 

La última revisión en la NASA de las cuentas no ha hecho sino aumentar el precio a los 8.000 millones, que incluyen los costes de su construcción, el lanzamiento y el funcionamiento del 'James Webb' durante su vida activa.

En todo caso, si EE.UU. lo cancela se generaría un problema internacional, dado que el telescopio es un proyecto que se lleva a cabo con Europa y Canadá y ya se han gastado más de 2.400 millones de dólares en algunos de los intrumentos en marcha. De hecho, Europa es quien proporciona algunos de los intrumentos que llevará a bordo, así como el cohete para su puesta en órbita. De este modo, se garantiza el 15% del tiempo de observación para sus astrónomos.

Fuente: elmundo.es, 23-8-11

 

 

-China quiere desviar un asteroide cercana a la Tierra

 

Última imagen de Apophis.T. P

 

Como si de una película se tratara, un equipo de investigadores de la Universidad Tsinghua (China) ha propuesto enviar una sonda impulsada a vela que impacte contra el asteroide Apophis, detectado en 2004. De esta manera, pretenden desviarlo de su órbita y evitar así una improbable colisión con la Tierra.

Pese a que los últimos cálculos realizados estiman que el peligro de este objeto es prácticamente nulo, existe una remota posibilidad de que el asteroide atraviese una región del espacio, llamada cerradura gravitacional, que cambiaría su trayectoria, haciendo que vuelva a pasar por segunda vez cerca de la Tierra.

Según aseguran en el estudio, publicado en Research in Astronomy and Astrophysics, las estimaciones actuales indican que "Apophis pasará por primera vez cerca de la Tierra el 13 de abril de 2029, con un posible retorno en 2036". Aunque las posibilidades son reducidas, dado el pequeño tamaño de la cerradura, de apenas 600 metros, los investigadores aseguran que "es muy necesario estudiar nuevos conceptos que permitan preparar misiones para el futuro".

El modelo propuesto por los científicos, liderados por el físico Sheng-Ping Gong, implica la puesta en órbita de una pequeña nave que circule en sentido contrario al asteroide y que utilizaría una vela solar. El funcionamiento de este tipo de dispositivo es similar a la vela de una barco, sólo que en lugar de utilizar el empuje del viento, la vela solar se ayuda del impulso de la radiación que proviene del Sol. Los investigadores calculan que "una vela de 10 kilogramos lanzada con un año de antelación podría alcanzar una velocidad de 90 kilómetros por segundo, suficiente para eliminar la posibilidad de retorno en 2036".

No es la primera vez que se plantean misiones para desviar a este asteroide, de 320 metros de diámetro y una masa de más de 45 millones de toneladas. Ya en 2009, investigadores rusos planearon una misión para detener a Apophis, cuyo potencial destructivo sería equivalente al de decenas de miles de bombas atómicas.

 

 

Fuente: publico.es, 22-8-11

-La anguila más vieja del mundo

Existen animales que habitan la Tierra desde hace millones de años. Primitivos, sin grandes cambios físicos, apenas evolucionados. Son como fósiles, pero están vivos. Este es el caso de la Protoanguilapalau, una anguila rarísima descubierta por el científico Jiro Sakaue a 35 metros de profundidad en un arrecife de Palau, al oeste del océano Pacífico. En cuanto Sakaue, que describe el hallazgo en el último Proceedings of the Royal Society B, miró al pez, se dio cuenta de que era especial.

El Instituto Smithsonian, adscrito al Museo Nacional de Historia Natural de Washington (EEUU), fue el encargado de estudiar los rasgos morfológicos de la protoanguila. Los investigadores se sorprendieron con su cuerpo gelatinoso y su cabeza, desproporcionadamente larga, que contrastaba con su cuerpo corto y comprimido, apenas sin vértebras. "Los fósiles de anguilas antiguas, cuya desaparición se produjo hace cien millones de años, también presentan cuerpo gelatinoso y pocos huesos", explica Dave Johnson, zoólogo de peces del Instituto Smithsonian y uno de los autores del estudio. Pero sus branquias, que parecen el cuello de una camisa, son, sin duda, sus atributos más raros. "No existen precedentes", cuenta Johnson.

Si los científicos se basaban únicamente en la fisiología, la nueva anguila era, irónicamente, la más antigua del mundo. Pero, a pesar de sus vetustos rasgos, podía tratarse de una curiosa involución. La pregunta es, ¿se trata de un fósil vivo o de una bonita coincidencia evolutiva?

Morfología y ADN a debate

Para comprobarlo, procedieron a realizar un análisis del ADN mitocondrial. Este ADN se caracteriza por acumular mutaciones. Los biólogos evolutivos lo utilizan como reloj molecular porque les permite poner fecha al organismo.

El análisis de su ADN mitocondrial concluyó que el reloj de la protoanguila se detuvo hace 200 millones de años, en el Mesozoico temprano, lo que quiere decir que convivió con los dinosaurios y les sobrevivió. "Es el único miembro de la rama más primitiva de la familia de las anguilas, de ahí su nombre [proto significa primer]", cuenta el zoólogo.

Lo que todavía se preguntan los científicos son los motivos por los que el espécimen ha sobrevivido durante tantos millones de años. "Tal vez las larvas aguantan condiciones extremas, porque aún no hemos podido encontrar ninguna. Es el siguiente objetivo", concluye orgulloso Johnson.

Fuente: publico.es, 21-8-11

-Encuentran el ADN común entre medusas y humanos

Sólo el 5% del ADN de cualquier organismo biológico de la Tierra lo componen genes codificados. El resto, el 95%, son las instrucciones que permiten que esos genes funcionen y es en ese material no codificado donde un equipo de investigadores del Centro Superior de Investigaciones Científicas (CSIC) ha logrado identificar secuencias que están presentes en todos los seres vivos, desde las medusas a los humanos.

Estas secuencias, relacionadas con el sistema nervioso, han permanecido prácticamente inalterables desde el origen de la evolución, controlando qué proteínas se expresaban y cuáles no. "Realmente son esas instrucciones las que marcan la diferencia entre los organismos desde hace 550 millones de años", ha señalado a EL MUNDO.es José Luis Gómez-Skarmeta, del Centro Andaluz de Biología del Desarrollo (CSIC), coautor de este trabajo, publicado en la revista Proceedings of National Academy of Science (PNAS).

Los investigadores, según explica el biólogo, han tratado de identificar un total de 20 secuencias de ADN no codificante en los genomas de diferentes seres vivos. Para ello, han realizado un análisis comparativo de entre 30 y 40 genomas diferentes, de organismos que fueron cambiando a lo largo de cientos de millones de año. Fue así como identificaron siete de las secuencias que buscaban en organismos tan dispares como un erizo y un ser humano, e incluso dos eran comunes entre nuestra especie y una medusa, aún más primitiva.

"Esto significa que la evolución ha dejado intacta una parte del genoma y que, al margen del linaje, hay material genético que todos los seres vivos comparten y no va a cambiar", explica Gómez-Skarmeta.

Para comprobar que habían dado en el clavo, utilizaron peces cebra, introduciendo en su genoma las secuencias genéticas de los diferentes organismos, ya fueran erizos, corales, humanos, medusas o moscas. "El experimento confirmó que se expresaban proteínas relacionadas con el sistema nervioso de forma prácticamente igual en todos los casos, lo que indicaba que la instrucción era la misma", comenta el científico.

 

Embrión de pez cebra con un secuencia de ADN humano.|CSIC

 

Regiones reguladoras

Hasta ahora, se creía que cada linaje de organismos había conservado sus propias regiones reguladoras, por lo que los vertebrados y las moscas, por ejemplo, las tenían diferentes. Pero no es así, según prueba este trabajo, y al menos hay algunas de esas regiones que se comparten. "Si los humanos tenemos un mecanismo que también poseen los corales, probablemente también lo tuvieran los ancestros comunes hace cientos de millones de años", argumenta Gómez-Skarmeta.

Hasta hace poco se pensaba que los organismos se diferenciaban por los genes y el resto del ADN era 'basura' que no tenía utilidad. Sin embargo, poco a poco la ciencia está descubriendo la importancia de esas secuencias, como revela el biólogo español: "Estos hallazgos han puesto de manifiesto que el ADN no codificante ha sido injustamente denominado ADN basura.

En la investigación ha participado el Centro Andaluz de Biología del Desarrollo, la Universidad de Barcelona y el Instituto de Tecnología de California.

Fuente: elmundo.es, 20-8-11

 

-Street View llega al Amazonas

Las cámaras de Street View viajarán en bici y barca para grabar 50 kilómetros del Río Negro.- E. P.

  Street View rastrea el Amazonas. Un grupo de personas del servicio de geolocalización de Google está tomando imágenes del río, las selvas y las tribus que habitan en el Amazonas, según ha informado la empresa.

El trabajo se realiza en colaboración con la Fundación para un Amazonas Sostenible, una organización local sin ánimo de lucro que se dedica a la conservación del entorno.

Las bicicletas de Street View recorren los caminos de tierra de las aldeas del Amazonas, mientras que en una barca se tomarán imágenes río bajo. En esta primera fase del proyecto, los equipos de Google y la FAS captarán imágenes de una zona que abarca 50 kilómetros del Río Negro y que se extiende desde Tumbira, cerca de Manaos ?capital del estado del Amazonas? hasta la zona de Terra Preta. Posteriormente se procesarán las imágenes para conseguir una vista panorámica de 360º. Google no ha informado de cuándo las imágenes estarán disponibles en Street View.

Fuente: elpais.com, 19-8-11

 

-Las emisiones radiactivas de Fukushima se reducen un 80%

El volumen de sustancias radiactivas emitidas por la maltrecha central nuclear de Fukushima Daiichi se ha reducido en un 80% en el último mes, según datos que publica este jueves el diario japonés 'Nikkei'.

Según la operadora de la central, Tokyo Electric Power (TEPCO), el volumen de material contaminante filtrado al exterior se ha reducido desde 1.000 millones de bequerelios por hora hasta un máximo de 200 millones de bequerelios por hora.

Esta última cifra es 10 millones veces menor que la registrada al inicio de la crisis.

Sistema de reciclaje de agua

TEPCO y el ministro encargado de la crisis nuclear, Goshi Hosono, ya anunciaron que su prioridad para dar por finalizada la crisis nuclear es mejorar el sistema de reciclaje del agua radiactiva que se acumula en la central.

Para poder descontaminar el agua radiactiva de la planta, TEPCO, cuenta con un complejo sistema de reciclaje que, no obstante, tan sólo ha podido operar a un 69% de su capacidad desde que empezó a funcionar en junio.

Además, la eléctrica comenzó a primeros de agosto a evaporar agua de mar contaminada para reducir el volumen de líquido radiactivo que inunda los sótanos de la central y que podría rondar las 21.000 toneladas.

Objetivo: enero de 2012

El objetivo marcado para llevar los reactores a parada fría se enmarca en la segunda fase de la 'hoja de ruta', que se alargará entre tres y seis meses, tras completarse con éxito la primera fase, consistente en la estabilización de los reactores y en la reducción del índice de radiación de la planta.

El Gobierno tiene previsto comenzar en septiembre pruebas de limpieza en zonas contaminadas por la radiación antes de implementar un plan a gran escala.

TEPCO y el Gobierno mantienen enero de 2012 como la fecha establecida para poder cerrar la peor crisis nuclear de los últimos 25 años, y que ha supuesto la evacuación de decenas de miles de personas y han afectado a la pesca, a los cultivos y a la ganadería de distintos puntos de Japón.

Fuente: elmundo.es, 18-8-11

-La Luna rejunvenece 200 años

Los resultados obtenidos gracias a una nueva técnica de datación utilizada en varias rocas de origen lunar indican que el satélite tiene unos 200 millones de años menos de lo que se estimaba hasta ahora. Los investigadores responsables del estudio, cuyos resultados han sido publicados hoy en la revista Nature, han asegurado que, o bien la Luna terminó de formarse mucho después de lo que se pensaba o las actuales teorías sobre su formación deben ser revisadas.

La teoría más aceptada sobre el origen de nuestro satélite es la llamada hipótesis del gran impacto. Según este modelo, la Luna surgió cuando un planeta del tamaño de Marte chocó contra la Tierra. Los restos del impacto quedaron en la órbita terrestre y se unieron hasta formar el satélite.

A partir de aquí, se plantea una segunda hipótesis que establece que, dado que el impacto liberó gran cantidad de energía, la roca se fundió, con lo que la Luna resultante estaba compuesta por una especie de océano global de magma, que "al enfriarse dio lugar a la superficie que ahora conocemos y que fue después modelada por diferentes procesos, como impactos o procesos magmáticos", explica Noemi Pinilla, experta en ciencias planetarias del instituto SETI (EEUU), que no ha participado en este estudio.

Sin embargo, esta teoría se sustenta en la gran cantidad de un tipo de roca llamada anortosita, que se encuentra en la superficie lunar. Según explica Pinilla, cuando el mar de roca fundida comienzó a solidificarse los materiales mas pesados se precipitaron hacia el interior, mientras que los menos densos, como las anortositas, "se fueron acumulando en la superficie del océano dando lugar a la corteza lunar".

 

Datos de la misión Apolo

Precisamente, los autores del estudio han analizado una muestra de anortosita, que fue recogida en la misión Apolo XVI en 1972. Según Lars Borg, autor principal del artículo e investigador del Centro Nacional Lawrence Livermore, el hecho de que este tipo de roca sea más joven de lo que se pensaba sólo se puede explicar de dos formas: "O el océano de magma se solidificó 200 millones de años más tarde de lo que indican las estimaciones anteriores o las anortositas no se formaron a través de un océano de magma, lo que invalidaría esta teoría".

Los autores del estudio afirman que sus resultados abren la puerta nuevas teorías sobre la formación de la Luna o de la propia Tierra. Pero aseguran que es necesario seguir acumulando datos que ayuden a dar una respuesta definitiva.

Para el profesor Borg, el hecho de que los investigadores utilicen materiales obtenidos hace casi 40 años es un indicativo de la falta de información que tienen en la actualidad. Borg considera que se deberían volver a enviar misiones tripuladas a la Luna, dado que la exploración lunar aún puede dar mucha información útil para los científicos. "La Luna ofrece una oportunidad maravillosa para estudiar la formación planetaria, que no puede darse en ningún otro rincón del Sistema Solar".

Fuente: publico.es, 17-8-11

 

-"El cuerpo se conectará a internet"

A Paul Horn se le pierde la mirada al pensar en los avances tecnológicos de los 100 últimos años. Luego escoge un adjetivo para describirlos: inimaginables. Ni siquiera los mejores libros de ciencia-ficción, dice, fueron capaces de predecir lo que ha ocurrido. "Por un mismo dólar ahora compramos 1.000 millones de veces más poder de computación que hace un siglo. Prácticamente nada en la sociedad ha cambiado tanto".

A sus 64 años, Horn no solo ha vivido muchos de los grandes avances sino que además inventó alguno de ellos, como el primer procesador de cobre, el silicio rígido, que permitió fabricar chips un 35% más rápidos, o Deep Blue, el superordenador que batió a Kasparov al ajedrez en 1997. Lo hizo durante sus 11 años al frente de IBM Research, uno de los laboratorios de investigación más potentes del planeta, con 3.000 empleados y 6.000 millones de dólares de presupuesto anual. "Es difícil escoger un proyecto, pero estoy orgulloso de Blue Gene, el supercomputador con el que Estados Unidos recuperó en 2005 el liderazgo mundial", cuenta.

Pocas cosas podrían hacerse ya sin estos súper cerebros artificiales: investigación médica, proceso de datos financieros en segundos, diseño de productos... Speedo, por ejemplo, utilizó uno para analizar los movimientos de los nadadores en el agua y crear sus polémicos bañadores deslizantes.

Algo no ha cambiado: los procesadores siguen siendo cada vez más rápidos y pequeños. Horn cree que será así 10 años más. "Después es difícil adivinar qué pasará". Él inició el trabajo que desembocó en Watson, el superordenador que en febrero batió a dos personas en el concurso Jeopardy. Un buen ejemplo de cómo las máquinas se acercan a la inteligencia humana. "Lo próximo será que aprendan en tiempo real de la gente para parecerse cada vez más a nosotros", dice.

 

Paul Horn, antiguo director de los laboratorios de investigación de IBM.- ÁLVARO GARCÍA

 

Nacido en Nueva York, de cuya universidad es responsable de investigación, Horn ha visto nacer la informática. En su laboratorio de IBM creó el primer procesador interconectado con filamentos de cobre. Se siguen usando, pero los haces de luz están reemplazando al cobre como método de transmisión electrónica. Curiosamente, es escéptico sobre los nuevos materiales, como el grafeno, que prometen jubilar el silicio. "Hoy podemos colocar 1.000 millones de transistores en un chip. Nadie sabe si lo conseguiremos con el grafeno"

De lo que no duda es de Internet, el avance de mayor impacto en nuestras vidas, dice. No le gusta hacer predicciones pero vaticina que el Internet de las cosas será fructífero en las próximas décadas. Y no solo porque cualquier objeto se conectará a la Red. También las personas. "En el futuro podremos implantarnos microchips y conectar el cuerpo a Internet. Las aplicaciones en salud y bioingeniería serán enormes. Y no importa el miedo a la privacidad. Ocurrirá", asegura.

En los últimos 100 años han cambiado demasiadas cosas. Otra: de la era del pecé y el modelo de distribución horizontal a la era donde imperan los móviles y el modelo vertical de Apple. "En la industria tecnológica una compañía fabricaba los procesadores, otra el software, otra los equipos... Luego vino Apple y decidió que lo haría todo. Nadie hubiera pensado que funcionaría".

Tampoco muchos hubieran dicho que el software libre fracasaría como lo ha hecho en la informática de consumo y empresarial. "Fue en parte por el éxito de Microsoft. Ahora tiene una segunda oportunidad con los móviles", dice en referencia a Android. Pese a ello, cree que Google aún no se ha ganado el respeto como empresa innovadora. "IBM, Apple o Microsoft tienen mucha historia. Google lo tiene que demostrar".

En plena era de la hiperconexión, quedan aún paradojas del progreso. Utilizamos mucho el teclado y el ratón. "Es cultural, nos hemos acostumbrado y es difícil cambiar". Los interfaces naturales, asegura Horn, los gestos, la voz y el tacto, irán ganando terreno para comunicarnos con las máquinas.

Predecir tendencias tecnológicas es fácil, dice. Lo complicado es saber cómo afectaran a la sociedad. Frente a la incertidumbre, una certeza: "Hemos evolucionado mucho gracias a la tecnología. Somos más altos, fuertes, inteligentes y vivimos más. En los próximos 100 años el ritmo será mayor".

Fuente: elpais.com, 16-8-11

-Un sistema evalúa la restauración forestal

En los últimos 50 años, España ha recuperado una pequeña parte de los bosques destruidos a lo largo de su historia. Muchas de las cinco millones de hectáreas repobladas en el pasado siglo no siguieron un criterio ecológico. Tanto es así que algunos de los grandes incendios se han producido en zonas replantadas. No había, ni siquiera, un método para evaluar si una restauración forestal se había hecho bien o se estaba sembrando la semilla de un nuevo incendio.

Un bombero trabaja en un incendio en Galicia el pasado verano - AFP

 

Los ecologistas de WWF España, con la ayuda de la Fundación Biodiversidad, acaban de diseñar un sistema para evaluar las restauraciones forestales. El borrador, en el que han participado una decena de expertos, pretende ser una plantilla para certificar cada proyecto de replantación.

"Buscábamos desarrollar una serie de protocolos claros y aceptados por todos, desde los agricultores y ganaderos hasta los ecologistas", explica Félix Romero, responsable del programa de bosques de WWF España. En septiembre empezarán las pruebas de campo en una serie de zonas del país donde aplicarán este sistema de evaluación para comprobar su eficacia.

La masa forestal de España ha repuntado en los últimos años, con unos 1,6 millones de hectáreas repobladas en el pasado lustro. Pero en ocasiones se ha hecho en zonas de agricultura o, peor aún, sin problemas erosivos que, como las salinas o yeseras, tenían ya su propio ecosistema de matorral. En otras, la apuesta por variedades de árboles inapropiadas han llevado a malas repoblaciones. También el monocultivo de una variedad ha creado bosques mas expuestos al fuego.

"Nuestra duda es si durante décadas hemos estado restaurando o plantando los incendios del futuro", se pregunta Romero. Aunque cree que la mayor parte de las recuperaciones se hicieron de forma aceptable, no piensa lo mismo de muchas de las realizadas tras los grandes incendios. En algunos grandes incendios sufridos por bosques de coníferas, por ejemplo, no se retiró la madera quemada en el primer año. Esto hizo que parte del bosque se regenerara por su cuenta. "Pero, al ir a recoger esta madera, arrancas las nuevas plántulas", recuerda Romero. El nuevo sistema intentará evitar errores de este tipo.

Fuente: publico.es, 15-08-11

-100 años de física nuclear: de la galleta de electrones a la sopa de quarks

Rutheford

 

"El descubrimiento de Rutherford tuvo un gran impacto y abrió una ventana a nuevas y maravillosas fuerzas, simetrías y reglas". Con esta afirmación, John Schiffer, profesor de física nuclear de la Universidad de Chicago, recordaba uno de los grandes hallazgos del siglo XX, el descubrimiento del núcleo atómico por parte del físico Ernest Rutherford, nacido en Nueva Zelanda en 1871 y considerado el padre de la física nuclear, que estableció un modelo atómico que cambió el curso de la historia y puso de manifiesto la existencia de nuevas fuerzas en la naturaleza, desconocidas hasta entonces.

La afirmación de Schiffer se produjo durante el congreso, que concluyó el viernes, que la Universidad de Manchester ha organizado para celebrar el centenario del descubrimiento. Durante dos semanas, un nutrido grupo de físicos ha rememorado este gran hallazgo y ha intercambiado opiniones sobre el futuro de una rama de la ciencia que ha sido fundamental para entender la evolución de la humanidad durante los últimos cien años.

A lo largo de este siglo, la física nuclear ha permitido la evolución de tecnologías tan dispares como las utilizadas para el diagnóstico y tratamiento médico o las que sirvieron para el desarrollo de armamento nuclear. Pero toda esta cadena de descubrimientos surgió a raíz de un modelo, el átomo de Rutherford.

El descubrimiento

Pese a que el concepto de átomo es conocido desde la Antigua Grecia, no fue hasta el siglo XIX cuando se demostró su existencia. Aún así, hasta el hallazgo de Rutherford, la comunidad científica asumía que los átomos eran una especie de cookie, donde la galleta tenía carga positiva y las pepitas de chocolate representaban las cargas negativas o electrones, que estaban distribuidas de manera uniforme.

Sin embargo, durante un experimento en 1911, Rutherford Nobel de Química en 1908 por trabajos previos, advirtió que sus resultados no estaban de acuerdo con esta definición. Dicho experimento consistió en bombardear una lámina de oro con cierto tipo de partículas de carga eléctrica positiva, llamadas partículas alfa. Según el modelo atómico de la galleta, estas partículas debían atravesar la lámina de oro sin apenas inmutarse. Pero el resultado mostró que algunas sufrían importantes desviaciones. Según Sean Freeman, profesor de física nuclear de la Universidad de Manchester y organizador del congreso, esto llevó a Rutherford a interpretar que "los átomos debían tener la masa concentrada en una pequeña partícula de materia, el núcleo". De esta forma, el átomo estaría compuesto por dos partes fundamentales, un núcleo muy pequeño y una corteza en la que orbitan todas las cargas negativas o electrones. El profesor Freeman recuerda la analogía que Rutherford utilizaba para explicar su modelo: "Solía decir que si el átomo fuera del tamaño de una catedral, el núcleo sería como una mosca situada en su centro".

La nueva física

Pese a que los resultados presentados por Rutherford, que indicaban una estructura con núcleo y electrones orbitando, parecían incontestables, el modelo no podía ser explicado con la teorías de la época. Según la física clásica, una carga eléctrica que tiene una órbita circular pierde energía. Bajo esta premisa, el modelo de Rutherford no podía ser estable, dado que la pérdida de energía de los electrones haría que terminaran por precipitarse contra el núcleo. Quedaba claro que, si los resultados de Rutherford eran correctos, y todo parecía indicar que lo eran, los físicos se encontraban ante una serie de problemas cuya solución requería el desarrollo de una nueva física.

Apenas dos años después del descubrimiento del núcleo, el físico alemán Niels Böhr propuso un nuevo modelo basándose en los resultados de Rutherford, pero tomando prestadas unas revolucionarias ideas que utilizaban un nuevo concepto, la cuantización. El modelo de Böhr mantenía la estructura planetaria del átomo de Rutherford, pero introducía ciertos postulados que establecían que los electrones sólo podían describir unas órbitas circulares especiales en las que no había pérdida de energía, lo que permitía que el modelo fuese estable. Se iniciaba así la era de una nueva física, una innovadora forma de observar la materia que cambiaría para siempre la forma de estudiar el mundo microscópico. La física cuántica comenzaba a asomar la cabeza.

Sin duda, el descubrimiento de Rutherford contribuyó de manera decisiva a la formulación de una nueva teoría que explicara la estructura de la materia. Sin embargo, el experimento que realizó también se puede considerar un hito de la física experimental. Para Carlos Salgado, físico del Instituto Gallego de Altas Energías y uno de los ponentes del congreso de Manchester, el hallazgo de Rutherford "es, probablemente, el descubrimiento más importante del siglo XX". El bombardeo de la lámina de oro con partículas alfa fue relevante, "tanto por el descubrimiento en sí mismo, como por haber iniciado una metodología que se sigue utilizando en la actualidad", afirma Salgado.

Esencialmente, el experimento consistió en "lanzar pequeños proyectiles que impactaban contra partículas de mayor tamaño, utilizando el resultado de las colisiones para estudiar la estructura del objetivo", explica Salgado. Este mismo principio se sigue utilizando para analizar la estructura de la materia en la actualidad y es la base de los actuales aceleradores de partículas. De esta forma, el experimento de Rutherford se podría considerar como el germen a partir del cual surgieron los grandes aceleradores de la actualidad, como el LHC. La principal diferencia de estos nuevos aceleradores con el experimento que sirvió para descubrir el núcleo es la energía de las partículas utilizadas, pues mientras más se quiere entrar en el interior del  átomo, "mayor tiene que ser la energía de las colisiones", explica Salgado.

Aprovechando la metodología iniciada por Rutherford, los investigadores se han dedicado a hacer colisionar partículas con núcleos atómicos para ir desentrañando su estructura interna. De esta forma se llegó a descubrir que éste estaba compuesto por protones y neutrones, lo que desembocó en un nuevo problema. Dado que dos cargas eléctricas de signo opuesto se repelen ¿cómo es posible mantener los protones unidos en el núcleo? Los físicos resolvieron esta situación postulando la existencia de una nueva fuerza en el interior del núcleo, a la que denominaron fuerza fuerte. La cosa no quedó aquí y los físicos siguieron haciendo colisionar partículas hasta que, en 1968, descubrieron que los protones y los neutrones que formaban el núcleo, estaban compuestos por unas pequeñas partículas, denominadas quarks.

Estas pequeñas partículas son las que realmente sufren la fuerza nuclear fuerte, y su intensidad es tal, que siempre están agrupadas, formando otras partículas, como los protones o los neutrones. Hoy, los grandes aceleradores pretenden llegar a separarlas, aunque sólo sea durante un breve lapso de tiempo, lo que les permite estudiar nuevas formas de la materia. Según explica Salgado, cuando dos núcleos chocan a energías muy altas, "durante una fracción infinitesimal de segundo los quarks dejan de estar confinados y forman una especie de sopa, un nuevo estado de la materia", cuyas propiedades aún son objeto de estudio.

Durante los últimos cien años el mundo de la física ha pasado de desterrar el modelo atómico de la galleta, a estudiar una sopa de quarks. Sin duda, el descubrimiento del Rutherford abrió un camino que está lejos de cerrarse. Para el profesor John Schiffer, es necesario seguir el camino iniciado por el físico neozelandés y cierra su ponencia con una frase que resume el impulso que anima al ser humano a seguir investigando: "Debemos continuar la búsqueda, sólo así llegaremos a comprender mejor las reglas que rigen nuestro mundo".

Fuente: publico.es 14-8-11

 

-Descubren los grupos de galaxias más alejados

Cuando se mira al cielo no es fácil distinguir las estrellas de las galaxias más alejadas. Son igualmente puntos luminosos sobre el firmamento, aunque las segundas están mucho más lejos. Ahora, gracias al telescopio más grande del mundo, el Gran Telescopio de Canarias (GTC), astrónomos del Instituto de Astrofísica de Canarias (IAC) han logrado localizar grupos compactos de galaxias que se encuentran a 5.000 millones de años luz de la Tierra.

Uno de los tres grupos de galaxias localizado desde el GTC.|IAC

La primera de estas agrupaciones galácticas se descubrió en el siglo XIX, el llamado 'Quinteto de Stephan', pero en los últimos 20 años, los astrofísicos han logrado detectar un centenar, todas a unos 1.000 millones de años luz, una distancia pequeña para un Universo que tiene 13.700 millones de años.

Carlos Gutiérrez, del IAC, y autor del hallazgo publicado en la revista 'The Astrophysical Journal Letters', ha conseguido 'ver' cuatro veces más lejos e identificar, por lo menos, tres grupos diferentes: dos compuestos por cuatro galaxias y otro por cinco.

"Estas agrupaciones son importantes para estudiar cómo afecta la presencia de compañeras cercanas a la evolución natural de las galaxias, porque la acción de la gravedad las somete a procesos de deformaciones, desgajamientos o fusiones. En ciertos casos, incluso pueden acabar destruidas al ser engullidas por otra mayor, en un proceso de canibalismo a escala astronómico, o fusionarse con otra de tamaño similar para formar una nueva galaxia", explica Gutiérrez.

Nuestra galaxia, la Vía Láctea, también forma parte de un grupo local compuesto por unas 30 ó 40, pero no están lo suficientemente cerca como para que sufran los efectos de la acción que ejercen unas sobre otras.

Además de los tres grupos publicados, Gutiérrez ha detectado otros 20 ó 25 candidatos de la misma época, aunque están en fase de análisis. "Cuanto más grande sea la muestra, mejor conoceremos su evolución, que es muy rápida. Son grupos que se forman y se destruyen a la vez", comenta el investigador.

Una vida muy corta

Para esta investigación, el equipo utilizó el Isaac Newton Telescope (INT) y el GTC, con su instrumento Osiris, en el que pudo disponer de unas tres horas de observación. Ambos están en el Observatorio del Roque de los Muchachos, en La Palma.

En sus conclusiones, el astrofísico destaca que estos grupos lejanos de galaxias tienen una vida muy corta, pero sin embargo, la forma y los tipos de estrellas que las componen son de galaxias más viejas que los propios grupos. "Una posibilidad es que se formaran y luego se fueran acercando. La fusión es una posibilidad, es decir, que todas las galaxias de un grupo acaben englobadas en una galaxia gigante. Estas enormes galaxias serían elípticas y estarían aisladas. Ya hemos visto grupos fósiles cómo estos", apunta el astrofísico.

Carlos Gutiérrez reconoce que aún hay muchos misterios por descubrir de estos grupos de galaxias: cómo se forman y en qué se convierten. "Son una pieza más es el 'puzle' de la estructura del Universo", afirma. De hecho, comenta cómo por un lado se está expandiendo cada vez más deprisa, y por otro, debido a la gravedad, se contrarresta esa tendencia y se forman estos grupos.

Fuente: elmundo.es, 12-8-11

 

-"Opportunity" llega a un gran cráter de Marte

Después de un viaje de casi tres años, el robot 'Mars Exploration Rover Opportunity', de la NASA, ha logrado llegar al cráter Endeavour, en la superficie de Marte, para estudiar rocas que nunca ante se han podido analizar.

El 'Opportunity', no mayor que un vehículo de golf, alcanzó el borde del cráter en un punto llamado Spirit Point, después de moverse durante 21 kilómetros desde el cráter Victoria en el que se encontraba. "La NASA sigue escribiendo capítulos notables en la historia de la exploración espacial con nuevos en Marte", ha señalado Charles Bolden, administrador de la agencia espacial americana.

El cráter Endeavour, 25 veces más grandes que el Victoria, tiene 22 kilómetros de diámetro. En su interior, los científicos esperan observar rocas y terrenos mucho más viejos que lo que ha examinado el 'Opportunity' durante sus primeros siete años en el planeta rojo.

Este cráter ha sido un objetivo del 'rover' desde que el 'Mars Reconnaissance Orbiter' detectara minerales de la arcilla que pudieron haberse formado en un periodo más caliente y húmedo en el planeta. "Pronto tendremos la oportunidad de muestrear lo que hay allí", asegura Matthew Golombek, miembro de equipo científico del programa Mars Exploration Rover. "Encontrar minerales arcillosos formados en condiciones húmedas nos pueden dar pistas importantes sobre un ambiente potencialmente habitable que puede haber sido muy diferente del de las rocas que se ven en los llanos", ha declarado.

 

Cráter Endeavour de Mate, captado por el 'Opportunity'.|NASA

Misiones en activo

Este 'rover' lleva mucho más tiempo en activo que el aquel para el que fue diseñado, como recordaban ayer los investigadores de la NASA.

El orbitador 'Mars Reconnaissance', en activo desde el 12 de agosto de 2005, continúa buscando evidencias que el agua existió en la superficie marciana durante un largo periodo del tiempo.

Otras misiones de Marte han demostrado que el agua fluyó en la superficie del planeta a lo largo de la historia, pero no se ha podido determinar si permaneció tiempo suficiente como para que hubiera un hábitat propicio para la vida. La NASA lanzó hacia Marte el 'Mars Spirit' y el 'Opportunity' en el verano de 2003. Sus tres primeros meses de misión concluyeron en abril de 2004, pero su plazo se extendió. Desde entonces han ayudado a revela que en el pasado pudo haber la humedad idónea para que hubiera vida microbiana.

Fuente: elmundo.es, 11-8-11

 

-El mono que cruzó el estrecho a Europa

Hoy, el paso de humanos a nado o sobre cualquier cosa flotante por el estrecho de Gibraltar es, desgraciadamente, el pan de cada día. Pero hace más de un millón de años, aquel viaje entre dos continentes era una proeza al alcance de muy pocos. Uno de ellos fue el babuino gigante, una especie de mono africano de unos 70 kilogramos que fue capaz de cruzar el estrecho y establecer una población en Cueva Victoria, Murcia, hace 1,1 millones de años.

Algunos investigadores, como Luis Gibert, de la Universidad de Barcelona, ven en este mono trotamundos la demostración de que el camino directo entre África y Europa existía y de que los primeros humanos también lo recorrieron.

La teoría es muy polémica. En los últimos años, las evidencias se han amontonado del lado de los que piensan que los primeros humanos, surgidos en África, habrían dado la vuelta entera al Mediterráneo durante cientos de miles de años, a través de Asia, hasta llegar a la península Ibérica, donde encontramos a los Homo antecessor viviendo en la sierra burgalesa de Atapuerca hace un millón de años.

Gibert, director de las excavaciones de Cueva Victoria, sostiene que los humanos cogieron el atajo. Y cree que tiene pruebas. En la actual campaña en la cueva murciana, su equipo ha desenterrado 150 restos fósiles de diferentes especies animales, incluidos elefantes, rinocerontes y linces. Y, de nuevo, ha aparecido una muela del babuino gigante (Theropithecus oswaldii). La primera se desenterró en 1994. Fue una sorpresa internacional, porque hasta entonces el babuino sólo se había encontrado en África. En las últimas dos campañas han aparecido otros tres molares. Gibert ya tiene cinco y cree que pertenecieron a cinco individuos diferentes.

 

Un babuino gelada, pariente actual del extinto Theropithecus oswaldii'.

 

"Ahora podemos hablar de una población importante de Theropithecus en Cueva Victoria", señala el investigador, que también ha descrito en el yacimiento murciano un puñado de "restos humanos más antiguos que los de Atapuerca", de una especie todavía sin definir.

"¿Por qué este mono africano está en España y no se ha hallado ni en Grecia, ni en Italia, ni en Francia? Pues probablemente porque cruzó el estrecho de Gibraltar. ¿Y por qué no pudo cruzar la humanidad con él?", se pregunta Gibert.

Arrastrado en una balsa

La hipótesis del investigador es que el babuino gigante pudo, por ejemplo, ser arrastrado mar adentro en una balsa natural por la avenida de un río. El Homo erectus, sostiene, hizo un camino similar hace más de un millón de años para llegar a la isla de Flores, en Indonesia.

La paleoantropóloga María Martinón Torres, del Centro Nacional de Investigación sobre la Evolución Humana, defiende la hipótesis contraria, la del rodeo por Asia, cada vez más aceptada. Ha excavado tanto en Atapuerca como en Dmanisi (Georgia), los dos yacimientos clave en el presunto viaje del ser humano desde África hasta Europa a través de Asia.

"Hemos comparado los restos fósiles de 800.000 años encontrados en Marruecos y Argelia con los hallados en Atapuerca. Y no se parecen en nada. No hay una continuidad que respalde el paso por el estrecho", zanja. Como mucho, cree, el estrecho pudo ser "un lugar de paso esporádico, pero no suficiente para que se estableciera una población".

Fuente: publico.es, 10-8-11

 

-La carrera para perforar Marte

La próxima batalla científica en Marte se librará bajo tierra. Dos equipos, uno en Europa y otro en EEUU, diseñan taladros que deben ser enviados al planeta rojo en 2018 y que realizarán la mayor prospección marciana de la historia.

Aunque se ha especulado con la explotación minera del planeta rojo, el objetivo de ambas misiones parece distinto. Durante décadas, varias generaciones de robots han explorado la superficie de Marte sin haberse topado con rastros de vida, pero sí evidencia de que estuvo abarrotado de agua. Si hay vida, o si alguna vez la hubo, cada vez más expertos creen que estará bajo tierra, protegida de la extrema radiación que reciben hoy las peladas peñas de su superficie seca y casi sin atmósfera.

Dos miembros del equipo de Chris McKay tras una de las pruebas del IceBreaker en la Antártida - Kris Zacny

 

 

“Perforar es fundamental en Marte para encontrar vida”, reconoce Jesús Martínez Frías, geólogo del Centro de Astrobiología en Madrid y miembro de la misión ExoMars, un proyecto oficial de las agencias espaciales de Europa (ESA) y EEUU con el que podrían detectarse los primeros rastros de vida en el planeta. “Estamos descubriendo que Marte no era monotemático, sino que albergó una gran diversidad de ambientes con chimeneas hidrotermales, lagos, ríos y océanos”, comenta Martínez-Frías. Todas estas zonas son aptas para la perforación en busca de agua y, con suerte, vida. Unos datos presentados la semana pasada, que apuntan a que en la actualidad hay agua líquida corriendo por algunas zonas del planeta, aumenta aún más la expectación. “Toda esta geodiversidad de Marte nos permite ser optimistas”, señala Martínez-Frías, cuyo equipo ha diseñado uno de los dispositivos del futuro ExoMars .

Hasta ahora, esta era la única misión que tenía previsto zarpar en 2018 para ser la primera en horadar el planeta. Pero un nuevo proyecto, aún por confirmar, acaba de ser anunciado por Chris McKay, uno de los mayores expertos en astrobiología de la NASA.

McKay planea lanzar su propio perforador en 2018 a bordo de un cohete privado, según ha confirmado el investigador a este diario. La empresa elegida es SpaceX, fundada por el magnate de internet Elon Musk, creador de la compañía de pagos online PayPal.

Esta firma, radicada en California, es una de las más firmes candidatas a enviar cohetes y cápsulas al espacio en el futuro próximo. McKay, que lleva años perfeccionando un taladro capaz de perforar un metro en Marte, ha elegido a Musk “porque SpaceX está construyendo la cápsula Dragon y sus lanzadores a un precio low-cost”, explica. La misión es aún una idea que debe ganar la aprobación de la NASA, pero McKay ya le ha puesto un nombre provisional: Red Dragon (dragón rojo, en inglés), según explicó a Space.com.

Las Dragon, inspiradas en las cápsulas con forma de proyectil del programa Apolo en las que el hombre viajó a la Luna, son el nuevo vehículo con el que Musk quiere enviar mercancías y astronauutas al espacio. No es una quimera. La NASA ya le ha premiado con 1.200 milllones de euros para realizar viajes a la Estación Espacial Internacional (ISS) a bordo de sus cohetes Falcon. Aunque aún están en desarrollo, estos artefactos han sido los primeros de origen privado capaces de salir al espacio y mandar de vuelta una cápsula no tripulada.

Estas naves permitirían a EEUU llevar astronautas a la ISS por menos dinero de lo que paga a Rusia para hacerlo en las Soyuz. La próxima gran prueba, y tal vez la última antes de las primeras misiones reales, llegará el 30 noviembre, cuando se lance una Dragon que se acoplará con la ISS, según asegura la compañía.

Precios de ganga

Musk, que se jacta de haber diseñado sus naves desde cero en apenas cuatro años, asegura que enviará astronautas a Marte en 10 o 20 años, lo que puede convertirle en el primero en lograr tal hazaña, por delante de EEUU, cuya agencia no ha dado una fecha concreta para ello. Una vez más, su gran baza será ofrecer precios de ganga.

McKay señala que el precio de enviar su perforador a Marte puede ser de menos de 350 millones de euros, excluyendo el cohete de lanzamiento. Eso lo cualificaría para ser elegido por la NASA dentro del programa Discovery, con el que la agencia premia proyectos para explorar el sistema solar con costes reducidos. Entre los Discovery está Pathfinder, la misión que envió el primer coche de exploración marciana lanzado en 1996.

McKay espera repetir ahora ese éxito con una cápsula Dragon donde iría el IceBreaker. Se trata de un taladro diseñado por Honeybee Robotics, otro contratista de la NASA, cuyos planes son llegar a un metro de profundidad. Los resultados de sus últimas pruebas, realizadas en la Antártida, uno de los lugares donde las temperaturas y el suelo se parecen más a los de Marte, han demostrado que es capaz de superarse. Durante el verano antártico de 2010, el torno de McKay logró alcanzar profundidades de hasta 2,5 metros en una zona de hielo compacto y rocas. Según su equipo, los resultados muestran que se puede perforar el suelo marciano en una misión del tamaño y energía de la Phoenix, la sonda que, lanzada en 2007, se posó cerca del polo Norte de Marte, escarbó menos de un centímetro y se topó con hielo antes de que un invierno con temperaturas de cien grados bajo cero la noquease para siempre.

Agua enterrada

La misión de McKay, o la de sus competidores europeos, mucho más adelantada, aumentaría la profundidad de observación dos órdenes de magnitud. “A esas profundidades es donde esperamos encontrar agua, aunque en verano puede que esté a apenas unos centímetros de la superficie”, explica Nilton Renno, uno de los investigadores principales de la misión Phoenix y que ahora colabora con ExoMars.

En su origen, el torno de la misión, que alcanza una profundidad de dos metros, iba a ir montado en un rover de fabricación europea cuyo futuro es ahora incierto. Este y otro vehículo de EEUU debían viajar juntos, pero la NASA se ha dado cuenta de que no puede lanzar dos coches y ha anunciado que habrá que refundir ambos vehículos en uno para ahorrar. “Una reunión de ministros en septiembre debe aclarar cómo será finalmente la misión”, señala Renno. En este caso, el optimismo sobre Marte se difumina. “Es una pugna entre propuestas a cada cual más interesante, pero son sólo propuestas, y tal como está la situación económica no creo que los planes de las agencias se salgan de las misiones ya aprobadas”, advierte Martínez-Frías.

Fuente: publico.es, 9-8-11

 

-Comienzan a tratar agua radiactiva en Fukushima mediante evaporación

Tokyo Electric Power (TEPCO), propietaria de la maltrecha central nuclear de Fukushima, ha comenzado a evaporar agua de mar contaminada para reducir el volumen de líquido radiactivo que se acumula en la planta, ha informado hoy la cadena NHK.

Este nuevo procedimiento evapora el agua para separarla de los elementos radiactivos y la devuelve a su estado líquido para poder emplearla como refrigerante en los reactores que resultaron dañados por el terremoto y el tsunami del 11 de marzo.

El sistema, destinado a recortar las 21.000 toneladas que aún inundan los sótanos de la central, podría tratar diariamente 80 toneladas y reducirlas a 50 una vez que esté completamente instalado y operativo, algo que TEPCO espera lograr en octubre. De las ocho unidades de las que consta este sistema, de momento, la operadora ha instalado dos que empezaron a funcionar el domingo tras un periodo de prueba.

Reciclaje de agua contaminada

La eléctrica ya opera desde finales de junio otro complejo sistema de reciclaje de agua contaminada, aunque ha admitido que éste solo tiene capacidad para tratar un 40% del líquido. El agua contaminada se acumula en la planta debido a las ingentes inyecciones de agua de mar para refrigerar los maltrechos reactores de la central nuclear, a lo que se suma a las lluvias que han anegado las instalaciones que perdieron el tejado en las explosiones que siguieron al desastre del 11 de marzo.

TEPCO intenta llevar los reactores a un estado parada fría, es decir, con una temperatura inferior a 100 grados centígrados, para enero de 2012 y cerrar así la crisis en Fukushima. El terremoto y el tsunami del 11 de marzo desataron la peor crisis nuclear en 25 años tras dejar sin refrigeración a la central nuclear de Fukushima Daiichi, cuyas emisiones han supuesto la evacuación de decenas de miles de personas y han afectado a la pesca, a los cultivos y a la ganadería de distintos puntos de Japón.

Fuente: 8-8-11, elmundo.es

-Internet se queda con tu cara

Un Tom Cruise bastante angustiado camina por los pasillos de un centro comercial. Las pantallas le ofrecen publicidad que incluye su nombre porque una cámara le reconoce de forma inmediata. La escena de la película Minority Report muestra una sociedad en la que el reconocimiento del iris es una práctica común. Este uso de la biometría para la identificación personal es uno de los sistemas más fiables, pero requiere una compleja infraestructura. Uno de los métodos de reconocimiento que mejor funcionan en la distancia son los patrones faciales, que arrojan buenos resultados incluso a partir de una fotografía.

Facebook extendió a principios de junio el reconocimiento facial para las fotografías que se suben a la red social. Esta funcionalidad, diseñada para que sea más sencillo etiquetar a las personas que aparecen en las imágenes, ha reabierto el debate sobre la pérdida del control del usuario sobre su privacidad y su propia imagen.

Antes de que el reconocimiento facial propiciase el etiquetado casi automático, los usuarios de Facebook añadían más de cien millones de etiquetas diarias en sus fotos. Con el nuevo sistema se desconoce la cifra, aunque el hecho de que cada mes se incorporen 3.000 millones de imágenes a la red social ha hecho pensar a muchos que esta podría albergar la mayor base de datos del mundo y, con el etiquetado automático, una de las más completas.

Debate en la UE

Hasta la aparición en Facebook de la herramienta Sugerirme para las etiquetas de las fotos de mis amigos, el usuario que subía una imagen tenía que molestarse en etiquetar a cada una de las personas que aparecían en ella. Ahora es el sistema el que escanea las caras de la nueva imagen, busca entre las fotografías subidas anteriormente y, si alguna cara ya etiquetada coincide con los rasgos básicos de las personas que aparecen en la nueva imagen, sugiere su etiquetado directo.

Facebook tiene una base de datos de 750 millones de usuarios. El fiscal general de Connecticut (EEUU), George Jepsen, ya expresó sus dudas sobre el respeto a la privacidad de la nueva herramienta. EEUU fue el primer país en el que la red social puso en marcha el sistema, a finales del año pasado. Facebook se defendió entonces explicando que la invitación al etiquetado automático sólo se produce cuando el usuario añade nuevas fotos, que las sugerencias sólo se producen cuando se trata de amigos y que el reconocimiento facial puede desac-tivarse. Jepsen valoró los cambios realizados en la red y aceptó las explicaciones.

El funcionamiento de la localización mediante patrones y el hecho de que el usuario pueda desactivarla si lo desea no han convencido a Alemania. El presidente de la comisión de protección de datos de Hamburgo, Johannes Caspar, ha pedido a Facebook que "desactive el servicio de reconocimiento facial y elimine la información que ya ha recogido". Caspar argumenta que este servicio viola tanto la ley de protección de datos de la Unión Europea como la alemana, ya que "Facebook otorga a sus usuarios información engañosa y contradictoria".

Las autoridades europeas de protección de datos de los países miembros de la UE, el llamado Grupo de Trabajo del Artículo 29, abordarán el tema después del verano y previ-siblemente, como han hecho con otros servicios, solicitarán información adicional sobre esta herramienta y analizarán si cumple la legalidad en materia de protección de datos.

Permiso previo

El problema básico que han visto las organizaciones defensoras de la privacidad en la red es que Facebook ha activado el reconocimiento facial por defecto. Si el usuario no se molesta en navegar por las opciones de privacidad, la red sugerirá su identificación analizando etiquetas anteriores. Pero no sólo las ONG están preocupadas por el avance de la biometría en las redes sociales. También las empresas privadas. "La mayoría de los usuarios de Facebook todavía no saben cómo configurar sus opciones de privacidad, encontrando el sistema confuso. Es aún más difícil mantener el control cuando se cambia la configuración de Facebook sin su conocimiento", describe Graham Cluley, asesor tecnológico de la empresa de seguridad informática Sophos.

Facebook no utiliza el sistema para etiquetar directamente y siempre requiere de la aprobación del usuario que sube la imagen, pero esto no ha evitado la lluvia de críticas. Para Cluley, la responsabilidad de desactivar el reconocimiento facial no debe recaer en el usuario sino que debería estar inactivo por defecto.

Facebook no es la única compañía que está experimentando con el reconocimiento facial. Google adquirió la semana pasada una empresa surgida del Instituto de Robótica de la Universidad Carnegie Mellon llamada PittPatt y especializada en reconocimiento de patrones tanto de objetos como de caras y visión por ordenador. Google ya emplea esta tecnología en servicios como su álbum fotográfico Picasa, pero el temor está centrado en que la compañía pueda añadirlo a su red social Google+, que ha conseguido atraer a 25 millones de usuarios en poco más de un mes.

"En Google, la tecnología de visión por ordenador ya se encuentra en el núcleo de muchos productos existentes, tales como Image Search, YouTube, Picasa y Google", ha afirmado PittPatt en un comunicado tras hacerse pública la compra. Otro asunto es cómo se utiliza. El que fuera presidente ejecutivo de Google, Eric Schmidt, ha desmentido que su compañía vaya a aplicar el reconocimiento facial a las búsquedas hasta que se solucionen los problemas de privacidad que puede acarrear. Schmidt calificó la "sorprendente exactitud" de estos sistemas como algo "muy preocupante" para la privacidad de las personas.

Google y Facebook pelean desde hace tiempo en diferentes áreas de negocio en internet. Aunque Schmidt evitó el pasado mayo nombrar a la red social hablando de creación de patrones (días antes de que la red social extendiese el reconocimiento facial a la mayoría de los países), sí afirmó que "alguna compañía cruzará ese límite".

Estas dos empresas no están solas en la experimentación con esta tecnología. Apple adquirió el año pasado Polar Rose, una empresa que trabaja con este tipo de sistemas. Aunque Apple no lo ha confirmado, la red se ha plagado de rumores que afirman que la siguiente versión de su sistema operativo para dispositivos móviles (iOS 5) permitirá a los creadores de aplicaciones utilizar el reconocimiento facial. No sería el primer acercamiento de Apple en este sentido. Su programa iPhoto ya lo incluye, pero el usuario tiene que decidir si quiere emplearlo en sus álbumes.

Qué datos se pueden obtener

Las herramientas de reconocimiento facial pueden ser muy útiles, aunque a los expertos les preocupa qué información puede obtenerse en internet de los usuarios a partir de un rostro. Un grupo de investigadores de la Universidad Carnegie Mellon ha presentado esta semana en una conferencia sobre seguridad informática celebrada en Las Vegas los resultados de varias pruebas utilizando el software de reconocimiento de PittPatt.

En una de ellas lograron identificar a un tercio de los 93 estudiantes que se habían dejado fotografiar a partir de las fotos de los perfiles públicos de Facebook visibles en cualquier buscador. En un segundo experimento localizaron los cinco primeros dígitos de la seguridad social de varios de ellos cruzando esos datos con la información oficial pública disponible en internet. Los investigadores destacan que en principio debería ser posible identificar el número de la seguridad social completo, pero que el tamaño de la muestra utilizada era demasiado pequeño para ser más preciso en los resultados.

"Nuestro estudio no es tanto sobre el reconocimiento de rostros como sobre los problemas de privacidad que plantea la convergencia de diversas tecnologías", explica Alessandro Acquisti, uno de los investigadores de Carnegie Mellon. Acquisti también ha desarrollado una aplicación de realidad aumentada para smartphones que analiza y compara los rasgos de la cara casi en tiempo real. Aunque afirma que no hay planes para lanzarla, también añade que no sería difícil de replicar por empresas interesadas. "Si la cara de un individuo en la calle puede ser identificada utilizando un software e imágenes disponibles en redes sociales como Facebook o Linkedin, entonces es posible no sólo identificar a la persona sino también inferir información adicional y más delicada sobre ella", añade Acquisti, que menciona ejemplos como la solvencia de alguien o su orientación sexual.

Fuente: publico.es, 7-8-11

 

-Las primeras fotos de la Tierra cumplen 50 años

El ruso Yuri Gagarin se llevó todos los honores al ser el primer hombre en volar al espacio, pero fue su suplente, Guerman Titov, el primero en fotografiar la Tierra hace 50 años.

"Gagarin dijo al volver que había visto la Tierra y todo el mundo le creyó. Por eso, la misión de Titov era sacar imágenes de nuestro planeta que todos pudieran ver", señaló uno de los organizadores de la exposición '50 años de fotografía espacial'.

Guerman Titov. | Roscosmos

 

Titov, que aún no había superado la decepción que le supuso el no ser el primer cosmonauta de la historia, pudo ver cumplido su sueño el 6 de agosto de 1961 al subirse a bordo de la nave Vostok-2 con una cámara de cine al hombro.

"Te necesitamos para misiones más difíciles", le había dicho varios meses antes Serguéi Koroliov, el padre de la cosmonáutica soviética.

Una cámara Konvas Avtomat

Lo que nunca imaginó Titov es que pasaría a la historia precisamente por ser el primero en rodar imágenes de nuestro planeta con la cámara Konvas Avtomat y unos carretes de 300 milímetros, que se pueden ver en la exposición en la galería Fotosoyuz de Moscú. Precisamente, las primeras fotos de la Tierra fueron extraídas del rodaje realizado por Titov durante las 17 vueltas que dio a nuestro planeta, 25 horas durante las que incluso le dio tiempo a dormir, en lo que sí superó a Gagarin, que voló 108 minutos.

"Todo va bien, todo va bien. Se ve la Tierra y un gran río, aunque hay muchas nubes", comunicó al centro de control un emocionado Titov.

Las tres históricas fotos muestran un planeta Tierra de color azul cubierto de nubes blancas sobre un fondo negro; un tímido amanecer y una imagen de la ventanilla desde la que el cosmonauta soviético tomó las imágenes. Para realizar esas fotos, Titov recibió más de 60 horas de instrucción en el manejo de cámaras que le convirtieron en un auténtico fotógrafo profesional.

En la exposición se pueden ver varias imágenes de Titov, Gagarin y Valentina Tereshkova, la primera mujer en viajar al espacio, con cámaras en la mano.

Fotografía espacial

Desde la proeza de Titov, la fotografía ha formado parte de todas las misiones espaciales, como cuando Neil Armstrong descendió a la superficie lunar a bordo del Apolo 11 y sacó unas imágenes en las que aparecen la Luna y la Tierra en la misma toma. Aunque hubo que esperar hasta 1972 para que los tripulantes del Apolo 17, los últimos en pisar la Luna, fotografiaran la Tierra al completo, foto que ha pasado a la historia de la humanidad y ha sido colgada en las paredes de los hogares de medio mundo.

Hace sólo unos días, dos cosmonautas rusos aprovecharon una caminata al exterior de la Estación Espacial Internacional para fotografiar tres retratos de Gagarin, Koroliov y del científico ruso Konstantín Tsiolkovski con la Tierra al fondo.

Ahora, en cambio, las mejores fotos no las toman los tripulantes de las naves rusas Soyuz, de los transbordadores estadounidenses ni de la plataforma orbital, sino los satélites y las sondas que protagonizan los vuelos interplanetarios. Además de tomar fotos, Titov, que tenía sólo 25 años cuando viajó al espacio exterior, fue el primer hombre en sufrir vértigos debido a la falta de gravedad, lo que no le impidió conciliar el sueño con facilidad.

Su viuda, Tamara, comentó que Titov nunca se consideró un héroe, ya que opinaba que su vuelo había sido un logro de "todo el pueblo soviético", pero sí estaba "orgulloso" de haber sido un pionero en la conquista del espacio.

"Titov fue el primer fotógrafo espacial. Gracias a su trabajo, supimos qué bonita es la Tierra. Pero lo principal que demostró su vuelo fue que el hombre podía vivir y trabajar en el cosmos", señaló.

Su proeza permitió a los científicos soviéticos comprobar que el hombre podía soportar largos vuelos espaciales sin sufrir alteraciones en su estado de salud y, de paso, asestó un nuevo golpe propagandístico a Estados Unidos. El 5 de mayo el vuelo suborbital del astronauta norteamericano Alan Shepard a bordo del Freedom-7 había sido la respuesta de Washington a la hazaña de Gagarin, pero su travesía había durado apenas 15 minutos, por lo que la URSS llevaba claramente la delantera a EEUU en la incipiente carrera espacial.

Titov, que sigue siendo el hombre más joven en viajar al cosmos, murió en el año 2000 y apenas es recordado por los rusos, con la excepción de su ciudad natal, Polkóvnikovo (región siberiana de Altái), que inaugurará mañana, sábado, un museo en su honor.

Fuente: elmundo.es, 6-8-11

 

 

 

-Juno, la nave que desnudará Júpiter

Juno, la diosa que según el mito creó la Vía Láctea con un chorro de leche escapado de su pezón, es también el nombre de la primera nave humana capaz de desnudar a Júpiter, el mayor planeta del Sistema Solar.

La sonda, cuyo lanzamiento está previsto poco después de las 17.30 de hoy (hora peninsular española), alcanzará con sus instrumentos más allá de la densa masa de gas que forma el planeta y desvelará una pregunta que persigue a los astrónomos desde tiempos babilónicos: ¿esconde Júpiter un núcleo terrestre? La respuesta aclarará de paso cómo nacen estos gigantes hechos de gas que abundan dentro y fuera del Sistema Solar. "Lo que realmente buscamos es la receta para hacer planetas", explica Scott Bolton, investigador principal de la misión, en declaraciones a AP.

El despegue será desde el Centro Espacial Kennedy (Florida), que apenas hace dos semanas dio el adiós a los transbordadores con los que EEUU mandaba astronautas al espacio. Donde el hombre no puede llegar, deben ahora alcanzar los dioses, convertidos en juguetes de tecnología punta.

La nueva Juno será la primera nave capaz de viajar a las vecindades de Júpiter, recorriendo 3.200 millones de kilómetros hasta llegar a su destino, a más de 800 millones de kilómetros del Sol, usando sólo energía solar. No es cosa fácil, ya que a una distancia del Sol cinco veces mayor que la de la Tierra, los rayos del astro rey apenas aportan energía suficiente como para encender unas cuantas bombillas. Por eso, la sonda diseñada por la NASA lleva tres alas de casi nueve metros recubiertas con paneles solares. Cuando, dentro de un viaje de cinco años, Juno llegue a las proximidades del gigante, esas alas le proporcionarán 400 vatios de energía solar. Con ellos será capaz de mantenerse un año dando vueltas a un planeta tan descomunal que podría albergar dos veces al resto de cuerpos del Sistema Solar, excluyendo al Sol. En la Tierra, los mortales usarán casi diez veces más energía que Juno para lavar los platos en el lavavajillas.

 

Reconstrucción de la sonda 'Juno' sobre Júpiter.NASA

Hasta ahora, las naves que más se han aventurado hacia los confines del Sistema Solar lo han hecho con energía nuclear. Es el caso de las dos Voyager lanzadas en 1977, los artefactos hechos por el hombre más viajados. También la sonda de la NASA Galileo, que salió hacia Júpiter en 1995, llevaba un motor de plutonio.

Hasta ahora, los telescopios terrestres y las sondas espaciales han mostrado que aquel planeta es una bola de hidrógeno y helio gaseosos. La masa del planeta es tal que, si una persona pudiese entrar en ella, sentiría que su peso es dos veces y media mayor que en la Tierra. Iría bajando sin hacer pie a capas cada vez más densas hasta llegar a un punto en el que la presión lo aplastaría como a un bote de cerveza.

Las capas externas de Júpiter son tan opacas que nadie sabe lo que esconden. Su atmósfera, agrupada en serpenteantes cinturones ocres y blancos, es capaz de girar a 600 kilómetros por hora. En esa esfera repleta de amenazas la reina es la Gran Mancha Roja, una especie de tornado que lleva girando 300 años y que podría envolver dos tierras y media.

Juno será la primera nave capaz de ver más allá de esas nubes con sus siete instrumentos. Uno de ellos estudiará de dónde viene la energía para generar tormentas tan monstruosas. El lugar está tan lejos del Sol que la radiación del astro no basta para explicarla. Los astrónomos saben que un tercio de toda la energía del planeta viene de su interior, pero no de dónde. Sospechan que, en las profundidades del planeta, el hidrógeno está a tanta presión que se vuelve un fluido metálico que estaría generando un campo magnético 14 veces mayor que el de la Tierra, además de las espectaculares auroras que admiran los astrónomos. El magnetómetro de Juno, una especie de abrebotellas en el extremo de una de sus alas, será el encargado de averiguar si la teoría es cierta.

El alcance de la misión es mucho mayor. Los instrumentos de la nave dirán si existe o no un núcleo de roca oculto bajo esa intratable atmósfera. "Esta cuestión, que parece un poco como si los científicos jugaran a cara o cruz, tiene en realidad implicaciones bastante profundas", advierte Mercedes López-Morales, experta en exoplanetas del Instituto de Ciencias del Espacio, en Barcelona. Se debe a que la existencia o no de un hueso en la enorme aceituna de Júpiter puede echar por tierra una de las dos teorías que explican cómo se originó el Sistema Solar.

Ambas comienzan con la descomposición de una gigantesca nube de gases y moléculas. La mayor parte se acumuló en el centro formando el Sol. Después llega la separación. La primera versión mantiene que el resto de la materia que había en torno al Sol naciente se fue agrupando gracias a su influjo gravitatorio, formando poco a poco núcleos rocosos crecientes. Algunos de esos núcleos nunca dejaron de ser rocosos y formaron planetas como la Tierra o Marte, cercanos al calor de la estrella. En los arrabales, los núcleos contendrían mucho más hielo. Su influjo gravitatorio atrajo nubes de gases cada vez más densas que formaron los planetas como Saturno, Neptuno, Urano y el mastodóntico Júpiter.

La teoría contraria mantiene que los gases se agruparon por sí solos por empuje gravitatorio, sin necesidad de núcleos. "Los teóricos llevan años en mitad de una batalla campal a cuenta de esto y, de momento, la que tiene más seguidores es la primera", explica López-Morales. "Esta predice que Júpiter tiene un núcleo rocoso", continúa; "si no es así, muchos se llevarán una gran sorpresa".

Los resultados tendrán eco fuera del Sistema Solar, ya que también pueden explicar cómo se forman los numerosos sistemas de exoplanetas que se han descubierto hasta el momento. La gran mayoría de los más de 500 exoplanetas que se conocen son gigantes gaseosos como Júpiter.

Juno también medirá el agua en la atmósfera, observará los polos con detalle y podrá sacar fotografías en color y alta resolución del planeta. Al cabo de 32 vueltas, el artefacto se zambullirá en picado en la atmósfera de Júpiter en una última misión suicida.

Fuente: publico.es, 5-9-11

 

-Un impacto formó las montañas de la cara oculta de la Luna

Las montañas, tierras altas, de la cara oculta de la Luna podrían ser los restos de una gran colisión entre ella y otro satélite terrestre más pequeño, que acabó por desaparecer. Así se concluye en el trabajo de dos científicos de la Universidad de California que esta semana se publica en la revista 'Nature'.

Simulación de la colisión entre las dos lunas terrestres. |Nature

 

Los investigadores parten de la teoría que defiende que un objeto del tamaño de Marte chocó con la Tierra en los orígenes del Sistema Solar, lo que hizo que salieran despedidos pedazos de masa que acabaron por configurar la Luna. En su trabajo, Erik Asphaug y Martin Jutzi señalan que entonces también se formó otro objeto, que en los inicios compartió la órbita de la Luna, pero que acabó colisionando con ella.

"Este estudio concuerda con lo que se conoce acerca de la estabilidad dinámica de este sistema, el proceso de enfriamiento de la Luna, y las edades de las rocas lunares", ha señalado Erik Asphaug, experto en ciencias planetarias.

En su trabajo, y gracia a simulaciones realizadas por ordenador, han recreado cómo pudo ser el impacto entre la Luna y una compañera que tenía 30 veces menos masa. Observaron que a baja velocidad, dado que no estaba muy lejos, el impacto no pudo generar un cráter ni fusionar la materia, que se quedaría amontonada en la región afectada hasta formar una gruesa capa de corteza, de varios kilómetros de profundidad.

La explicación de las grandes diferencias que hay entre los dos lados de la Luna es fruto de una gran controversia científica. Uno de ellos es bajo y plano, mientras el otro es montañoso. "Habría sido un impacto extraño que, al ser lento, no forma un cráter, sino que amontona material en la superficie", explica Asphaug.

Además, su modelo explica también por qué la composición de la corteza lunar es diferente: en ese lado hay potasio, elementos de tierras raras y fósforo. Son elementos que se concentrarían en el océano de magma que se solidificó bajo la corteza de la Luna y que, con el impacto, resultó aplastado.

Pero otras hipótesis, también publicadas en revistas de prestigio, encuentran otras explicaciones, como que las montañas las crearon las fuerzas de las mareas o que la diferente composición se debe a extraños volcanes.

Fuente: elmundo.es, 4-8-11

-"Negros" , mentiras y artículos científicos

Tanto los médicos como los pacientes, los académicos o la propia prensa asumen que, cuando leen un artículo científico sobre los efectos de un fármaco, los autores que lo firman son las mismas personas que han estado involucradas en diseño y elaboración del estudio reflejado. Al igual que, cuando se lee una novela, se espera que la haya escrito la misma persona cuyo nombre aparece en la portada. Sin embargo, ni en uno ni en otro caso ocurre siempre así.

Si en el ámbito literario se conoce como 'negro' o 'escritor fantasma' al auténtico autor de un texto que después firma otra persona, en la investigación biomédica puede darse un fraude similar: primero se prepara un informe científico en el que se destacan determinados resultados, y después se busca a investigadores profesionales que impriman su firma sobre el artículo, con el fin de simular que se trata de un trabajo independiente realizado por expertos.

Imagen de archivo de una científica trabajando con un fármaco. | Foto: El Mundo

 

 

Esta forma de publicación, conocida como autoría invitada ('guest autorship'), no sólo constituye una violación de los estándares éticos de la investigación, sino que también podría ser ilegal en EEUU, país líder en edición de artículos médicos y científicos. Así lo argumentan dos expertos en Derecho en la revista 'PLoS Medicine', revista de libre acceso que tradicionalmente se ha mostrado contraria a la proliferación de autores invitados.

Los juristas Simon Sern y Trudo Lemmens, de la Universidad de Toronto (Canadá), recuerdan que el Tribunal Supremo de EEUU estableció hace décadas que atribuir un estudio a un falso autor es contrario al Derecho, incluso si las conclusiones que se defienden son ciertas. Además, se han dado casos en que una farmacéutica ha sido llevada a los tribunales y se han producido problemas para identificar a los responsables de un informe, ya que los firmantes no eran realmente quienes lo habían redactado.

En definitiva, buscar a un científico para que se responsabilice de una investigación farmacéutica que no ha realizado no sólo constituye un engaño en sí mismo, sino que puede dar lugar a serios problemas legales si se diese el caso de que algo va mal con el medicamento estudiado y los firmantes del informe tuvieran que responder ante del juez. Sin embargo, esta práctica está extendida e incluso comienza a ser habitual, según denuncian algunos expertos.

"Parece que, en algunos círculos académicos, el reclutamiento de 'autores' comienza a ser considerado aceptable, y las campañas de marketing ya no se orquestan en torno a la emisión de anuncios, sino que se centran en 'evidencias' proporcionadas por artículos revisados aparentemente respetables", señalaban hace dos años los editores de la revista 'PLoS Medicine'.

Industria oculta

La práctica, según han identificado diversos autores a lo largo de los últimos años, ha dado lugar a toda una industria oculta: existen autores e incluso empresas que ofrecen sus servicios como 'negros', es decir, son especialistas en redactar desde el anonimato informes científicos; también hay compañías de marketing -o departamentos dentro de las farmacéuticas- que planifican los plazos y el modo en que se presentará un resultado.

"Los mensajes financiados por la industria [farmacéutica] podrían infectar artículos en todas las revistas médicas", alerta la doctora Adriane J. Fugh-Berman, de la Universidad de Georgetown (EEUU). "No se sabe cuántos académicos participan, o cuántas revistas revisadas por pares están escritas por 'fantasmas', pero existe preocupación de que esta práctica pueda estar extendida", añade esta experta.

El problema, de acuerdo con los profesores Sern y Lemmens, no es tanto que los resultados sean falsos, sino que la 'autoría fantasma' debilita los fundamentos de credibilidad e integridad en los que debería asentarse la publicación de resultados científicos, y más aún en el caso de estudios farmacológicos en los que está en juego la salud de los pacientes.

Fuente: elmundo.es, 3-8-11

 

-Hallado el cráneo del "matusalen" primate

Un equipo de paleontólogos ha desenterrado en Uganda el cráneo más antiguo y completo de un primate. Vivió hace 20 millones de años en Karamoja, al noreste del país. "Es la primera vez que se encuentra la calavera completa de un primate de esta edad", celebró ayer el paleontólogo del College de France (París) Martin Pickford, uno de los descubridores del fósil, informa AFP.

El ejemplar hallado ayudará a explicar la evolución de los simios. THINKSTOCK

 

Durante una rueda de prensa celebrada ayer en Kampala, el equipo de expertos ugandeses y franceses explicó que los restos pertenecieron al Ugandapithecus major, una especie descrita por Pickford en 2000. Era un "primo lejano" de los grandes simios actuales, según sus descubridores. El espécimen hallado murió a los 10 años y tenía el tamaño de un chimpancé, aunque su cerebro era más pequeño, similar al de los papiones. "Ahora podremos entender mejor la evolución cerebral y facial y ver cómo se conecta con la de otros primates modernos y la de nuestra propia familia", señaló Brigitte Senut, experta en grandes simios del Museo Nacional de Historia Natural de Francia y codescubridora del cráneo.

Los restos aún no han sido descritos en detalle, lo que impide a expertos independientes valorar su importancia real. Antes serán enviados a Francia para su limpieza y análisis con rayos X, detalló Senut, quien aclaró que, tras este estudio, los restos "serán devueltos al país de origen".

"Es un hallazgo muy interesante que puede aportar mucha información, aunque no sabremos cuánta hasta que podamos analizar los restos", advierte Salvador Moyà-Solà, director del Institut Català de Paleontología. Más allá de los 20 millones de años, los restos de primates se limitan a dientes sueltos, lo que dificulta reconstruir cómo evolucionaron. De ahí la importancia del hallazgo de Pickford para reconstruir la epopeya evolutiva que desemboca en el Homo sapiens.

El Ugandapithecus era un hominoideo, un grupo con formas antropoides que hoy incluye al hombre y los grandes simios, pero con los que no estaba emparentado. "Era el hominoideo más grande conocido en aquella época, una especie de gorila primitivo", explica Moyà-Solà. Sí tenía lazos con los procónsules, otra familia de hominoideos de menor tamaño que vivieron en aquella época (el Mioceno) y que hoy están extintos. El rasgo más humano que tuvieron fue la ausencia de cola.

Fuente: publico.es, 3-8-11

 

-Polémica en la Estación Espacial

La incertidumbre que se cierne estos días sobre la exploración espacial ha salpicado a la Estación Espacial Internacional. Hasta ahora, este laboratorio que orbita a unos 350 kilómetros de la Tierra había sido el mayor ejemplo de colaboración y armonía entre sus socios: EEUU, Rusia, la Agencia Europea del Espacio (ESA), Japón y Canadá.

Esto se enturbió la semana pasada cuando Vitaly Davydov, vicedirector de Roscosmos, la agencia espacial rusa, sugirió que la estación sería arrojada al Oceáno Pacífico después de 2020, según Ria Novosti.

La fecha marca el límite actual de su vida útil. Terminada esta, Davydov decía que el hundimiento era la única opción, ya que el ingenio se convertiría en peligrosa chatarra espacial. Sus comentarios iban en la dirección contraria que los de EEUU y el resto de socios, que están negociando ampliar la vida del proyecto hasta 2028, según explicó un portavoz de la NASA a Fox News. Poco después, la jefa de prensa de Roscosmos dio marcha atrás y aseguró que los comentarios del hundimiento fueron sacados de contexto. Además confirmó que los países miembros "ampliarán el periodo de la ISS", informó Interfax. Sin embargo se reafirmó en que el futuro último del artefacto pasa por "hundirlo".

EEUU acaba de jubilar las naves con las que viajaba al espacio. Por ahora, su única forma de llegar a la ISS es a bordo de naves rusas de diseño soviético. En lugar de construir sus propios vehículos, el Gobierno de Barack Obama ha apostado por una nueva flota de naves privadas cuya siguiente prueba llegará el 30 de noviembre. Ese día, una cápsula Dragon sin tripulación tiene previsto viajar a la ISS, acoplarse a ella y regresar a la Tierra, según explicó a Reuters un portavoz de SpaceX, la compañía responsable de la nave.

 

Fuente: publico.es, 2-8-11

-La NASA desvela la primera fotografía de Vesta

La NASA ha presentado la primera fotografía completa del asteroide Vesta, tomada por las cámaras de la nave espacial Dawn, que entró en su órbita el pasado 15 de julio. Las imágenes de cerca del asteroide Vesta, un protoplaneta que se remonta a los primeros días del Sistema Solar, revelaron un terreno sorprendentemente diverso y características geológicas sorprendentes, según los científicos de la NASA.

Dawn tomó la imagen el pasado 24 de julio cuando se encontraba a 5.200 kilómetros de distancia del asteroide.

Dawn, lanzada en 2007, pasará un año girando alrededor de Vesta para estudiar su superficie y posteriormente se dirigirá al planeta enano Ceres.

Cinturón de asteroides

Con 530 kilómetros de diámetro, Vesta es el segundo objeto de mayor tamaño en el cinturón de asteroides, entre Marte y Júpiter, que rodea al Sistema Solar. Los científicos han calculado que esa región alberga a unos cien mil asteroides, considerados los "escombros" que quedaron tras la formación del sistema hace 4.600 millones de años.

En este proyecto participan el centro JPL para la Dirección de Misiones Científicas de la NASA en Washington, el Centro Marshall de Vuelo Espacial en Huntsville (Alabama), la Universidad de California (UCLA) y la compañía Orbital Sciences Corporation, que diseñó y construyó la nave espacial. También son parte del equipo de la misión el Centro Aeroespacial Alemán, el Instituto Max Planck para la Investigación del Sistema Solar, la Agencia Espacial Italiana y el Instituto Italiano de Astrofísica.

 

El asteroide Vesta mide unos 530 kilómetros de diámetro .| NASA.

 

Fuente: elmundo.es, 2-8-11

 

-La desobediencia civil alcanza a la publicación de estudios científicos

En la tarde del 6 de enero de este año, miembros del Servicio Secreto de Estados Unidos, agentes de la Policía Local de Boston y efectivos de la seguridad del Instituto Tecnológico de Massachusetts (el prestigioso MIT) persiguieron a un joven que huía por el campus universitario a lomos de una bicicleta hasta que fue detenido. ¿El delito del joven? Acceder a la red del MIT con un ordenador para descargar 4,8 millones de artículos científicos. No es el argumento de una película, el Gobierno de EEUU pide 35 años de cárcel para este activista de la llamada libre información.

Aaron Swartz, en primer plano, durante una reunión de la organización Creative Commons . Fred Benenson / CC BY 2.0

 

Aaron Swartz , de 24 años, compró el septiembre pasado un portátil para, según consta en el auto por el que un juez de Boston lo acusó hace unos días de un delito informático, conectarse a la red del MIT y, desde ahí, acceder a la base de datos de publicaciones académicas JSTOR (del inglés Journal Storage). Esta organización es una nueva Biblioteca de Alejandría de la ciencia. Desde 1995 ha digitalizado las ediciones de 1.400 revistas científicas y tiene a 7.000 instituciones de 153 países entre sus clientes. La mayoría son universidades que pagan una cantidad que puede llegar hasta los 35.000 euros al año para poder acceder a sus archivos.

Swartz descargó el 98% de toda esa información. Cada día llegaba al campus del MIT, que ofrece una cuenta de acceso limitado a su red a los visitantes, y accedía a la base de datos de JSTOR. Diseñó un programa que automatizaba la descarga de todos los archivos que encontraba en formato PDF. Los responsables del sistema, al detectar una descarga tan masiva (en dos meses Swartz se bajó cien veces más de lo que descarga toda la red del MIT de JSTOR) bloquearon la dirección IP (que identifica a un ordenador en la red) que usaba. Pero cada vez que lo hacían, el activista cambiaba de dirección.

La investigación del caso

Tras semanas de jugar al ratón y al gato, JSTOR decidió bloquear todos los accesos que vinieran del MIT, lo que obligó a la universidad a investigar en serio el asunto. Su seguridad descubrió un ordenador conectado a su red escondido en una caja de cartón oculta en un armario de uno de los edificios universitarios.

El 4 de enero, los investigadores tomaron huellas del equipo y colocaron una cámara para saber quién era el intruso. Dos días después se producía la detención de Swartz.

Ahora, la Fiscalía de EEUU acusa a Swartz de una intrusión informática en redes del MIT y JSTOR, daño a sus servidores y de llevarse 4,8 millones de artículos, de los que 2,7 millones eran de editoriales independientes que los ponían a la venta en la plataforma de JSTOR. Según el escrito, la intención de Swartz era distribuir el material en "una o más páginas de intercambio de archivos". Piden para él 35 años de cárcel y una multa de un millón de dólares (unos 700.000 euros).

La noticia de la acusación formal ha provocado la reacción de los activistas de EEUU que defienden el libre flujo de la información. Primero porque, por sus antecedentes, Swartz no parece que buscara beneficiarse económicamente. Este joven pertenece a esa clase de genios digitales que usan la tecnología para el activismo y la difusión del conocimiento. Con 14 años, participó en el diseño del RSS, un mecanismo para recibir avisos de que una página ha sido actualizada.

Si se buscan fotografías de él en Google, hay una en la que, siendo niño, aparece vestido con una camiseta con la leyenda Creative Commons, la organización que creó un sistema alternativo a las restricciones del modelo actual del copyright. A su lado posa Lawrence Lessig, el cofundador de Creative Commons.

"La carrera de Aaron se ha centrado en servir al interés público promoviendo la ética, el Gobierno abierto y la política democrática", dice David Segal, director de Demand Progress , una organización con 500.000 miembros que Swartz creó y dirigió años atrás.

En el haber de Swartz también está su participación en la creación de la web de noticias Reddit (de la que meneame.net es su versión española). En 2008 publicó un estudio, junto a Shireen Barday, analizando quién financiaba determinados estudios científicos. Una de las conclusiones revelaba que los autores de investigaciones tienden a defender los postulados de los que han pagado sus trabajos.

Robo de conocimiento

Con ese pedigrí, Swartz no da la imagen de un delincuente informático sino de un ciberactivista. Como tal, hace tres años participó en la creación de un efímero movimiento llamado Guerrilla Open Access. Dos frases ilustran su misión. "No hay justicia al respetar leyes injustas. Es hora de salir a la luz y, en la gran tradición de la desobediencia civil, declaramos nuestra oposición a este robo privado de la cultura pública". En un segundo párrafo ya se adivinan las motivaciones de Swartz en este caso: "Tenemos que hacernos con la información, esté donde esté almacenada, hacer nuestras copias y compartirlas con el mundo".

Sin embargo, para la fiscal de Massachusetts, Carmen Ortiz, "robar es robar, ya sea con un comando de ordenador o con una palanca, ya se trate de documentos, datos o dólares", asegura en un comunicado. "Es igualmente perjudicial para la víctima tanto si se vende todo lo que se ha robado como si lo regalan", añade. Se da la circunstancia de que ni JSTOR ni el MIT querían denunciar. "Ha sido decisión del Gobierno el enjuiciarle, no de JSTOR", asegura en un comunicado esta organización tras la polémica levantada.

"Le quieren meter en la cárcel por culpa de un copyright que se ha quedado viejo", explica a Público el profesor del departamento de Economía de la Universidad de Washington en Saint Louis, Michele Boldrin. Para el coautor del libro Against Intellectual Monopoly , "a la ciencia le está pasando lo mismo que ya vivieron la música o el cine: la tecnología es tal que sería posible hacer accesible el conocimiento a un coste muy bajo, incluso ganando dinero, pero con el actual sistema de copyright esto es imposible".

Boldrin publica investigaciones y también consulta otras. "Pero yo ya no voy a la biblioteca, lo busco en internet", comenta. Señala al actual sistema de propiedad intelectual como el principal freno a la digitalización de revistas. Pero, además, las editoriales poderosas escanean colecciones históricas, ya en el dominio público, consiguiendo así el copyright para ellas.

Publicar los artículos

Ese efecto perverso es el que quiso denunciar el matemático Greg Maxwell. Nada más saber de la acusación contra Aaron Swartz, este también estadounidense cogió su colección de 18.000 artículos de la revista Philosophical Trans-actions of the Royal Society y los publicó en la página de enlaces The Pirate Bay . Hay textos de Isaac Newton o Charles Darwin. De hecho, todos son anteriores a 1923, por lo que hace años que estarían en el dominio público si no fuera porque JSTOR los digitalizó y cobra desde cinco euros por artículo.

Maxwell justifica su acción en solidaridad con Swartz: "La publicación académica es un sistema curioso. Los autores no cobran por sus escritos. Los revisores tampoco y, en algunos campos tampoco los editores de las revistas. Incluso, a veces, los autores tienen que pagar a la editorial. Y aún así las publicaciones científicas son una de las piezas más escandalosamente caras de literatura que uno puede comprar. En el pasado, las elevadas tarifas de acceso soportaban la reproducción mecánica de las revistas especializadas pero la distribución online ha hecho de esta función algo obsoleto".

En uno de los comentarios de respuesta a Maxwell, un usuario de The Pirate Bay describe con una sola frase un sentimiento que comparten muchos de los conocedores del caso de Swartz: "No soy científico pero me los estoy descargando por principios".

Fuente: publico.es, 1-8-11