Inicio

 

Ya puedes DESCARGAR todos nuestros PROGRAMAS DE RADIO "EL ALEPH" en la Sección NOSOTROS-PROGRAMACIÓN--

 

NOTICIAS CIENTÍFICAS


NOTICIAS DE ULTIMA HORA

--Nuevas Noticias Próximamente--

NOTICIAS EXTENDIDAS

 DICIEMBRE 2008

TITULARES DE LAS NOTICIAS DEL MES

 

La NASA asegura que los astronautas del "Columbia" no tuvieron oportunidad alguna

Beber con moderación previene el Alzheimer

El año 2009 estará entre los cinco más cálidos desde 1850

La increíble historia de Alex, el loro más inteligente del mundo

La cara amable de las matemáticas

El sexo nació de un alga acorralada por un virus

El amanecer que deslumbró al mundo

¿Qué fue la estrella de Belén?

La bacteria que se convirtió en dinosaurio

El oxígeno hizo más grande a los seres vivos

Frío polar en un planeta cada vez más caliente

La NASA a la búsqueda de unos patos

El "Prestige" duplicó los parásitos de los peces en la costa gallega

Un bebe sin gen del cáncer de mama nacerá este mes en Reino Unido

Los dinosaurios también eran buenos "papás"

La ciencia en los países emergentes

Existe un 50% de contraer cáncer

Prótesis con sensibilidad real

La reprogramación celular estrella de la investigación de 2008

Nuevas claves para resolver los misterios de Marte

La sonda Kepler a la búsqueda de otras Tierras

La ESA habla de ciencia ficción

El futuro de las redes sociales

La NASA descubre indicios de un océano en una luna de Saturno

Lunas habitables

Energía oscura, el acelerador cósmico

Tres de cada cuatro especies de peces en el mundo está amenazada por la sobrepesca

España tendrá el único telescopio europeo destinado a investigar la energía oscura

Un agujero negro ejemplar

Así impactó la mal llamada "gripe española"

Observan por primera vez a rotura de una placa tectónica

El país que se "hunde" por el calentamiento global lanza un SOS ante la ONU

Canadá y Japón bloquean las negociaciones de la cumbre de Poznan

"Hubble" descubre dióxido de carbono en un planeta extrasolar

Los meteoritos posible origen de la vida terrestre

El calentamiento no espera a Pozman

Cerca, aparatos autocargables

Ampliar las fronteras de la inteligencia artificial

Darwin más que nunca

El pterosauirio más grande conocido vivió hace 115 millones de años

Nace la enciclopedia ornitológica digital más completa

La colonización de Marte podría empezar por los robots

Investigadores sin cerebro

Un trabajo sobre las células madre del cáncer desacredita la teoría más extendida

El tesoro de la biodiversidad antártica

"Creo que hay vida en Marte"

El aire contaminado perjudica el desarrollo del cerebro infantil

El primer videojuego de la historia cimple 50 años

 

Archivo


 

-La NASA asegura que los astronautas del "Columbia" no tuvieron oportunidad alguna

Los siete astronautas del 'Columbia' supieron que iban a morir 40 segundos antes de que el transbordador se desintegrara en su choque con la atmósfera, reveló un informe de la NASA. Durante esos segundos, los astronautas advirtieron que ya no tenían el control del vehículo, cuyos restos se exparcieron sobre una amplia zona del estado de Texas (EEUU), indicó el informe de 400 páginas. "Y una vez que hizo explosión el módulo de la tripulación, no hubo posibilidad de que sobrevivieran con los medios disponibles", indicó el informe.

 

Momento de la desintegración del "Columbia"

  El desastre ocurrió el 1 de febrero de 2003 cuando la nave se disponía a culminar una, hasta entonces, exitosa misión científica de 16 días, con un aterrizaje en el Centro Espacial Kennedy, en Florida (EEUU). La tragedia se cobró la vida del comandante Rick Husband, el piloto Willie McCool, el comandante de carga Michael Anderson, y los especialistas David Brown, Kalpana Chawla, Laurel Clark e Ilan Ramon, que era el primer astronauta israelí.

Según la investigación del desastre, éste ocurrió debido a que un trozo de espuma aislante perforó el ala izquierda de la nave, abriendo un agujero por el cual penetró el aire candente del reingreso que causó la explosión de la nave. La perforación del ala izquierda ocurrió en el momento del lanzamiento y los daños nunca fueron detectados durante la misión, indicó el informe oficial.

Más problemas añadidos

El documento de la Agencia Espacial Estadounidense (NASA) también reveló que había otros problemas en los equipos de los astronautas y que algunos de ellos no los estaban usando. Los cascos, los trajes y hasta las correas terminaron por causar "el trauma letal" que sufrieron los astronautas, señaló el informe, basado en el análisis de vídeos y de los restos del Columbia, así como de conclusiones médicas y modelos informáticos.

 

Según los expertos, que tardaron cuatro años en completarlo, los siete astronautas se habían puesto su traje, pero uno de ellos no llevaba el casco, tres no se pusieron los guantes, y ninguno había bajado el visor antes de que se registrara la pérdida de presión en la cabina. En su informe, señalaron que después que la tripulación perdió el conocimiento debido a la pérdida de presión en la cabina, no funcionó el mecanismo que debía asegurar las correas a los hombros de los astronautas. Como resultado, los tripulantes quedaron expuestos al movimiento rotatorio, sujetos solamente por la parte inferior de su cuerpo. Los cascos no se ajustaron a su cabeza.

"En consecuencia, se produjo un trauma letal en los tripulantes, inconscientes o ya muertos, debido a la falta de apoyo y sujeción en la parte superior de su cuerpo", manifestó la NASA. Pero nada de lo que hubieran hecho en ese momento pudo salvarles la vida, según el informe.

Despresurización en segundos

La depresurización "ocurrió tan rápidamente que los miembros de la tripulación quedaron incapacitados a los pocos segundos y antes de que pudieran configurar el traje para conseguir protección ante la depresurización de la nave", indicó el informe. La tragedia del 'Columbia' fue una de las más graves en la historia espacial de Estados Unidos.

El 28 de enero de 1986, el transbordador "Challenger" se desintegró poco más de un minuto después de partir desde el Centro Espacial Kennedy en Florida. En esa ocasión, murieron también sus siete tripulantes. La NASA ya había sido sacudida por la tragedia el 27 de enero de 1967, cuando tres astronautas de la cápsula Apolo 1 murieron al incendiarse la nave durante una serie de pruebas en Cabo Cañaveral.

En estos momentos, la flota de transbordadores está integrada por el "Endeavour", el "Atlantis" y el "Discovery". Tras más de 25 años de uso, esas tres naves serán retiradas en 2010 para ser reemplazadas por las de la serie "Constellation" que entrarán en operaciones en 2015.

Fuente: elmundo.es, 31 de Diciembre de 2008

 

 

-Beber con moderación previene el Alzheimer

Consumir con moderación --nunca en exceso-- bebidas alcohólicas, puede reducir el riesgo de desarrollar Alzheimer, así como otras enfermedades que suponen la pérdida cognitiva, según determina un estudio realizado porespecialistas norteamericanos durante un años.

Según los expertos, ésto ocurre debido a que, una ración de alcohol al día crea estrés en las células del cerebro ayudando a que cada vez sean más fuertes y que se conviertan en aptas para lidiar con estreses mayores a lo largo del tiempo. Esto les permite superar unos niveles que en otras personas podría desmbocar en demencia. 

"El alcohol tiene una doble cara", dijo Michael Collins, profesor de la Loyola Medicine y director de la investigación, quien señaló que con esta frase lo que quiere decir es que estas bebidas "son perjudiciales si se abusa de ellas, pero en cantidades pequeñas pueden ser útiles en muchos aspectos".

Moderado = dos copas

En este sentido, en un artículo publicado por la revista Alcoholism: Clinical and Experimental Research, explica que lo que se puede considerar como un consumo 'normal' o moderado sería una o dos copas diarias de alcohol para los hombres, y una copa o menos al día para las mujeres.

"El aumento del consumo de alcohol en los últimos años y los daños patológicos que supone la ingesta son bien conocidos por la sociedad actual, que es quien ha tolerado que estas bebeidas formen parte de la vida cotidiana, por ello la adicción y el abuso de alcohol necesita recibir una atención prioritaria de médicos, científicos y otros profesionales de la salud", escribió Collins en la publicación intentando concienciar a las personas de "un consumo responsable, entre leve y moderado, de alcohol", porque así podrán, a través de él, obtener "determinados beneficios para la salud".

Así lo demuestran con el estudio que llevaron a cabo con varias personas a las que proporcionaron en dosis adecuadas vino, cerveza y otras bebidas alcóholicas durante un año. A través de la investigación descubrieron que una copa de vino es beneficiosa para los problemas cardiovasculares, sino que también reduce el riesgo de padecer enfermedades que suponen declive cognitivo, como el Alzheimer.

Según Collins y su colega Edward Neafsey, ésto se debe a que un poco de alcohol puede, en la prática, mejorar el funcionamiento de las células del cerebro ya que causa estrés en las células y, por tanto, las convierte en aptas para lidiar con estreses mayores a lo largo del tiempo, una situación que, en otras personas puede desmbocar en demencia.

Fuente: adn.es, 31 de Diciembre de 2008

 

 

 

 

-El año 2009 estará entre los cinco más cálidos desde 1850

El año 2009 estará entre los cinco más cálidos de los que se tiene registro histórico, según predijeron hoy científicos del Met Office (la oficina meteorológica del Reino Unido) y de la Universidad de East Anglia (Norwich). La predicción dice que la temperatura media en el planeta en 2009 se situará en 14,44 grados centígrados, 0,44 grados por encima de la media oficial registrada desde la década de los años 60. Con los termómetros en ese nivel, el año entrante se convertirá en el más cálido desde 2005 y confirmará, según los meteorólogos, el lento pero constante aumento de las temperaturas en el planeta. Los registros sobre los que se establece la temperatura media comenzaron en 1850 y muestran que 10 de los años más calurosos en el último siglo y medio corresponden al periodo 1997-2008.

El récord de hace diez años

El récord lo ostenta por ahora 1998, en el que la temperatura media alcanzó los 14,52 grados, en un año en el que El Niño, el fenómeno meteorológico cíclico que calienta las aguas del océano Pacífico y aumenta la temperatura en tierra, fue muy virulento. También se ha constatado que la temperatura del planeta se ha incrementado entre 2000 y 2008 en 0,2 grados con respecto a la década de los años 90, según destacó el profesor Phil Jones director de la unidad de investigación climática de la Universidad de East Anglia en un comunicado difundido hoy por el Met Office.

Los investigadores afirmaron que los termómetros no subirán más allá de esos 0,44 grados con respecto a la media en 2009 gracias a la influencia "refrescante" de La Niña, que en contraposición a El Niño contribuirá a moderar la subida de las temperaturas. Pero tras 2009, los científicos esperan que se superen los niveles actuales de temperaturas máximas.

"Es muy probable que se produzca un calentamiento aún mayor hasta niveles récord en cuanto se desarrolle un nuevo El Niño, dijo el profesor Chris Folland, meteorólogo del Met Office.

En cuanto a 2008, el Met Office y la Universidad de East Anglia, instituciones responsables de los registros de la temperatura mundial en nombre de la Organización Meteorológica Mundial (OMC), afirmaron que termina en décima posición entre los años más cálidos.

La influencia humana

Estos investigadores no dudan acerca de la influencia humana en el incremento de las temperaturas a causa de la emisión a la atmósfera de gases de efecto invernadero, que, en palabras del profesor Peter Stott, del Met Office, "han incrementado enormemente la posibilidad de que tengamos años tan cálidos como estos".

"Está demostrado que las temperaturas son hoy en día 0,7 grados más altas de lo que lo serían si los humanos no estuviéramos alterando el clima", argumentó Stott.

"A causa del cambio climático, lo que hace un tiempo hubiera sido un año excepcionalmente inusual se ha convertido ahora en algo bastante normal. Sin la influencia humana sobre el cambio climático, las posibilidades de ver un año tan cálido como 2008 serían 50 veces menor", añadió el meteorólogo.

Desde que estas dos instituciones comenzaron a predecir la temperatura media de la Tierra en 2000, el margen de error máximo ha sido de 0,06 grados centígrados.

Fuente: adn.es, 30 de Diciembre de 2008

 

 

-La increíble historia de Alex, el loro más inteligente del mundo

No era un loro cualquiera. Se llamaba Alex (acrónimo de 'Avian Learning Experiment') y llegó a desarrollar la inteligencia de un niño de cinco años. Podía idenficar objetos, números, colores y formas, y distinguir entre «grande» y «pequeño», «igual» y «diferente». Manejaba un vocabulario propio de 150 palabras. Decía «lo siento» si se equivocaba y pedía «quiero volver» (a la jaula) cuando estaba cansado. En el momento de la despedida, le preguntaba a su amiga y profesora Irene Pepperberg: «¿Vendrás mañana?» Ésas fueron precisamente las últimas palabras del loro, antes de morir repentinamente de un infarto o una arritmia en mitad de la noche. Su necrológica fue la más leída en 2007 en periódicos como The Guardian: «Alex, el loro africano gris que era más listo que la media de los presidentes norteamericanos, ha fallecido a la edad de 31 años».

 

Un año después de su despedida del mundo de los mortales, la psicóloga y científica Irene Pepperberg rinde homenaje a su incomparable alumno en 'Alex y yo', el libro donde recoge las tres décadas de aprendizaje mutuo, que se ha convertido en un gran éxito de ventas. «Un simple pájaro nos hizo cambiar el modo en el que pensamos sobre el pensamiento de los animales», sostiene Pepperberg.

«Desde el punto de vista científico, Alex nos enseñó que las mentes de otros seres vivos se parecen mucho más a las mentes humanas de lo que estábamos dispuestos a admitir».

Según Pepperberg, esa capacidad para «pensar y ser consciente» (atribuible a los primates a partir de los estudios de Jane Goodall, y también a los delfines y otros mamíferos superiores) es hasta cierto punto aplicable a las aves, aunque tengan un cerebro del tamaño de una nuez.

Todo lo que aprendió Alex y lo que le faltaba por aprender -estaba empezando a identificar las letras y a trabajar con los fonemas en inglés- demuestra en opinión de Pepperberg que los loros son capaces no sólo de imitar, sino de «razonar a un nivel básico y usar palabras creativamente».

 

Un Napoleón con plumas

Alex era capaz de mantener una conversación intermitente como si fuera un niño de dos años, aunque «su inteligencia equivalía realmente a la de un chaval de cinco años», en opinión de la que fue su profesora. Siguiendo el método de «modelo rival», Alex competía con un alumno humano e intentaba ponerse a su nivel. Tanta destreza adquirió que se convirtió en maestro ocasional de otros loros y les reprimía cuando se equivocaban: «¡Puedes hacerlo mejor!».

«Alex tenía la personalidad de un pequeño Napoleón con plumas», asegura Pepperberg. «En cuanto adquiría un conocimiento, manipulaba a todos los que estaban a su alrededor. Mis estudiantes solían llamarse a sí mismos los 'esclavos' de Alex. 'Quiero maíz', les decía. 'Quiero subir al hombro, quiero hacer gimnasia'». En sus momentos más sentimentales, el loro agachaba la cabeza y pedía: «Quiero cosquillas».

«Su propia conducta en el momento del aprendizaje nos reveló lo mucho que nos queda por descubrir en el campo de la inteligencia de los animales», escribe Pepperberg en Alex y yo. «Estoy hablando de asuntos con profundas implicaciones filosóficas, sociológicas y prácticas. Su ejemplo ha servido para plantearnos incluso el lugar del hombre en la naturaleza».

Pepperberg admite que siente una conexión especial con las aves desde niña y, gracias a Alex, se ha convertido en ardiente defensora de los derechos de los animales. Criticada por una parte de la clase científica -que pone en duda sus logros y asegura que el loro hablaba siguiendo el «condicionante operativo» y las instrucciones cifradas de su instructora-, la científica asegura que la «capacidad intelectual» de Alex ha sido probada con creces y que lo único que no pudo demostrar fue su «nivel de conciencia».

Pese al tiempo discurrido, la muerte del loro más listo del mundo ha dejado en ella un vacío que ningún otro ser alado ha podido llenar. «Sé buena, te quiero», fueron las penúltimas palabras de Alex antes de preguntarla si habría un mañana.

Fuente: elmundo.es, 26 de Diciembre de 2008

 

 

-La cara amable de las matemáticas

La ciencia de las matemáticas es, como asignatura, una de las materias que más se atraganta a los niños. Sin embargo, esta disciplina constituye una de las herramientas más importantes para la vida cotidiana, pese al desconocimiento que existe sobre ella. La mayoría de las cosas se organizan a partir de los números, pero las matemáticas están presentes en más aspectos de lo que se suele pensar, desde la navegación en mar abierto hasta la telefonía móvil o el vuelo de los aviones. Así lo constata el inglés Ian Stewart, director del Instituto de Matemáticas de la Universidad de Warwick (Reino Unido), en su obra Historia de las Matemáticas (Editorial Crítica), donde repasa los grandes hitos de la historia de esta disciplina.

Una imagen del Golden Gate, en San Francisco (EEUU).

 

Los datos manejados por Stewart no dejan lugar a dudas sobre la importancia de un campo de conocimiento dividido en casi un centenar de áreas mayores, subdivididas a su vez en varios miles de especialidades, que ocupa a más de 50.000 matemáticos investigadores en el mundo y sobre el cual se publican más de un millón de páginas nuevas cada año.

Y entonces, ¿a qué se debe su impopularidad? Fundamentalmente, según expone el autor, a que la mayoría de las matemáticas que se enseñan hoy en las escuelas tienen más de 200 años, y esto impide a los ciudadanos conocer sus usos y teorías más modernas y, por tanto, ser conscientes de la importancia de su aplicación a los elementos tecnológicos que emplean a diario.

Las matemáticas trabajan con un sistema numérico creado hace más de 1.500 años (unos 450 si hablamos de los decimales) y que hoy es clave, por ejemplo, para los biólogos empeñados en descifrar la información de la molécula de ADN descubierta en 1956 por James Watson y Francis Crick.

Asimismo, y aunque habrá quien piense que el comercio on-line es un procedimiento relacionado exclusivamente con la informática, en realidad se basa en la teoría de los números, que sirve de fundamento para muchos códigos de seguridad utilizados en Internet. El más conocido de ellos es el criptosistema RSA, que tiene la sorprendente característica de que el método que emplea para encriptar mensajes puede hacerse público sin necesidad de revelar el proceso inverso para desencriptarlo. Pero hay más ejemplos sorprendentes en un viaje por el conocimiento matemático que le quitará el rostro huraño a esta ciencia y la revelará como el amigo invisible de quien dependen muchas de nuestras comodidades diarias.

 

Arquitectura: puentes colgantes

El cálculo infinitesimal tiene múltiples repercusiones en la vida humana, aunque posiblemente la más destacada de ellas haya sido el descubrimiento de la curva necesaria para que un puente colgante no se desplome, conocida como catenaria. Esta aplicación fue descrita en el año 1691 por Johann Bernoulli, basándose en la mecánica y las leyes de movimiento de Isaac Newton. Bernoulli descartó la hipótesis de que la figura correcta era una parábola –aunque es cierto que los cables de suspensión de los puentes son parabólicos, lo que ocurre porque, además de su peso, soportan el del puente–.  Igualmente, este cálculo es básico para trazar la trayectoria de las sondas espaciales, calcular el desplazamiento de vehículos, o incluso estudiar la difusión de epidemias. De hecho muchas de las intervenciones que se ponen en marcha contra estos problemas de salud pública se basan en el cálculo infinitesimal.

Comunicación: telefonía móvil

El teléfono móvil hace un uso esencial de la geometría de espacios multidimensionales, igual que la conexión a Internet, la televisión por satélite o cable y prácticamente cualquier otro aparato tecnológico que envíe o reciba mensajes. La comunicación moderna, en cualquiera de sus modalidades, es digital, con lo que todos los mensajes, incluidos los de voz, se convierten en pautas binarias basadas en los números 0 y 1. Pero las comunicaciones no son útiles si no son fiables: existe la posibilidad de que el mensaje recibido tenga alteraciones respecto al enviado, y el hardware electrónico no puede garantizar la precisión porque las interferencias e incluso un rayo cósmico pueden producir errores. Por ello, los ingenieros usan técnicas matemáticas basadas en los espacios multidimensionales para codificar las señales, de forma que el sistema puede detectar y corregir las imprecisiones.

Soportes: el alma de los CD y DVD

Los campos de Galois del álgebra abstracta forman la base de un sistema de codificación muy empleado en la actualidad en aplicaciones comerciales, fundamentalmente en la grabación de CD y DVD. Al reproducir música en cualquier formato o poner una película en los cines, se utiliza álgebra abstracta basada en los códigos de Reed-Solomon, introducidos en 1960. Se trata de códigos de corrección de errores basados en un polinomio, con coeficientes en un campo finito, construido a partir de los datos a codificar, tales como las señales musicales o de vídeo. Su base de funcionamiento consiste en calcular el polinomio en más de n puntos; si no hay errores, cualquier subconjunto de n datos reconstruirá el mismo polinomio. Por el contrario, si los hay, siempre que su número no sea demasiado grande sigue siendo posible deducir el polinomio y, a partir de él, escuchar la canción o visionar la película deseada.

Navegación: GPS para todos

Los automóviles incluyen ya un sistema de posicionamiento global (GPS), que utiliza la información de 24 satélites. Las señales de radio viajan a la velocidad de la luz (300.000 kilómetros por segundo) y un computador en el automóvil puede calcular la distancia hasta el satélite si conoce cuánto tiempo ha tardado la señal en viajar desde el satélite al automóvil. Este tiempo suele ser de una décima de segundo, pero para contarlo de forma precisa ahora la señal contiene información sobre el tiempo. La navegación también se ha simplificado gracias a este método, puesto que antes dependía de la geometría para la elaboración de las coordenadas. Para hallar la latitud se medía el ángulo del sol por encima del horizonte con un sextante, y la longitud se sabía gracias a un reloj de alta precisión, combinado con la información sobre el amanecer y el ocaso, y los movimientos de los astros.

Diseño: curvas para volar

El análisis numérico desempeña un papel central en el diseño de los aviones modernos. Hasta hace poco, los ingenieros calculaban el flujo del aire en el rozamiento con las alas y el fuselaje en los túneles del viento. Para ello, colocaban un modelo de avión en el túnel, soplaban aire con un sistema de ventiladores y observaban las pautas de comportamiento de la corriente. Ecuaciones como las de Navier-Stokes les proporcionaban ideas teóricas, pero era imposible resolverlas con exactitud para aviones reales por su forma complicada. Los computadores actuales son tan potentes que ahora, en muchos casos, se recurre al túnel del viento numérico, ya que permite resolver con seguridad las precisas ecuaciones de Navier-Stokes. La computación actual permite, además, visualizar y analizar cualquier característica deseada del flujo de aire para
prever cualquier comportamiento de la aeronave.

Orientación: los mapas más exactos

La trigonometría es fundamental para el desarrollo de la topografía en escalas, empleada para mediciones que van desde la supervisión de emplazamientos que se están construyendo hasta la determinación de los límites de los continentes. En el mundo real es relativamente fácil medir ángulos con alta precisión, pero hallar con exactitud las distancias es mucho más difícil, especialmente si se trata de un terreno abrupto. Por eso los topógrafos empiezan haciendo una medida cuidadosa de una longitud, a la que denominan la línea de base. Luego forman una red de triángulos y utilizan los ángulos para calcular los lados de estos triángulos. Así puede construirse un mapa preciso de toda el área de interés, empleando el proceso conocido como triangulación. Para comprobar su precisión, es habituar hacer una segunda medida de distancia una vez que la triangulación se ha completado.

Biología: análisis de poblaciones

El análisis matemático se utiliza en biología para estudiar el crecimiento de poblaciones de organismos. Un ejemplo muy claro de ello es el modelo logístico o de Verhulst-Pearl, en donde entran en juego el cambio de la población durante un determinado periodo de tiempo y la capacidad de sustentación, esto es, la máxima población que puede sostener el entorno donde se encuentra. En este modelo, la pauta de crecimiento empieza con un crecimiento exponencial, pero cuando la población alcanza la mitad de la capacidad de sustentación, el incremento de individuos empieza a frenarse y con el tiempo la población se estabiliza. La curva resultante no es totalmente realista, aunque se ajusta bastante bien a muchas posibilidades reales. Con este método también es posible estudiar el consumo humano de recursos naturales, lo que hace posible estimar la demanda futura y cuánto durarán los recursos.

Simetría: el patrón de la piel

Dentro de los diferentes campos de las matemáticas, la teoría de los grupos aparece incluida entre las teorías de formación de pautas, como la de las ecuaciones de reacción-difusión, introducida en 1952 por Alan Turing como una posible explicación de las pautas simétricas de la piel de los animales. Según la teoría, al igual que un sistema de sustancias químicas puede difundirse a través de una región del espacio, las sustancias también pueden reaccionar para producir nuevas sustancias. La hipótesis señala que, si la región es un plano, las ecuaciones son simétricas bajo movimientos rígidos y su solución es un estado uniforme; como ocurre con una piel del mismo color. Pero el estado uniforme puede ser inestable, en cuyo caso la solución será simétrica bajo algunos movimientos rígidos, pero no bajo otros, dando lugar a rupturas de simetría como las franjas o manchas irregulares que ofrece el dibujo de la piel de los animales.

Biomedicina: nuevos fármacos

Uno de los usos más importantes de la teoría de las probabilidades se da en los ensayos clínicos de nuevos medicamentos, que constituyen el procedimiento por el cual se determina su seguridad y efectividad. Cualquier dato obtenido ha de ser sometido a la pregunta de si se trata de una conclusión estadísticamente significativa, esto es, si el medicamento funciona realmente o su efecto beneficioso es la consecuencia de un puro azar. El problema se resuelve utilizando métodos estadísticos conocidos como comprobación de hipótesis, donde se comparan los datos obtenidos en los ensayos con un modelo estadístico y se estima la probabilidad de que el resultado aparezca por azar. Así por ejemplo, si esa probabilidad es menor de 0,01, los investigadores sabrían que están ante un medicamento que ofrece un resultado alejado del azar en 0,99, o, lo que es lo mismo, con un 99% de eficacia. 

Espacio: sondas en otros mundos

Podría parecer que el caos no tiene aplicaciones prácticas al ser irregular e impredecible, pero, al basarse en leyes deterministas, resulta útil gracias a estas mismas características. Hacia 1950, John von Newmann sugirió que la inestabilidad del tiempo meteorológico podría ser una ventaja al implicar que un efecto muy deseado puede ser generado por una perturbación muy pequeña. En 1979, Edward Belbruno se dio cuenta de que este principio podía mover naves espaciales en largas distancias con muy poco consumo de combustible, lo que se aplicó a la sonda Hiten en 1990 y otras como la Génesis. Este método de control de sistemas caóticos se emplea para sincronizar bancos de láseres, controlar irregularidades del latido cardiaco con marcapasos inteligentes o monitorizar las ondas eléctricas en el cerebro.
 

Fuente: publico.es, 26 de Diciembre de 2008

 

 

-El sexo nació de un alga acorralada por un virus

El sexo nació bajo el agua, pero de una manera muy diferente a como lo practicaban Brooke Shields y Christopher Atkins en la película El lago azul. Los protagonistas del primer acto sexual de la historia fueron un alga unicelular, Emiliania huxleyi, y un virus especialista en exterminarla denominado Eh V. Según una concepción habitual del sexo, el virus podría haber arrinconado al alga y ambos habrían acabado amancebándose en el fondo del mar. Pero el romance fue un poco más complejo.

Un equipo de la Estación Biológica de Roscoff, en Bretaña (Francia), ha descubierto que, en presencia de su asesino, el alga pasa de un estado diploide, con dos lotes de cromosomas, como la mayor parte de las células humanas, a un estado haploide, con un solo juego de cromosomas, como los óvulos y los espermatozoides de los mamíferos.

El gato de Alicia

Al metamorfosearse, E. huxleyi se vuelve invisible para su enemigo, como el filosófico gato de Alicia en el país de las maravillas era capaz de desaparecer para evitar ser decapitado por la Reina de Corazones. Por ello, los autores de la investigación, coordinada por el biólogo Colomban de Vargas, han bautizado a esta táctica de supervivencia como la estrategia del Gato de Cheshire. "Es como si una persona se transformara en otra para escapar de un peligro", explica De Vargas.

 

En su opinión, esta artimaña, germen de la sexualidad, habría permitido a los primeros seres vivos evitar la insorteable amenaza de sus adversarios cada mililitro de agua marina contiene millones de virus y evolucionar hacia formas más complejas, compuestas por varias células.

La estrategia del Gato de Cheshire, publicada recientemente en PNAS, explica el éxito evolutivo de E. huxleyi, capaz de multiplicarse en el mar hasta formar masas lechosas del tamaño de media España, visibles desde el espacio. Las algas camufladas, haploides, puede fusionarse como el óvulo y el espermatozoide y formar, de nuevo, células diploides.

El papel de E. huxleyi cuyo apellido homenajea al biólogo inglés Thomas H. Huxley, conocido como el bulldog de Darwin por su defensa de la teoría de la evolución es fundamental para el planeta. Durante sus florecimientos, estas algas almacenan una enorme cantidad de CO2 en una especie de escamas de carbonato cálcico que rodean su célula, denominadas cocolitos.

Los cocolitóforos, como se conoce al grupo de algas similares a E. huxleyi, producen aproximadamente 1,5 millones de toneladas de calcita cada año, convirtiéndose en un importantísimo sumidero de carbono.

Ahora, la humanidad sabe que, además de agradecer a las algas que sujeten las riendas del desbocado CO2, deben darles las gracias por inventar el sexo.

Fuente: publico.es, 24 de Diciembre de 2008

 

 

-El amanecer que deslumbró al mundo

“La Tierra es la cuna de la humanidad. Pero la humanidad no puede permanecer en la cuna toda su vida”. Esta frase de Konstantin Tsiolkovsky, uno de los padres de la astronáutica, bien podría haber sido el lema de la tripulación del Apolo 8, la primera misión que viajó hasta la Luna y puso a tres seres humanos en la órbita del satélite.
 

Pero esta misión de la NASA, de la que estos días se cumplen 40 años, es más conocida por una imagen, la fotografía denominada por la NASA como AS08-14-2383, más conocida como Earthrise(Amanecer terrestre), que muestra la salida de la Tierra vista desde su satélite. Aunque aquel 24 de diciembre de 1968 los astronautas de la misión tomaron varias imágenes, Earthrise, la primera en color, se convirtió en un hito de la historia de la fotografía. En 1968, a Estados Unidos se le acababa el tiempo para cumplir la promesa de Kennedy de poner a un norteamericano en la Luna y devolverle a casa antes de que acabara la década. El incendio del Apolo 1, que provocó la muerte de tres astronautas, y los retrasos en la producción de la nave encargada de descender a la superficie lunar se interponían en la fecha límite marcada por el fallecido presidente.

Golpe de efecto

Ante estas adversidades, en el verano de 1968 la NASA dio prioridad a la que debería ser la misión que precediera al primer alunizaje. La URSS mantenía su objetivo de pisar la Luna antes que los norteamericanos, aunque sus opciones cada vez eran más remotas.  Para dar un golpe de efecto casi definitivo, la agencia dio luz verde a una misión hasta el satélite para probar rutinas de vuelo, conocer de primera mano todos los inconvenientes que podrían surgir en futuras misiones y convencerse de que era posible hacer un viaje hasta el satélite de forma satisfactoria. La misión, programada para la segunda mitad de diciembre, dio sus primeros pasos con normalidad. El gigantesco cohete Saturno V puso a la tripulación de camino a la Luna el 21 de diciembre. Tres días y 384.000 kilómetros más tarde, Frank Borman, Jim Novell y Bill Anders se convertían en los primeros humanos en orbitar nuestro satélite.

La fotografía ‘Earthrise’ se hizo el 24 de diciembre de 1968.

Aunque la NASA la mostró entonces en horizontal, con la Tierra sobre la Luna, la imagen

 fue captada en realidad en vertical, como se ve en esta página. - NASA

Historia de una foto

Después de completar la cuarta órbita a la Luna de las diez previstas, los tres tripulantes se encontraron ante un paisaje único. Desde el horizonte lunar, presenciaron el primer amanecer terrestre o, lo que es lo mismo, la salida de la Tierra desde la superficie lunar. Tanto Borman como Anders se lanzaron a por sus cámaras fotográficas para inmortalizar el momento. Fue el segundo el que, por una simple casualidad, pasó a la historia.
 Frank Borman realizó la primera instantánea. Pero lo hizo con un carrete en blanco y negro y su resultado quedó eclipsado ante la que iba a tomar su compañero unos segundos más tarde.

Bill Anders, equipado con un carrete en color, fue el que inmortalizó la imagen de la Tierra en medio del vacío espacial. Para aumentar la fuerza de la captura, la NASA decidió mostrarla con una variación de 90 grados respecto al original. Así, la Tierra se alza sobre el horizonte lunar cuando en realidad apareció por uno de los costados. No fue hasta finales de la década pasada cuando, gracias a los archivos de la misión y a las grabaciones, se averiguó qué astronauta tomó cada foto. Hasta entonces, los astronautas siempre habían bromeado sobre la autoría. Una broma a la que se sumó el propio Lovell, que nunca tuvo nada que ver.
 Esta fotografía, tomada con una cámara Hasselblad, se ha convertido a lo largo de los años en un símbolo de las organizaciones ecologistas. Lo explica Francis French, autor de varios libros sobre la carrera espacial: “Ver la Tierra como un sitio pequeño, frágil y delicado hizo plantearse a mucha gente la importancia de protegerla”. Una protección que es más relevante “cuando se compara con el inhóspito paisaje lunar”, afirma French.

El escritor matiza la importancia del Apolo 8 en contraste con el que, siete meses más tarde, puso a Neil Armstrong en la superficie lunar. “En muchos sentidos, esta misión fue mucho más importante. Por primera vez, viajamos a otro mundo, vimos la cara oculta de la Luna y observamos nuestro planeta como un pequeño globo”, declara.

Fuente: publico.es, 23 de Diciembre de 2008

 

 

-¿Qué fue la estrella de Belén?

Un cometa, un eclipse, una supernova, un alineamiento de planetas... La Estrella de Belén -el supuesto astro que guió a los Reyes Magos al lugar de nacimiento de Jesús- ¿fue un acontecimiento astronómico real?

Hace unos 2000 años, los magos de Oriente vieron una estrella increíble iluminando el cielo en la Tierra Prometida y la siguieron en un viaje épico para conocer al nuevo Mesías. ¿Pero qué es realmente la Estrella de Belén?  La ciencia moderna está revelando uno de los misterios astronómicos más famosos de la historia. Nuevas tecnologías permiten a los astrónomos crear mapas del antiguo cielo nocturno con una precisión extraordinaria.

A medida que estudian los movimientos de planetas y estrellas, los expertos están cuestionando la teoría que asegura que se trataba de un cometa. Creen que los Reyes Magos pudieron divisar varios eventos astronómicos inusuales.

La Biblia nos dice muy poco sobre esta estrella y sólo aparece mencionada en el Evangelio de San Mateo.

"¿Dónde está el rey de los judíos, que ha nacido? Porque su estrella hemos visto en el oriente y venimos a adorarle", se habrían preguntado los magos.

No se incluye ninguna fecha o descripción. Hasta la identidad de los hombres no está clara. En vez de ser los reyes en el imaginario popular, se cree que los Reyes Magos eran sacerdotes persas conocidos como "magi" en latín.  Eran astrólogos que se guiaban por las estrellas, combinando fe y ciencia para predecir el nacimiento del nuevo Mesías.

¿Qué hizo que se animasen a viajar a Belén? La mayoría de los expertos coinciden en que Jesús nació antes del año 4 a. C. o en esa misma fecha, cuando Herodes el Grande reinaba en Judea.

Los astrónomos han identificado los siguientes cuatro acontecimientos estelares que podrían haber sido la Estrella de Belén.

Triple conjunción de planetas

Un antiguo almanaque inscrito en una tabla de arcilla hallada en Babilonia y actualmente en el Museo Británico de Londres asegura que la estrella fue en realidad una inusual conjunción de planetas.

Concretamente, fue una serie de tres conjunciones de los planetas Júpiter y Saturno (un hecho muy poco frecuente) ocurrido en el año 7 a. C.

Júpiter y Saturno se conjuntaron tres veces en el plazo de varios meses durante la constelación de Piscis, un signo asociado con Israel.

Existen pruebas en el almanaque que los astrónomos persas predijeron esto. La tabla calcula la actividad solar, lunar y planetaria para ese año y describe la conjunción.

 

 

Eclipse de Júpiter

Una moneda de 2000 años de antigüedad probaría esta teoría, una doble ocultación de Júpiter tras la luna ocurrida en el 6 a. C. que sería la estrella de Belén.

Según la teoría, los magos vieron la estrella en la constelación de Aries, no la de Piscis. La moneda muestra a Aries, el carnero, brincando en el cielo y mirando atrás hacia la estrella.

Los textos astrológicos de la época reflejan que Aries dominaba Judea y Jerusalén era la capital del Cercano Oriente, convirtiéndose en signo de los judíos.

El profesor Mike Molnar de la Universidad de Rutgers en Nueva Jersey, en Estados Unidos, cree que los magos vieron este eclipse. Justo antes del amanecer, Júpiter habría aparecido por el este, en el preciso instante en que San Mateo describió la aparición de la Estrella.

Entonces, cuando la luna pasó directamente entre la Tierra y Júpiter, éste último planeta habría desaparecido.

 

 

Supernova

Algunos creen que la estrella podría haber sido el resultado de un evento celestial aún mayor.

Mark Kidger, astrónomo de la Agencia Espacial Europea, afirma que habría requerido mucho más que un movimiento de planetas inusual para convencer a los curtidos expertos astronómicos de esa época a viajar hasta Judea.

Los magos podrían haber visto una estrella en su fase supernova, uno de los eventos más energéticos y explosivos que se conocen.

Kidger hasta ha identificado a un candidato, el DO Aquilae que explotó en 1927 y que seguramente ha explotado varias veces en el pasado.

En caso de haber explotado hace 2.000 años, los magos la habrían visto en el este, asomándose por encima del horizonte.

El experto espera que los radiotelescopios del futuro sean capaces de detectar la débil burbuja de gas alrededor de Aquilae para calcular el momento exacto en que la burbuja comenzó a expandirse.

 

     

¿Júpiter podría ser la estrella de Belén?

Dos planetas que parecían una luz muy brillante

Esta teoría es la más sorprendente. La fecha de Navidad fue establecida siglos después del evento y muchos la cuestionan.

Pero el astrónomo tejano Rick Larson cree que Jesús realmente nació el 25 de diciembre, aunque del año 2 antes de nuestra era.

Al contrario de otros astrónomos, Larson se ha fijado en eventos celestiales posteriores porque cree que la fecha de la muerte del rey Herodes (4 a. C.) es incorrecta.

La fecha se basa en los escritos del historiador Josephus, pero cada manuscrito suyo que ha estudiado anterior a 1544 coincide en que Herodes murió en el 1 a. C.

Júpiter se conjuntó un año después con una de las estrellas más brillantes del firmamento, llamada Regulus y conocida por los magos como "pequeño rey".

Nueve meses después, Júpiter se conjuntó con Venus, conocido como el planeta madre.

Los planetas habrían pasado tan cerca el uno del otro que habría parecido como una luz brillante en el cielo. Larson cree que esta luz fue la que convenció a los magos a viajar al este.

Durante su viaje, Júpiter continuó moviéndose a lo largo del cielo hasta que pareció detenerse sobre Belén.

 

Explosión de una supernova

Fuente: BBC Mundo, 23 de Diciembre de 2008

 

-La bacteria que se convirtió en dinosaurio

El aumento de los niveles de oxígeno en el planeta en dos fases muy concretas del pasado está detrás del proceso evolutivo que convirtió a unas bacterias invisibles al ojo humano en unos seres vivos tan gigantescos como un dinosaurio, una secuoya o una ballena.

La investigación desarrollada por un equipo de 13 científicos, dirigidos por Jonathan Payne, de la Universidad de Stanford (EE. UU.), apunta a que este aumento biológico se produjo en dos periodos diferentes de los 3.500 millones de años de vida en el planeta y que fueron fases relativamente cortas: menos del 20% de esa historia. Para realizar este trabajo, que da luz a uno de los misterios más asombrosos de la vida, los investigadores se centraron en analizar y comparar el tamaño máximo que había conseguido cada uno de los seres vivos, desde las bacterias procariotas (organismos unicelulares muy primitivos que han desarrollado membrana nuclear) a las eucariotas (más complejas, y por tanto posteriores), los metazoan y las plantas vasculares.

Todos estos organismos vivieron a partir de un momento determinado del periodo Arcaico (hace entre 4.000 y 2.500 millones de años) y aún existen en nuestros días. Estudiando los registros fósiles que han dejado, observaron que habían aumentado su tamaño hasta 16 veces en los últimos 3.500 millones de años, como publican esta semana en la revista 'Proceedings of National Academy of Science (PNAS)'. Pero lo más sorprendente es que ese aumento fue episódico: un salto de seis veces sus dimensiones ocurrió a mitad del Paleoproterozoico, hace 1.900 millones de años, y otra en el Ordovícico (hace entre 600 y 450 millones de años). Es decir, que más del 75% del aumento del tamaño de los seres vivos ocurrió en dos momentos no muy largos.

Bacteria

 

Recreación de un dinosaurio con cresta hallado en México (Foto: Gaston Designe)

Más oxígeno

Observaron, además, que ambos momentos ocurrieron tras dos incrementos en la oxigenación del planeta. "La conexión entre estos dos episodios de aumento de tamaño y la mayor oxigenación ha hicimos de forma inmediata porque, desde hace décadas, estudiar las curvas de oxígeno atmosférico es un objetivo de gran interés para los científicos", asegura Payne. El biólogo norteamericano destaca que lo realmente interesante fue descubrir que "cada uno de esos pasos es correlativo con un momento en el que la vida se hizo más compleja: primero surgió la célula eucariota y luego los organismos multicelulares". Volviendo la vista al pasado, hay que recordar que cuando surgieron las primeras bacterias no había oxígeno en la Tierra. Y que durante los primeros 1.500 millones de años de vida en la Tierra esos microorganismos eran sólo unicelulares, lo que les otorgaba un crecimiento de tamaño muy limitado. El aumento de sus dimensiones sólo fue posible con la llegada de organismos más complejos, hace 2.000 millones de años.

Pero antes, algo cambió: en el periodo Arcaico (hace más de 3.000 millones de años), hubo unas bacterias primitivas que 'inventaron' un metabolismo nuevo: les permitía usar la energía del sol y el dióxido de carbono para nutrirse, es decir, crearon la fotosíntesis que genera el oxígeno.

Pronto, estas bacterias llenaron con el nuevo elemento los océanos y también la atmósfera, como aún ocurre hoy. De hecho, los mares son grandes captadores de dióxido de carbono atmosférico. Fue ese preciado y peligroso oxígeno libre el que hizo posible que la vida evolucionara: los organismos desarrollaron un núcleo que contenía su material genético.

Más adelante, las células eucariotas llegaron a la tierra y desarrollaron estructuras celulares más grandes. En 200 millones de años, los organismos invisibles pasaron a ser del tamaño de una moneda de 10 céntimos.

Llegan los 'multicelulares'

Durante otros mil millones de años, la vida languideció como simples células bacterianas, hasta la transición del Precámbrico al Cámbrico, hace unos 540 millones de años cuando, de nuevo, el nivel de oxígeno atmosférico aumentó notablemente, hasta alcanzar el 10% de su concentración actual. Muchos científicos mantienen que ese segundo aumento era la llave fundamental para que la vida fuera multicelular. Una vez que ese nuevo nivel se alcanzó, los límites del tamaño a los que se constreñían los organismos unicelulares desaparecieron.

En poco tiempo evolutivo, es decir, en unos cientos de millones de años, se pasó de los organismos del tamaño de una moneda a otros gigantescos, como los cefalópodos del Ordovícico, con más de tres metros de largo. Más adelante vendrían los dinosaurios, aunque algunos animales anteriores ya habían sido más gigantescos.

Michal Kowalewxski, otro de los autores de este trabajo, recuerda que antes de su estudio la referencia en esta materia era el gráfico que hizo J.T. Bonner, hace más de 40 años, sobre el tamaño de los organismos.

"Una creencia común era que el tamaño había aumentado con la complejidad de los animales o que cambió lentamente a través del tiempo, pero no sabíamos cómo ese cambio se produjo en un grupo de organismos. ¿Aumentó rápidamente tras su aparición y luego disminuyó, o viceversa. Nuestro estudio trataba de responder a esta pregunta, cuando nos encontramos con un patrón en todos los casos", concluye.

Fuente: elmundo.es, 22 de Diciembre de 2008

 

 

-El oxígeno hizo más grande a los seres vivos

El tamaño de los seres vivos no es un capricho natural, sino que responde a un proceso evolutivo que ha refinado los detalles en el acabado de los organismos.  En 3.500 millones de años, la evolución terrestre ha pasado del organismo más sencillo, una célula aislada invisible a simple vista, a gigantescas masas de materia viva como la ballena azul, las secuoyas gigantes o los extintos dinosaurios.

Una secuoya gigante, en el parque de Yosemite, California (EEUU). M. MURPHY

Entender el porqué y el cómo de la variación del tamaño corporal es un objetivo importante para desentrañar el funcionamiento de la máquina de la evolución. Siguiendo la línea marcada hace cuatro décadas por el profesor de la Universidad de Princeton (EEUU) John Tyler Bonner, las hipótesis en torno a esta cuestión han asumido un aumento gradual de tamaño en los organismos.

Pero para Michael Kowalewski, del Instituto Politécnico de Virginia (EEUU), “la curva de Bonner no estaba ligada directamente a datos empíricos”.

Un equipo en el que participa Kowalewski reunió datos de numerosos organismos del registro fósil para trazar una curva de evolución del tamaño corporal. Este, dice el estudio publicado hoy en PNAS, se ha incrementado en 16 órdenes de magnitud –16 ceros– desde las primeras células. La curva trazada por los investigadores no es una suave pendiente como la de Bonner, sino una línea quebrada con dos escalones pronunciados. En estos periodos, que comprenden sólo el 20% de los 3.500 millones de años de vida terrestre, se disparó el aumento de tamaño.  Los dos escalones no están colocados al azar en la escala cronológica, sino que, según explica Kowalewski, tienen un claro significado: “Estos intervalos sucedieron a dos fenómenos masivos de oxigenación”.

Hace unos 3.000 millones de años, las bacterias inventaron la fotosíntesis y lograron convertir el CO2 en oxígeno. La acumulación de este gas durante otros 1.000 millones de años permitió un cambio de diseño: la aparición de células más complejas con núcleo y otras estructuras internas.  En el segundo escalón, hace unos 540 millones de años de años, el oxígeno aumentó de nuevo y la evolución respondió con una segunda innovación: los seres multicelulares.

Fuente: publico.es, 22 de Diciembre de 2008

 

 

-Frío polar en un planeta cada vez más caliente

Un chorro de aire polar en altura es el responsable del frío que últimamente se ha notado -y mucho- en la península Ibérica. Desde hace semanas, un anticiclón situado en las Azores y otro situado en Europa central, han creado un pasillo por el que el flujo de vientos árticos ha entrado regularmente, provocando una bajada térmica considerable, según la Agencia Estatal de Meteorología (Aemet). El fenómeno no es inusual, pero sí lo es que permanezca durante más de mes y medio. Ello ha provocado que el mes de noviembre haya sido el más frío de los últimos 12 años y el noveno más frío desde 1965. Las causas hay que buscarlas en el fenómeno de La Niña del océano Pacífico, combinado con la Oscilación del Atlántico Norte (NOA), que sitúa los anticiclones más o menos al norte sobre el Atlántico, y las altas cimas de los Alpes y Pirineos, según ha explicado a elmundo.es Ángel Rivera, portavoz de Aemet.

«Ese pasillo ha provocado que el frío en altura y las borrascas hayan entrado por el Cantábrico, en vez de por el oeste. Por eso ha hecho más frío y ha llovido más en el este de la Península, y esto explica también las fuertes tormentas de septiembre», apostilla el meteorólogo.

Los fríos anticipados, las copiosas nevadas de otoño y las fuertes tormentas de los pasados meses que han sido motivo de conversación general no alteran, sin embargo, la tendencia hacia el calentamiento que sufre el planeta y nuestro país. El año 2008 terminará con una temperatura media 0,3ºC por encima de los valores medios de las últimas tres décadas.

A pesar de que el otoño ha sido el más frío desde 1996, las temperaturas durante este año que concluye han sido cálidas. De enero a agosto han sido más templadas que en el periodo de referencia desde 1971 al 2000. Según Aemet, en un 70% del territorio han sido «extremadamente cálidas». En nuestro país esta anomalía que muestra la tendencia generalizada del cambio climático es del orden de medio grado centígrado más. Al mismo tiempo, el año hidrológico 2007-2008 ha sido en su conjunto «seco», según Aemet. El valor de la precipitación media acumulada, que se cifra en 579 litros por m2, ha quedado en torno a un 11% por debajo de su valor medio.

Las precipitaciones han tenido una distribución y un carácter muy desigual, con áreas muy húmedas en el Centro, Andalucía y Sureste. «El mes de octubre ha sido en conjunto húmedo, con valores de precipitación por encima de la media en la mayor parte del territorio peninsular y los archipiélagos», según el balance anual de Aemet.

 

 

Dos niños construyen un muñeco de nieve en Viana de Cega (Valladolid), en una imagen tomada la semana pasada. (Foto: EFE)

La canícula más larga de la historia

A nivel global, el informe anual de la Organización Meteorológica Mundial (OMM) indica que 2008 ha sido el décimo más caliente desde mediados del siglo XIX, cuando empezaron los registros. Además, en distintas partes del mundo se dieron fenómenos meteorológicos extremos, lo que confirma la tendencia al calentamiento global del planeta.

La OMM subraya la variabilidad de los fenómenos observados: temperaturas más altas de lo normal en partes de Europa, el invierno menos frío jamás registrado en zonas de Escandinavia y frío extremo en Sudamérica, principalmente en Argentina. En Australia se registró en marzo la canícula más larga de la historia con una máxima superior a 35 grados durante 15 días consecutivos. «En todo esto vemos la manifestación de la variabilidad existente», explicó el secretario general de la OMM, Michel Jarraud, en conferencia de prensa en Ginebra, según informa Efe. Jarraud señaló que, como parte de las variaciones que sufre el clima, 2008 fue un año más frío frente a la media del decenio 1997-2007, aunque haya sido el décimo más caliente de la historia meteorológica mundial.

La sequía fue un fenómeno persistente en varios lugares a lo largo de 2008, entre ellos Portugal y España, en Europa, y Argentina, Paraguay y Uruguay, en Latinoamérica, con efectos muy graves sobre la agricultura de estos tres últimos países. En la predicción para la estación invernal que comenzó ayer, la Aemet considera que va a ser una estación seca, con pocas precipitaciones y con temperaturas normales para la época del año. «La vertiente atlántica de la Península recibirá menos precipitaciones que otros inviernos», afirma Ángel Rivera. Salvo en Canarias, donde hará más frío, las temperaturas serán de valores normales.

Fuente: elmundo.es, 22 de Diciembre de 2008

 

-La NASA a la búsqueda de unos patos

La Agencia Espacial de Estados Unidos (NASA) quiere que le regresen sus patos de plástico... por favor.  El pasado mes de septiembre, unos 90 patos fueron arrojados en un hoyo en Groenlandia para estudiar el movimiento de las aguas de los hielos derretidos entre las profundidades y la superficie glaciar.  Se esperaba que los juguetes de plástico viajaran por canales internos dentro del hielo y terminaran resurgiendo en alguna parte del mar. Puede ser que ya lo hayan hecho, pero hasta el momento nadie los ha visto.

“No hemos escuchado nada de ellos todavía”, dijo Alberto Behar, uno de los responsables del experimento. “Si alguien encuentra uno, sería un gran avance para nosotros”, agregó.

Behar es un experto en robótica que trabaja para la NASA desde su laboratorio en Pasadena, California. Su objeto de estudio son las grietas tubulares que aparecen en la superficie glaciar de Groenlandia.  Estos hoyos pueden drenar lagos de agua derretida que se forman sobre el hielo durante los meses de verano. Los científicos quieren saber cómo y hasta qué punto este agua puede lubricar la base de la superficie glaciar, deslizando el hielo más rápido hacia el mar.  En los últimos años, se ha doblado la velocidad en que se mueven los glaciares de desbordamiento (lenguas de hielo que se extienden lejos de la superficie central debido al movimiento descendente del hielo desde las zonas montañosas heladas hacia el agua circundante).  Estos glaciares son la principal ruta por la que Groenlandia derrama su hielo al mar.  En un mundo afectado por el cambio climático y debido a la preocupación que genera la contribución de este territorio al futuro nivel de los mares, el comportamiento de estos glaciares debe ser observado muy de cerca.

De Groenlandia al espacio
Si la utilización de patos de plástico da la impresión de una tecnología rudimentaria, especialmente para un hombre como Behar, que ha trabajado en los robots desplegados por la NASA en Marte para investigar este problema, es necesario aclarar que este científico ha utilizado una aproximación más sofisticada.  Behar también ha desarrollado un explorador de grietas glaciares que comenzó con una cámara atada a una soga y gradualmente fue mejorando su diseño para poder moverse más fácilmente entre las aguas.

 

 

 

 

“Nosotros hemos comprobado que estas grietas son muy complejas, no son sólo un hoyo que viaja hasta las profundidades y crea un tubo de salida en alguna dirección. Son etapas de una escalera que desciende mientras brechas en el hielo conducen el agua en varios sentidos para luego volver a juntarla”, explicó el científico.  Uno de los exploradores de grietas, armado con una antena y un GPS (sistema de posicionamiento global), fue lanzado con la esperanza de encontrarlo más tarde en otro destino, pero al igual que los patos de plástico, todavía no ha dado señales de vida.

“Fue una suerte de apuesta y pensamos que valía la pena arriesgar. Ahora tenemos que volver hacia atrás, concentrarnos y pensar cuál será el próximo paso”, concluyó Behar.

El desarrollo de esta tecnología no pretende sólo suministrar información sobre el comportamiento de los hielos en tiempos de calentamiento global; en el futuro, descendientes del explorador de grietas pueden ser desplegados por la NASA en lunas heladas del Sistema Solar para buscar océanos ocultos debajo de la superficie.

Fuente: elnuevodia.com, 21 de Diciembre de 2008

 

 

-El "Prestige" duplicó los parásitos de los peces en la costa gallega

La mousse de chapapote en que se convirtió la costa gallega tras el naufragio del petrolero Prestige, el 19 de noviembre de 2002, provocó una multiplicación de los parásitos marinos en el litoral del norte peninsular, según un estudio de la Universidad de Valencia.

Las 60.000 toneladas de crudo que ennegrecieron el mar Cantábrico duplicaron tanto el número de especies parásitas presentes en los peces como su cantidad. Sólo ahora, seis años después del hundimiento, los comensales microscópicos están volviendo a los niveles anteriores al vertido.


 

La investigación, que se publicará en enero de 2009 en Environmental Pollution, es una rareza en el ámbito del estudio de las mareas negras. Habitualmente, es imposible llevar a cabo este tipo de trabajos por una sencilla razón: la ciencia, de momento, no puede predecir cuándo y dónde va a naufragar un petrolero, por lo que los investigadores no suelen disponer de muestras de animales anteriores al vertido para las comparaciones.
 

Sin embargo, el azar hizo que un equipo de la Unidad de Zoología Marina de la Universidad de Valencia estuviera estudiando la boga -un pez poco explotado comercialmente pero presente en algunos mercados del Mediterráneo- en Malpica y Vigo, en la costa gallega, y en Ondarroa (Vizcaya). Una primera comparación, realizada en 2004 y 2005, entre las muestras tomadas antes de la catástrofe y las recogidas después mostró "un cambio brusco" en las comunidades parasitarias, pero entonces era pronto para sacar conclusiones. El nuevo estudio, sin embargo, refleja un retorno gradual a las condiciones anteriores al vertido, lo que refrenda la hipótesis del petrolero como culpable de la explosión parásita.
 

Efecto en el anisakis

"Ahora podemos decir que es muy probable que el vertido del Prestige sea el causante del pico", explica la bióloga Ana Pérez del Olmo, principal autora del trabajo. Los parásitos encontrados en los 400 peces incluidos en el estudio resultan, en su mayoría, inofensivos para el ser humano, pero son un indicador de la bajada de defensas de la fauna marina. Los parásitos son un excelente centinela que advierte del deterioro de un ecosistema.

 

"Si te comes una boga con 30 parásitos no pasa nada, tiene más proteínas", bromea la bióloga María Mercedes Fernández, coautora del estudio. Sin embargo, su equipo sigue tomando muestras en la zona del vertido para comprobar si un parásito más inquietante, el anisakis, ha participado en este festín. Este gusano, cuyo ariete más habitual para penetrar en el ser humano es el boquerón en vinagre, puede parasitar el tracto digestivo del ser humano, causando dolor abdominal y náuseas. En casos aislados, el visitante puede desencadenar reacciones
alérgicas muy graves.

 

El estudio demuestra que hasta dentro de unos años no se conocerán las verdaderas consecuencias del naufragio del Prestige, cuyas dos mitades descansan hoy a más de 3.500 metros de profundidad.

 

DNI de la merluza

La Unidad de Zoología Marina de la Universidad de Valencia trabaja en otro proyecto con importantes implicaciones en la conservación del ecosistema marino. Los investigadores aseguran que los parásitos son como un DNI: en función de la carga parasitaria de un pescado se puede determinar su procedencia. El sistema podría impedir las capturas ilegales de especies como el bacalao, cuya población podría desaparecer en 15 años, según un informe del Fondo Mundial para la Naturaleza (WWF). El método no se puede aplicar al atún rojo, muy afectado por la pesca ilegal, ya que es una especie en constante movimiento, pero es válido para peces más sedentarios, como el salmonete.
 

Fuente: publico.es, 20 de Diciembre de 2008

 

-Un bebe sin gen del cáncer de mama nacerá este mes en Reino Unido

Una mujer de Londres dará a luz este mismo mes al primer bebé que nace en el Reino Unido libre de la predisposición al cáncer de mama relacionada con un gen que porta su padre. En España, dos familias están pendientes del permiso que les permita hacer lo mismo. Los padres decidieron someterse a un proceso de diagnóstico preimplantacional (DGP) debido a los numerosos casos de cáncer de mama que se han registrado en la familia del padre en las tres últimas generaciones. Para ello, es necesario seleccionar previamente el embrión libre del gen que causa esta predisposición genética a la enfermedad para posteriormente implantarlo en el útero materno.

El bebé, que no portará el gen que ha causado los tumores en su familia, nacerá la semana próxima. En muchos países la selección de embriones está prohibida. En octubre se conoció el primer caso en España en el que un bebé fue concebido para ayudar a su hermano mayor, enfermo de una anemia congénita severa. Su cordón umbilical fue usado para hacerle un trasplante. En este caso, los médicos del Hospital University College de Londres obtuvieron mediante fecundación 'in vitro' un total de once embriones. Tres días después de su gestación, los analizaron para conocer el riesgo de que fueran portadores del gen BRCA1, extrayéndoles una sola célula y dejando el resto del embrión intacto para que prosiguiera su desarrollo.

Seis de los embriones eran portadores del gen BRCA1 (uno de los dos que confiere mayor riesgo de sufrir cáncer de mama en la vida adulta, junto a BRCA2) y fueron destruidos. Dos que no contenían dicho 'error' fueron finalmente implantados en el útero y la mujer de 27 años quedó embarazada de uno solo.

Sin el diagnóstico preimplantacional, la posibilidad de que una hija de la pareja sufriera cáncer de mama era de entre 50% y 85%. "Si ésta es la opción de excluir esto para nuestros hijos, entonces es el camino que debemos seguir", dijo la madre de la futura criatura. Aunque el embrión esté libre de esta herencia, la técnica no permite descartar al 100% que en el futuro pueda desarrollar un cáncer de mama, causado por otros factores hormonales o ambientales.

La pareja no conoce el sexo del bebé. Los varones portadores del BRCA1 no tienen tanto riesgo de cáncer de mama como las mujeres, pero sí pueden transmitir el gen mutado a las siguientes generaciones; como ocurría en este caso con el padre.

Críticas al método

La selección genética de embriones es muy polémica. Algunas voces críticas opinan que podría abusarse de ella y crear 'bebés de diseño' de todo tipo. En el Reino Unido el DGP se realiza desde hace tiempo, pero hasta ahora sólo en el caso de genes que producen una enfermedad con seguridad si se heredan.

Es el caso por ejemplo del gen de la fibrosis cística, que causa graves problemas respiratorios y digestivos. Sin embargo, en 2006 la ley fue flexibilizada y desde entonces el análisis se puede hacer - previo consentimiento de la Autoridad de Fertilización Humana y Embriología- en casos de genes de riesgo que no necesariamente provocan una enfermedad sino sólo un aumento del riesgo, como el del cáncer de mama.

En España, asimismo, la Ley de Reproducción Asistida permite utilizar la técnica para enfermedades graves y de aparición temprana, que además no tengan posibilidades de tratamiento y presenten un elevado riesgo de mortalidad. Además, se prohíbe expresamente la selección positiva de los embriones, es decir, la implantación en función del color de ojos o de ciertas características físicas. Según adelantaba recientemente elmundo.es, en España hay dos familias en el mismo caso que la pareja británica a la espera del informe favorable de la Comisión Nacional de Reproducción Asistida.

"Hemos entrado en una nueva era en la que podemos ayudar a personas que llevan los genes del cáncer", ha señalado el médico especialista en reproducción Paul Serhal del University College Hospital.

Según Serhal, un posible mal uso del avance técnico no puede impedir el desarrollo de la ciencia con buenos fines. Sin embargo, subrayó que el hecho de que no tenga el gen del cáncer de mama no garantiza que la hija nunca tenga la enfermedad, porque hay otras causas de ese mal.

Se estima que el BRCA1 y el gen emparentado BRCA2 son responsables de entre el 5% y el 10% de los cánceres de mama; el resto, es decir, la mayoría de los casos no tienen ninguna relación con la herencia genética y están causadas por otros factores.

El profesor Peter Braudem, del Guy's Hospital de Londres, opinó que se debe analizar en cada caso si el DGP es adecuado para una pareja, porque, por ejemplo, el test no sirve para todas las personas que tengan varios casos cáncer de mama en la familia.

Las asociaciones pro-vida, por su parte, han criticado el método. "¿Qué será lo siguiente? Todo esto nos lleva a un camino que termina en los bebés de diseño", dijo Josephine Quintavalle, del grupo Comment on Reproductive Ethics.ç

Fuente: elmundo.es, 20 de Diciembre de 2008

 

 

-Los dinosaurios también eran buenos "papás"

En más del 90% de las especies actuales de aves los machos juegan un papel fundamental en el cuidado de los huevos y las crías. Una investigación de la Universidad del Estado de Montana en Bozeman (Estados Unidos) y publicada en 'Science' ha revelado que esa característica es una herencia evolutiva de los dinosaurios. Los investigadores señalan que este patrón de atención paterna comenzó así hace millones de años en los dinosaurios a partir de los que surgieron las aves. Los científicos, dirigidos por David Varricchio, examinaron datos fósiles de huevos y nidos de dinosaurios, así como estructuras óseas de animales extinguidos, y descubrieron que los machos de tres especies en particular, todos relacionados evolutivamente con las aves, parecían seguir sistemas de cuidado exclusivamente parental en la crianza de su progenie.

El descubrimiento del cuidado de los padres dinosaurios sugiere que este método de crianza de la descendencia tiene raíces evolutivas profundas en los vertebrados y también implica que este sistema reproductivo apoyado en los machos surgió antes de la capacidad de volar. Los autores sugieren que otras formas de cuidado de la descendencia, como la atención por ambos progenitores que se observa hoy en algunas aves, podrían haber evolucionado bajo diferentes condiciones.

Según los investigadores, otros análisis como este, pero más específicos, junto con los nuevos descubrimientos arqueológicos podrían desvelar en el futuro el origen de otras características de las aves, como sus cantos o la respiración aviar, como una herencia evolutiva de una especie de dinosaurio en particular.

Un macho adulto del género Troodon cuidando de su nido. (Ilustración: Bill Parsons/Science)

 

Fuente: elmundo.es, 20 de Diciembre de 2008

-La ciencia en los países emergentes

La presidenta del prestigioso Instituto Tecnológico de Massachusetts (EE UU), Susan Hockfield, no piensa en las mujeres cuando le preguntan si hay que promover una mayor presencia femenina en la ciencia; piensa en su país: " compite cada vez más en innovación tecnológica (...). Ante este reto, es imperativo explotar el talento de las dos mitades de la población, la masculina y la femenina". Muchos basan en ese mismo argumento egoísta la necesidad de estimular la ciencia en el mundo en desarrollo. Hay más probabilidades de resolver los problemas actuales, desde el cambio climático a la crisis energética, si se aprovechan la inteligencia y la creatividad humanas, vengan de donde vengan.

El cohete 'Chandrayaan' indio- REUTERS

Cuál es la situación actual al respecto? La botella está a medias. En la parte llena los expertos resaltan cómo en las últimas dos décadas países como Brasil, India y China, sobre todo, pero también otros, despegan con mayor o menor fuerza. El mundo ya no es Norte/Sur, sino multipolar, porque hay un Sur emergente. Lo malo es que también hay un Sur estancado, la botella medio vacía. Con el agravante de que la distancia entre los extremos sigue aumentando, y cada vez más rápido.

Dos de los satélites que están ahora mismo dando vueltas en torno a la Luna son Chandrayaan-1, indio, y Chang'e-1, chino. China, India y Corea participan en el proyecto para construir en Francia el reactor de fusión nuclear ITER. Brasil y por supuesto China tuvieron un papel destacado en la secuenciación del genoma humano. Argentina, Bolivia, Brasil, México y Vietnam están entre los socios del observatorio de rayos cósmicos Pierre Auger, recién inaugurado en la pampa argentina. Varias instituciones mexicanas participan en el GTC, el telescopio español de 10 metros instalado en La Palma (Canarias). España es uno de los socios del futuro Telescopio Espacial Mundial, un proyecto liderado por Rusia en el que participan también China y Ucrania.

Es decir, sí que hay países en vías de desarrollo que empiezan a entrar aunque sea tímidamente en la foto de la ciencia internacional. De hecho, las pasadas décadas "han estado marcadas por un crecimiento sin precedentes en ciencia y tecnología en una parte importante del Sur", afirma Jacob Palis, presidente de la Academia de Ciencias del Tercer Mundo (TWAS, siglas en inglés). "Pero también han aumentado las desigualdades en este mismo área, y como consecuencia hay países que se están quedando atrás en este desarrollo basado en la ciencia y que están siendo más marginados que nunca".

La TWAS nació hace 25 años de la mano del ya fallecido Nobel de Física Abdus Salam, cuya frase "la ciencia es el legado común de la humanidad" se recuerda a menudo. En este tiempo, la Academia -financiada sobre todo por Italia y ahora administrada por la UNESCO- ha pasado de tener 41 miembros a más de 870, de ellos 16 premios Nobel. El 85% de los académicos es de países en vías de desarrollo.

El crecimiento de la TWAS está en línea con dos cuestiones que deberían conducir a una ciencia realmente global. Una es que, para Palis, al contrario que hace unas décadas hoy ya nadie defiende que invertir en ciencia sea un lujo de ricos. Y la otra es que "esta vez nos enfrentamos a problemas -el cambio climático, la crisis alimentaria y energética y la pérdida de biodiversidad, por nombrar los más relevantes- más urgentes, más complejos y por tanto más difíciles de resolver", dice. Por eso lo que ahora es un lujo, pero uno que la ciencia no debería permitirse, es prescindir de gran parte de los cerebros del planeta. Palis es matemático, ciencia que conoce bien el valor de genios procedentes del lado pobre del mundo. Uno de los ejemplos es Srinivasa Ramanujan, un indio casi sin formación que a finales del siglo XIX, realizó destacadas contribuciones a las matemáticas.

 

El aniversario de la TWAS ha servido para que publicaciones científicas de prestigio dediquen espacio a analizar el grosor actual de las brechas digitales, de conocimiento o tecnológicas. Mohamed H. A. Hassan, director ejecutivo de la TWAS, es quien ha aplicado en Science los términos "emergente" y "estancado" para los dos tipos de Sur.

En Nature, Hassan expone además algunos datos: el número de artículos en revistas científicas de calidad con al menos un autor chino se ha multiplicado por 100 en los últimos 15 años, situando a China sólo detrás de EE UU en producción científica. En el caso de India, convertida en líder en tecnologías de la información gracias en parte a su peso en matemáticas y física, el aumento ha sido del 45% entre 2000 y 2005. Y en Brasil las publicaciones se han triplicado en los últimos 10 años, en consonancia con el gran aumento de población universitaria y doctores. Chile, Malaisia, Vietnam o Corea del Sur también avanzan.

Pero en el Sur estancado está África. La TWAS identifica a 80 países incapaces de desarrollar su sector científico, y la mayoría están en el África subsahariana. Son una excepción Suráfrica y Ruanda, y en menor medida Kenia, Senegal, Tanzania y Uganda, donde también hay progresos.

La TWAS no es el único organismo que hace examen. Abdul Hamid Zakri, director del Instituto de Estudios Avanzados (IAS, siglas en inglés) de la Universidad de Naciones Unidas, con sede en Japón, ha llamado varias veces la atención sobre la necesidad de promover la investigación en países en vías de desarrollo, en especial en África, en temas que realmente les interesen. "Las universidades y la investigación que se hace en ellas deben ser relevantes para los Gobiernos, para las necesidades de la comunidad. De lo contrario las universidades no sobrevivirán", dijo en un discurso en la Unesco en París hace dos años.

Sobre otra de las consecuencias de la brecha científica planetaria publicó el IAS un estudio en mayo: Acceso a los recursos genéticos en África. El mundo desarrollado se desplaza a países en vías de desarrollo en busca de recursos naturales -sean nuevas moléculas de interés farmacológico o proteínas potencialmente útiles para biocombustible-, pero los países donantes apenas se benefician, o tardan en hacerlo, de los resultados de la investigación. El problema tiene que ver con lo que las ONG llaman "biopiratería", y ahora se plantea además en nuevos ámbitos, como la exploración del océano profundo.

Lo explica el oceanógrafo y Premio Nacional de Investigación Carlos Duarte: "Hay muchos recursos en el océano profundo, de mucho valor económico, y ya hay decenas de patentes derivadas de recursos genéticos marinos. El problema es que sólo hay cinco naciones con tecnología para acceder a 5.000 metros de profundidad: Japón, Canadá, Estados Unidos, Francia y Alemania. Esto plantea graves problemas éticos. Estos recursos se obtienen a menudo en aguas de países en vías de desarrollo, que no van a acceder a los potenciales beneficios".

La Convención de Diversidad Biológica, que entró en vigor en 1994, ya incluyó entre sus objetivos "el reparto justo y equitativo de los beneficios que resulten del uso de recursos genéticos". Pero según el estudio del IAS esto "se ha demostrado difícil de implementar". De los 191 países a los que obliga la Convención, sólo 60 han adoptado medidas para el reparto de beneficios.

Y nadie diría que el ejemplo siguiente es biopiratería, pero apoya la visión de que la ciencia puede ser global para unas cosas sí... y para otras no tanto. El proyecto internacional HapMap para estudiar las variaciones genéticas individuales, algo esencial para entender por qué los fármacos no funcionan igual en todos los pacientes, o para hallar genes que predisponen a las enfermedades más habituales, se nutre de muestras de 270 voluntarios. Como es indispensable disponer de poblaciones distintas hay voluntarios yoruba, de Nigeria y también de la etnia han china -tanto China como Nigeria participan-.

Otro reciente trabajo del IAS destaca una incómoda consecuencia de la falta de tejido científico en el mundo en desarrollo: problemas de bioseguridad. La falta de preparación hace que un centenar de estas naciones no hagan un uso correcto de la biotecnología, por ejemplo en aplicaciones agrícolas, y eso "hace que la comunidad mundial sea vulnerable a amenazas de bioseguridad (...). No hay un sistema efectivo de bioseguridad", denuncia. Una de estas potenciales amenazas es el bioterrorismo, la liberación de agentes biológicos tóxicos. A la luz de este resultado Zakri se pregunta si la biotecnología ayudará a resolver los problemas del mundo pobre -teóricamente con la biotecnología se podrían lograr cultivos resistentes a la sequía, por ejemplo-.

Diagnosticado el problema, ¿hay alguna solución? La TWAS destaca uno de sus logros: aprovechar precisamente el despegue científico del Sur emergente y establecer colaboraciones Sur-Sur. Han desarrollado programas de posgrado con India, China, México, Brasil y Pakistán, países que reciben ahora unos 300 estudiantes del Sur estancado. Son programas para evitar la fuga de cerebros -hay más investigadores africanos en EE UU que en África, dice la TWAS- y promover la formación en el país de origen.

Destinar más fondos a Investigación y Desarrollo (I+D) también cuenta. La TWAS pidió recientemente que los países en vías de desarrollo aumentaran su inversión en I+D hasta alcanzar al menos el 1% de su PIB.

¿Qué hace mientras el mundo rico? La Unión Matemática Internacional dedica parte importante de sus fondos a cooperación. Europa, dentro del Séptimo Programa Marco de Investigación, tiene varias convocatorias de cooperación científica internacional, en especial con sus vecinos en la región mediterránea. El objetivo es promover el intercambio de investigadores y realizar proyectos comunes.

España también concede varios tipos de becas a través de los ministerios de Exteriores y de Ciencia e Innovación, y de organismos como la Fundación Carolina. Sin embargo, en la Subdirección General de Proyectos de Investigación no hay programas orientados a la cooperación, y hay hasta ahora pocos trabajos de esta índole. Una de las razones, explican fuentes ministeriales, es que "no hay demanda por parte de la comunidad científica".

'Cerebros robados'

La comunidad científica se enorgullece de guiarse por criterios científicos, esto es: si un trabajo es bueno, será reconocido como tal. En astrofísica, por ejemplo, las propuestas mejor evaluadas son las que obtienen tiempo en los telescopios, independientemente del país de origen, dice Antonio Mampaso, del Instituto de Astrofísica de Canarias. Ahora bien, cuando un país rico contrata a un científico de un país en desarrollo, ¿está siguiendo una política no discriminatoria, o robando un cerebro?, se pregunta este investigador.

Su colega Ignacio García de la Rosa abunda en lo mismo: El sistema es perverso: al mundo rico no le interesa especialmente que haya ciencia en el Tercer Mundo, la considera demasiado seria como para dejarla en manos ajenas. Sí le interesa que haya educación científica en los países pobres, para reclutar a los alumnos más brillantes cuando ya estén suficientemente formados. Con eso importa a los mejores del mundo a precios de saldo.

Andrés Martínez, ingeniero de telecomunicaciones y profesor en la Universidad Rey Juan Carlos, en Madrid, resalta otro aspecto: que la investigación en los países en desarrollo no se ajuste a las necesidades locales. Los buenos investigadores allí creen que para publicar en revistas buenas deben trabajar en los temas que aquí son punteros. Pero así no pueden competir, y en cambio no abordan proyectos útiles para su comunidad. Martínez investiga con grupos de cinco países latinoamericanos, para desarrollar aplicaciones de telecomunicaciones que mejoren la atención sanitaria en regiones aisladas.

Abderrazzak Douhal, profesor de química-física de la Universidad de Castilla-La Mancha, entra en la categoría de cerebro robado por España a Marruecos. Tras doctorarse, estuvo en Japón y en Francia, y colabora con el Nobel egipcio Ahmed Zewail. Douhal ya no piensa en volver a Marruecos, pero busca colaboraciones con su país y traerse estudiantes. Pese a todo, una persona brillante hoy tiene posibilidades, dice. Y echa de menos voluntad política por los dos lados.

Fuente: elpais.com, 19 de Diciembre de 2008

 

 

-Existe un 50% de contraer cáncer

A ti o a mí. Las probabilidades de que un hombre sea diagnosticado de alguna forma de cáncer en los países más industrializados a lo largo de su vida rozan ya el 50%. Es como una ruleta rusa de dos participantes, empleando un arma de dos recámaras con sólo una bala.

Los expertos subrayan que, pese a que los avances y las perspectivas de supervivencia añaden hoy bastante luz a tan sombría enfermedad, el cáncer mata cada vez a más gente. Subrayan, asimismo, que no debe hablarse más de cáncer, sino de cánceres; de naturaleza sólida o líquida, existen docenas de cánceres diagnosticables, con incidencias, tratamientos y pronósticos muy distintos.

Hay quien cree aún que el cáncer es una enfermedad de la civilización, aunque tal vez debiera puntualizar de cuál. Se han identificado cánceres en restos humanos fechados hace 30 mil años. La palabra “cáncer” la acuñó Hipócrates hace 2.400 años y deriva de  karkinos (“cangrejo”, en griego), puesto que aquel médico identificó en algunos pacientes tumores internos con forma semejante a las pinzas de un cangrejo y que evolucionaban con un pronóstico fatal.

Antes incluso que Hipócrates, un papiro egipcio relató la primera operación quirúrgica para la extracción de un tumor sólido de que se tiene noticia... Ha llovido mucho desde entonces, y cada identificación de un tumor maligno sigue partiendo como un rayo; no por saber qué es, de qué se trata, uno queda más tranquilo. La ciencia ha acumulado muchos datos, pero sigue sin resolver cuestiones tan inquietantes como quién está más expuesto y quién menos, cuán larga o corta es la supervivencia de cada enfermo o qué garantías ofrecen los arquetípicos esquemas de prevención.

En favor de la medicina, cabe subrayar que su cometido no es tanto el de ahorrar muertes como de evitar sufrimiento, y los principales avances buscan combatir el dolor asociado a esta enfermedad de obstinadas pinzas.
Por lo demás, sabemos ahora que los tumores sólidos proliferan sobre todo en cinco escenarios: piel, próstata, mama, cerebro, páncreas y pulmón. Las buenas noticias son que el 80% de los melanomas diagnosticados en estadios precoces tiene curación. La cirugía sigue siendo la opción terapéutica principal para estos cánceres, pero la radio y la quimioterapia prestan también su apoyo. Lo último son los ensayos de una vacuna destinada a frenar el avance de los melanocitos.

Del cáncer de próstata, la lentitud de su progresión sigue encasillándolo como uno de los cánceres más curables, y en Estados Unidos se ha descubierto que su incidencia es significativamente mayor entre los hombres de raza negra. Con el cáncer de mama, las mujeres han conseguido una sensibilización social que ha dado también sus frutos dentro de los laboratorios. La herceptina es el primer tratamiento farmacológico capaz de combatir cánceres de mama en los que esté presente la proteína HER2neu, y un nuevo test genético puede identificar a las mujeres con riesgo de recidiva (reaparición del cáncer). En el cáncer cerebral, una mejor comprensión de los mecanismos moleculares por los que los tumores aparecen y proliferan podría dar pie bien pronto a vacunas del tipo de la del melanoma, sacando partido al sistema inmunológico para que “asfixie” a las células tumorales dejándolas sin riego sanguíneo. Por ahora, la clave terapéutica está en manos del bisturí, la radio- y la quimioterapia.

Los cánceres de páncreas y pulmón son los más difíciles de combatir. La cirugía puede hacer poco, y generalmente demasiado tarde. Siguiendo el camino de otros cánceres, se espera de los avances genéticos y moleculares que proporcionen nuevas vías de actuación; pero habrán de pasar muchos años y, mientras tanto, sigue vigente la prohibición de fumar.

Entre los tumores líquidos, las leucemias han experimentado un avance importante con la comercialización de fármacos que permiten hoy supervivencias a más de cinco años vista para más del 80% de los casos. Los linfomas corren suerte desigual. Los hodgkinianos, tenidos antes por fatales, empiezan a ser tratables y a presentar cifras esperanzadoras de supervivencia; los no hodgkinianos, en cambio, no es que tengan una peor evolución, sino que desde los años 70 han proliferado de manera progresiva sin que los científicos sepan aún explicar cómo.        

La radioterapia y la quimioterapia han salvado muchas vidas, pero sus orígenes esconden lagunas éticas importantes. No escapa a nadie que la radioactividad evolucionó a partir de proyectos militares no precisamente destinados a curar. En cuanto a la quimioterapia, el primer compuesto citotóxico tampoco se empleó por primera vez con fines precisamente médicos. El primer citotóxico de la historia, el gas mostaza, se utilizó por primera vez como arma militar durante la primera guerra mundial, y no fue hasta 1945, después de que varios militares fueran expuestos accidentalmente a esta sustancia, que los médicos descubrieron que los niveles de glóbulos blancos de los afectados eran sorprendentemente bajos… Esta observación llevó a los científicos a pensar en la capacidad de este agente para matar células, por lo que se comenzó su uso como oncotratamiento para enfermos con linfomas. Se recurrió, eso sí, a una administración intravenosa en lugar de la inhalación de gas.

Uno de los proyectos científicos que se antojan hoy más ambiciosos es el del Instituto Tecnológico de Massachusetts, que ha destinado 100 millones de dólares a un nuevo centro en el que biólogos, bioquímicos y bioingenieros expertos en nanotecnología harán frente común contra los cánceres. Detrás de la iniciativa, una de las voces más aplaudidas de la lucha contra el cáncer: Lance Armstrong; titubeante ante su anunciada incorporación al Tour del año que viene, pero firme en su apoyo a los avances contra esta grave y pinzante enfermedad.
 

Fuente: Blog mi+d  "política científica" , 18 de Diciembre de 2008


 

-Prótesis con sensibilidad real

Científicos suecos cuya labor ha sido financiada con fondos comunitarios han conseguido «engañar» al cerebro de personas con amputaciones en las extremidades superiores para que sientan una mano protésica como si fuera suya. Los resultados suponen un gran avance en el campo de las neuroprótesis y hacen que la ciencia esté cada vez más cerca de conseguir el desarrollo de una mano protésica «inteligente» con sensibilidad al tacto. Se ha publicado un artículo al respecto en la revista Brain.

La investigación recibió fondos del proyecto SmartHand («Prótesis para la mano inteligentes y bioadaptativas»), el cual recibió 1,8 millones de euros mediante el Sexto Programa Marco (6PM) y fondos adicionales del Consejo Europeo de Investigación. Los investigadores de SmartHand pretenden incorporar avances realizados en la nanobiociencia, la neurociencia cognitiva y la informática para desarrollar una mano protésica inteligente con todas las características básicas de una real.

Además de sentir un «dolor fantasma» en el miembro ausente, la gente que ha sufrido una amputación padece a menudo depresión grave y fobia social, así como una imagen distorsionada de sí mismos. Tal y como se establece en los objetivos de SmartHand, crear una mano artificial funcional que se pueda sentir como parte del cuerpo de una persona mejoraría en gran medida la calidad de vida de los pacientes, ya que estos recobrarían la imagen positiva de sí mismos y se sentirían más aceptados socialmente.

Los investigadores sometieron a estudio a dieciocho personas con amputaciones entre la muñeca y el codo y que utilizaban una prótesis de manera regular. Se preguntó a los sujetos acerca del síndrome del miembro fantasma y sobre otras sensaciones relacionadas con la ausencia de la extremidad. También si sentían tacto en sus dedos o cualquier otra parte de la mano al tocar distintas partes del muñón. Tras esta evaluación, se sometieron a la denominada «ilusión del brazo de goma».

Dicha ilusión consistía en tocar el muñón del miembro amputado del sujeto sin que el paciente mirara el muñón, sino en su lugar un brazo de goma manipulado a la vez. El experimento hace que el cerebro interprete información visual, táctil y espacial en conflicto y provoca como resultado una percepción distorsionada. Los sujetos, en distintos grados, sintieron que la presión procedía de la mano protésica en lugar del muñón.

Los científicos quedaron gratamente sorprendidos puesto que, cuando este experimento se lleva a cabo en sujetos «normales», su exactitud debe ser elevada para que la ilusión funcione. «En individuos normales es fundamental estimular exactamente los mismos puntos en el brazo de goma y en el real para que la ilusión surta efecto», escriben. «Así que, ¿cómo podría funcionar la ilusión en amputados que ni siquiera tienen una mano que estimular?»

Los resultados plantean cuestiones fundamentales sobre la forma en la que el cerebro distingue las distintas partes del propio cuerpo y los objetos del entorno.

El éxito de la ilusión fue confirmado mediante la descripción de la propia experiencia de los sujetos, la tendencia a señalar el brazo de goma al pedirles que indicaran el punto de estimulación y las pruebas de respuesta fisiológica, como por ejemplo si comenzaban a sudar cuando se pinchaba la mano de goma con una aguja. Muchos sujetos sintieron el brazo de goma como si fuera suyo. Curiosamente, los investigadores observaron que si el tiempo transcurrido desde la amputación era menor, la ilusión cobraba más fuerza.

Los descubrimientos abren nuevas puertas para la creación de miembros protésicos que se puedan sentir como parte del propio cuerpo.

«De ahora en adelante exploraremos las posibilidades de desarrollar un miembro protésico que sea capaz de registrar el tacto y estimular el muñón en el que está colocado», declaró el Dr. Henrik Ehrsson del Instituto Karolinska (Suecia). «Si engañar al cerebro de esta forma hace posible la creación de una prótesis con sensibilidad, podemos estar ante un avance importante hacia la creación de miembros protésicos más prácticos que los que hay en el mercado hoy en día.»

Fuente: CORDIS, 18 de Diciembre de 2008
 

 

-La reprogramación celular estrella de la investigación de 2008

La máquina del tiempo. Podría decirse que lo que han logrado diferentes grupos de investigación este año es una máquina del tiempo biológico. La técnica de la reprogramación celular, que así se denomina el procedimiento, ha sido uno de los hallazgos científicos que ha llenado más páginas en revistas especializadas y en periódicos de todo el mundo. Por su relevancia y sus posibilidades de generar órganos a la carta, la revista 'Science' la ha encumbrado en el primer lugar de su lista de los 10 avances científicos más importantes del año. El tiempo dirá si merece ese lugar.No es un conejo sacado del sombrero. La reprogramación celular se desarrolló hace dos años en ratones. A finales del pasado año, se demostró su eficacia en células de la piel humana y ha sido durante 2008 cuando se han elaborado numerosos trabajos que han mejorado esta técnica y han obtenido modelos de estudio para 10 enfermedades genéticas. Pero, ¿por qué entusiasma a tantos investigadores? Porque este procedimiento consigue eliminar de un plumazo los problemas éticos que conllevan los trabajos con embriones humanos o mediante la técnica de la clonación, pero sin renunciar al sueño de generar tejidos terapéuticos compatibles con los pacientes de enfermedades incurables hoy día.

"Cuando los escritores y editores de 'Science' nos dispusimos a elegir los mayores avances de este año, buscamos investigación que respondiera a los grandes interrogantes sobre cómo funciona el Universo y que está allanando el camino para futuros descubrimientos. El primer puesto de la lista, la reprogramación celular, abrió un nuevo campo de biología, casi de un día a otro y ofrece la esperanza de avances médicos que salven vidas", afirma el subeditor de noticias, Robert Coontz.

¿Y cómo funciona? No se necesita experimentar con embriones, en este caso los científicos utilizan células adultas, como las de la piel, y les insertan genes mediante un virus. Éste hace de vehículo y transporta a esos 'pasajeros' al ADN celular para iniciar el proceso de cambio. Poner a cero el reloj y empezar la maduración de nuevo. A través de diferentes cultivos, se puede generar un tejido u otro, ya que estas células son similares a las células madre embrionarias y tienen capacidad para transformarse.

 

 

 

 

 

 

 

 

 

neuronas motoras y glia obtenidas de células reprogramadas

 

Barreras por superar y logros conseguidos

A pesar de que la técnica funciona, no se conoce exactamente qué pasa en el interior de la célula cuando esos cuatro 'pasajeros' se instalan en ella. Además, el 'vehículo' no deja de ser peligroso porque los virus, aunque estén modificados, son un extraño para la célula y, en cualquier momento, podría generar algún cambio indeseable, algo que no se puede permitir cuando se está hablando de posibles tratamientos para humanos.

En la actualidad, existen muchos grupos científicos que están trabajando con esta tecnología que forma parte del sueño de todo aquel que se dedica a buscar una salida para enfermedades incurables como la diabetes, la distrofia muscular, el Alzheimer, la esclerosis... Pero de momento es sólo un sueño. Para que esta técnica se convierta en algo real para pacientes y médicos, todavía se necesitan varios pasos de gigante.

Algunos de esos avances ya se están vislumbrando. Hace unos meses se desarrolló un 'atajo' para no tener que ir al punto cero y que la célula tenga que volver a empezar su desarrollo. Un trabajo pudo convertir una célula externa del páncreas en otra capaz de producir insulina sin necesidad de pasar por el estadio embrionario.

También se ha incrementado la seguridad de la reprogramación y se ha mejorado su eficacia. La eliminación de riesgos ha venido de la mano del padre de la técnica, el japonés Shinya Yamanaka, que ha sustituido el virus por un plásmido, o molécula de ADN, como 'vehículo' más seguro para transportar los genes. Otro investigador, Douglas Melton, ha empleado dos genes distintos del 'set' habitual para evitar la formación de tumores. Sin embargo, estas dos mejoras no son gratuitas sino que se hacen a expensas de una disminución de la eficacia del proceso. No obstante, otro de los trabajos presentados este año por Juan Carlos Izpisúa podría solucionar esta barrera.

El investigador del Laboratorio de Expresión Genética del Instituto Salk, en La Jolla (California, EEUU) y director del Centro de Medicina Regenerativa de Barcelona, ha logrado mejorar 100 veces la eficiencia de la técnica y acortar el tiempo necesario para transformar las células. Y lo ha hecho utilizando queratinocitos, células presentes en el cabello, que, gracias a la reprogramación, se convirtieron en neuronas y otro tipo de células.

No obstante, todos estos avances no se han podido dar en un solo paso, sino que se han obtenido en experimentos separados. Quizás 2009 sea el año en que los científicos consigan hacer realidad su sueño, dar marcha atrás en el tiempo y crear tejidos sanos, aunque de momento nadie se atreve a poner fecha a la fantasía de encontrar un tratamiento para enfermedades incurables.

Los otros 'agraciados'

Quizás los avances que se están produciendo en genómica puedan ayudar a abrir puertas para encontrar una solución a muchos tipos de cáncer, algo que 'Science' ha destacado en el segundo lugar de su 'top ten'. El protagonista en este campo, ha sido el trabajo realizado por un grupo multicéntrico, que también contaba con participación española, y que ha elaborado el mapa genético de los dos cánceres más mortales: el carcinoma de páncreas y el glioblastoma multiforme (un tumor cerebral). Pero no han sido los únicos, también se han desvelado las entrañas del cáncer de pulmón o de las leucemias mieloide aguda y crónica. Algo necesario para conocer cómo se forman estos tumores y cómo atacarlos.

Las otras investigaciones biomédicas destacadas por la publicación científica van desde una técnica para observar las proteínas en acción o mejorar el conocimiento sobre la formación de la grasa,algo que podría servir para luchar contra la obesidad.

En cuanto a los avances en otros campos de la investigación, destaca en segundo lugar al empleo de técnicas telescópicas para observar exoplanetas, o la puesta en marcha de la máquina del 'Big Bang', el acelerador de partículas LHC, que se puso en marcha este mes de septiembre y, aunque un fallo humano obligó a paralizar momentáneamente su funcionamiento, el logro ha convencido a expertos de todo el mundo de que es posible desarrollar una tecnología para identificar las partículas más elementales del Universo.

Fuente: elmundo.es, 18 de Diciembre de 2008

 

 

-Nuevas claves para resolver los misterios de Marte

Mars Reconnaisance Orbiter ha encontrado un mineral sobre la superficie marciana con el que se puede conocer nuevas claves del pasado del planeta rojo. CRISM, un espectrómetro a bordo de la sonda MRO, ha permitido observar capas subterráneas marcianas. Los científicos han encontrado, tras las observaciones, carbonatos lo que indica que Marte contuvo agua entre alcalina y neutra cuando se formaron esos compuestos, hace unos 3.6 mil millones de años. Los carbonatos, que en la Tierra incluyen la caliza y la creta, son disueltos rápidamente por el ácido. Su existencia hasta hoy hace pensar que más tarde hubo un cambio en el planeta que lo llevó hacia condiciones ácidas. Esto parece indicar que varios tipos de ambientes acuosos pudieron existir. Los mayores pudieron albergar vida. Estos hallazgos serán publicados el 19 de Diciembre en la reviste "Science Magazine".

Imagen obtenida en el espectro de infrarrojos por CRISM. Se puede apreciar un área de 20 kilómetros de ancho con varios tipos de carbonatos. En la representación de composición el color verde corresponde al carbonato. La foto corresponde a una zona muy erosionada en un cañón de la Fosa Nili. Es la primera zona donde los investigadores de la sonda MRO encuentra carbonatos. En púrpura vemos la roca unitaria, en amarillo se representa el olivino, en azul rocas que contienen arcilla de esmectita. En las zonas en el que el olivino adquiere tonalidades verdosas ha sido parcialmente alterado por interacción con el agua. Carbonato y olivino están en el mismo nivel en la estratigrafía. Se cree que el carbonato ha sido formado por la alteración del olivino al contacto con el agua. El canal que cruza desde la izquierda la imagen prueba la presencia de agua en el pasado. Algunos de los pequeños canales están coloreados de verde, por la alta presencia de carbonatos (abajo a la derecha) lo que parece decir que  el agua en la que se encontraba ese carbonato tenía que ser alcalina, de lo contrario no hubiera existido ahí. 

Los carbonatos se crean cuando el agua interactúa con el dióxido de carbono, el calcio, hierro o magnesio en las rocas volcánicas. El dióxido de carbono queda atrapado en las rocas. Si todo el dióxido de carbono atrapado en las rocas fuera liberado, nuestra atmósfera sería más gruesa que la de Venus. Algunos investigadores creen que una delgada capa atmosférica marciana de dióxido de carbono mantuvo al planeta caliente en el pasado, permitiendo la existencia de agua y la creación de valles como los observados en la actualidad. Sin embargo, las observaciones de la sonda MRO sólo parecen confirmar que el carbonato se encuentra en una región del planeta más que en toda su corteza y en cantidades muy limitadas en comparación con las necesarias para explicar la existencia de una remota capa atmosférica con suficiente anhídrido de carbono. Lo que parece demostrar el hallazgo es la existencia de ambientes acuosos  alcalinos en una época que se creía en la existencia de grandes cantidades de agua ácida. Además, en dicha región pudieron existir unas condiciones mucho más aptas para la vida de lo que en principio se creía.

Las capas analizadas rodeaban la cuenca de impacto Isidis, que se formó hace unos 3,6 mil millones de años. Los mejores afloramientos fueron observados en la Fosa Nili, de unos 666 kilómetros de largo, en uno de los lados de la cuenca. La región es rica en olivino, mineral que puede reaccionar con el agua para dar carbonatos.

El lander Phoenix descubrió carbonatos en el suelo marciano. También se ha encontrado carbonato en meteoritos procedentes de Marte y en el polvo arrastrado por el viento de Marte. No obstante, el suelo y el aire podrían contener  mezclas hechas en mucho tiempo de carbonatos formados durante un periodo extenso de tiempo en un periodo temprano del planeta.        

Fuente: NASA 18 de Diciembre de 2008

 

 

-La sonda Kepler a la búsqueda de otras Tierras

Ya todo esta listo para mandar al espacio un nuevo satélite llamado Kepler. La NASA ha diseñado el artefacto que se lanzará desde Cabo Cañaveral el próximo 5 de Mayo. La nave una vez esté operativa intentará encontrar otras Tierras, un enigma que la humanidad se lleva preguntando, al menos, desde la época de los griegos, según dijo James Frason, director del proyecto.Kepler monitorizará más de 100 mil estrellas en su búsqueda de exoplanetas de varios tamaños y distancias orbitales. Esto permitirá detectar planetas rocosos como la Tierra, incluyendo los que se encuentran en la llamada zona habitable, región donde el agua, y quizás la vida, pueda existir. Si otros mundos como el nuestro orbitan alrededor de otras estrellas parecidas al sol, entonces Kepler será el primero en descubrirlos y el primero en medir su frecuencia. O sea, permitirá saber no sólo si existen otras Tierras, sino incluso nos dirá con cuánta frecuencia se pueden descubrir o si la vida en nuestra Vía Láctea es frecuente o rara.

Ahora mismo la sonda está pasando por las pruebas y análisis oportunos antes de ser embarcada en un cohete Delta II que la llevará al espacio. Esta misión nos dará un nuevo conocimiento del cosmos que a buen seguro cambiará nuestra concepción del mismo.

Fuente: NASA, 18 de Diciembre

 

La sona Kepler embalada para ser transportada a Florida.

 

 

 

-La ESA habla de ciencia ficción

La web de la ESA dedica un espacio para hablar de la inspiración que han encontrado los científicos e ingenieros en la ciencia ficción. Películas como "Star Trek" o  "2001, odisea en el espacio" han servido para dar forma a ideas que luego se han hecho reales. La serie de videos titulada "'Science fiction – science fact" que se puede ver en la web de la ESA, tiene como telón de fondo la delgada línea que separa la ciencia ficción y la actividades que se han hecho en el espacio.

El video que podrás ver aqui habla de escritores de ciencia ficción como Verne, Wells o Clarke y compara proyectos ficticios con los reales como por ejemplo las estaciones espaciales y cohetes. El video explica como la ciencia ficción sobre viajes interplanetarios puede ser de inspira

Fuente: ESA, 17 de Diciembre de 2008

 

 

-El futuro de las redes sociales
 
El otro día, Javier Cuervo y Eduardo Díaz publicaban un interesantísimo post acerca de las redes sociales vistas desde la perspectiva de los Sistemas Emergentes o "Swarm Intelligence". Además de interseccionar dos campos que interesan mucho, como son las redes sociales y los sistemas inteligentes (campo general dónde podemos situar los sistemas emergente), me hicieron reflexionar sobre el futuro de las redes sociales.
 
La Wikipedia define la emergencia como "aquellas propiedades o procesos de un sistema no reducibles a las propiedades o procesos de sus partes constituyentes. El concepto de emergencia se relaciona estrechamente con los conceptos de autoorganización y supervivencia y se define en oposición a los conceptos de reduccionismo y dualismo". Cuándo hablamos de un Sistema Emergente  hacemos alusión a un sistema compuesto de partes simples, o "tontas", que son capaces de autoorganizarse formando un sistema más complejo que la unión de sus partes.

Siguiendo esta línea más "filosófica", existe un area de los Sistemas Inteligentes (por aquello de no llamarlo Inteligencia Artificial) que se llama "Swarm Intelligence" o "Inteligencia de Enjambre" que se encarga de estudiar el comportamiento colectivo de sistemas descentralizados y auto-organizados. Uno de los ejemplos más representatios de la "Swarm Intelligence" (y también de los Sistemas Emergentes) es el comportamiento de las hormigas que, a pesar de ser seres que por si solos son capaces de hacer muy poquitas cosas, en conjunto demuestran un
comportamiento complejo y cláramente inteligente.
 

 

Ahora bien, ¿y qué tiene que ver todo esto con las Redes Sociales? Para mi existe una similitud de base: tanto en los Sistemas Emergentes como en las Redes Sociales una serie de individuos interactúan entre si para formar algo más grande. Sin embargo los resultados son bien distintos. Los Sistemas Emergentes demuestran que una serie de individuos limitados en sus capacidades son capaces de unirse formando un "organismo" cooperativo que demuestra un mayor nivel de Inteligencia. Sin embargo, las Redes Sociales (entendidas como herramientas software, no hablo de su vertiente sociológica) parten de una posición más favorable ya que los individuos que forman parte de la red ya son inteligentes a priori. A pesar de esto, el resultado final es un sistema donde la información global es igual (o menor, por aquello de las intersecciones) a la suma de la información que que agrega cada individuo y, aún peor, la Inteligencia global del sistema no pertenece a un estrato superior que la inteligencia de los individuos.

Para mi esta claro que el futuro de las Redes Sociales pasa por conseguir sistemas que sean capaces de aportar un valor añadido por si mismos a partir de las aportaciones de los usuarios, las unidades básicas de estos sistemas complejos. La idea es muy etérea, pero útil en si misma, tanto que
surge en la cabeza de muchos de una forma u otra, pero también es relativamente simple a la hora de poner a la práctica, ya que las tecnologías necesarias para lograr las primeras "Redes Sociales del futuro" ya se encuentran desarrolladas y un primer acercamiento consiste en la integración de estas tecnologías (recuperación de información, microformatos, semántica, personalización, etc.) en sistemas de Redes Sociales usables en campos de aplicación de interés global.

Y estoy (y también otras personas, como mis compañeros
Frankie y Borja) tan convencido de este enfoque de Redes Sociales del futuro, que desde hace unos meses estoy tratando de llevar esta idea a la práctica, desde un punto de vista práctico y aplicado al campo de los videojuegos, con un proyecto como es Wipley, en el que pretendemos que la Red Social sea capaz de generar un conocimiento "superior" a partir de la información de los usuarios, permitiendo realizar recomendaciones automáticas de contenido, generar perfiles de usuario, etc.

Fuente: Blog sistemas inteligentes, 16 de Diciembre de 2008


 

-La NASA descubre indicios de un océano en una luna de Saturno

Imagen captada por la sonda 'Cassini' de las grietas en Encelado que sugieren la presencia de un océano subterráneo de agua líquida. (Foto: NASA)

 

    «Éste es el nuevo objeto de deseo de los astrónomos». Así define Manuel Vázquez, científico del Instituto de Astrofísica de Canarias (IAC), a Encelado, una luna de Saturno que parece ocultar bajo su superficie un inmenso océano de agua líquida. Al menos esto es lo que se deduce de las últimas imágenes enviadas por la sonda Cassini de la NASA, y presentadas el martes en el congreso de la Unión Geofísica Americana que se está celebando en San Francisco.

Estas espectaculares 'postales' desde Encelado muestran una serie de fracturas y grietas en su superficie que se parecen mucho al suelo de los océanos terrestres. Para los investigadores de la agencia espacial estadounidense, este hallazgo sugiere que bajo la superficie de la luna hay un mar de agua líquida que provoca rupturas en su corteza, de una forma similar al sistema de placas tectónicas de la Tierra.

«Poco a poco, estamos acumulando evidencias que demuestran la existencia de agua líquida en Encelado», asegura Carolyn Porco, la investigadora principal que dirige el análisis de imágenes enviadas por la sonda Cassini, en órbita alrededor de Saturno desde 2004.

Hace ya más de dos años, en marzo de 2006, la misma nave de la agencia espacial estadounidense ya encontró los primeros indicios de agua en esta luna, al detectar en los alrededores de su polo sur géiseres que expulsan chorros de partículas desde el interior del satélite.

Los investigadores de la NASA propusieron entonces que estos surtidores podrían tener su origen en pequeñas bolsas de agua líquida que se encontrarían enterradas a poca distancia de la superficie. De acuerdo con esta hipótesis, el agua se mantendría por encima de su punto de congelación gracias al calor producido por procesos radiactivos y a las actividades geológicas que tienen lugar en este área de Encelado.

Ahora, el nuevo hallazgo de Cassini refuerza esta teoría, ya que el origen de las grietas y las fracturas detectadas precisamente en el polo sur de Encelado parece ser el océano de agua líquida que, según todos los indicios, se encuentra bajo su superficie. Según esta interpretación de las imágenes, el proceso es casi idéntico al que se produce en el sistema de placas tectónicas de la Tierra. En este caso, sin embargo, las rupturas en la corteza no se deben a los movimientos de roca fundida, como en el manto terrestre, sino al mar de agua que se halla bajo la superficie de Encelado.

«Cuando algo se mueve, hay que buscar una fuente de energía», explica Manuel Vázquez desde el IAC. «Lo que han revelado las últimas imágenes de la Cassini es que la superficie de Encelado se está reestructurando, y esto se debe a un proceso de disipación que proviene de su interior, cuya fuente parece ser un océano de agua líquida».

Una futura misión para buscar vida

No obstante, este investigador recalca que, de momento, se trata tan sólo de una hipótesis que sólo podría confirmarse con una exploración 'in situ' de esta luna de Saturno: «La teoría que propone la NASA es perfectamente posible, pero como científicos tenemos que ser cautos. Para confirmar la existencia de este supuesto océano, necesitaríamos una comprobación 'de pico y pala', con un vehículo robótico que perforara su suelo, o mejor todavía, una misión tripulada con astronautas de carne y hueso».

De momento, no hay ningún proyecto previsto de futuras misiones a Encelado, pero no cabe duda de que estos hallazgos están aumentando el interés científico en esta luna, y con el tiempo esto podría impulsar el desarrollo de vehículos exploradores que excavaran bajo su superficie.

De hecho, la propia Carolyn Porco, investigadora principal de las imágenes transmitidas por la sonda Cassini, ya ha manifestado su interés en una misión de estas características: «Algunos de nosotros ya estamos muy interesados en volver a Encelado con una nave que pueda explorar su polo sur para investigar si es un lugar donde puede producirse algún tipo de proceso biológico». En definitiva, los nuevos hallazgos en Encelado han convertido inesperadamente a esta luna de Saturno en uno de los lugares con más probabilidades de albergar vida fuera de la Tierra. 

Durante muchos años, el foco de atención de la agencia espacial estadounidense y de todos los científicos interesados en la búsqueda de vida extraterrestre se centró en nuestros planetas vecinos, y sobre todo en Marte. Sin embargo, los descubrimientos en Europa, una de las lunas de Júpiter, donde también se han detectado indicios de un océano líquido, y ahora en Encelado, han obligado a los astrónomos a replantear su visión de los posibles rincones del Sistema Solar donde puede haber surgido la vida.

«Es evidente que Marte sigue siendo el gran candidato para hallar algún tipo de organismo fuera de la Tierra, y los esfuerzos para buscar vida seguirán centrándose en el planeta rojo», señala Vázquez. «Sin embargo, lunas como Europa y Encelado nos están dando sorpresas que también debemos tomarnos en serio, y en el futuro no podemos descartar que sea bajo su superficie donde al final encontremos el primer rastro de vida fuera de nuestro propio planeta».

Fuente: elmundo.es, 16 de Diciembre de 2008

 

 

 

-Lunas habitables

 

El catálogo de los más de 300 planetas extrasolares detectados hasta ahora habrá decepcionado a los que esperan con impaciencia un primer signo de vida extraterrestre: todos estos planetas son excesivamente masivos, con gravedades aplastantes, y la mayoría son cuerpos gaseosos como Júpiter, difícilmente compatibles con una biología tal como este concepto se define en la Tierra.  Pero ni mucho menos se trata de que todos los exoplanetas estén cortados por este patrón, sino que las limitaciones técnicas actuales restringen la posibilidad de detección a objetos de gran tamaño.

Hasta que los nuevos telescopios permitan un cribado más fino, los adictos a la búsqueda alienígena deberán esperar. Sin embargo, el trabajo de un científico del University College de Londres podría ofrecer un interesante atajo.

Bamboleo delator

Según publica David Kipping en Monthly Notices of the Royal Astronomical Society, igual que la observación de alteraciones en el movimiento aparente de una estrella lejana ayuda a deducir la presencia de un exoplaneta, un “bamboleo” de este durante el tránsito frente a su estrella puede delatar la presencia de un tercero en discordia: una luna.  Aunque suele decirse que un satélite gira en torno a un planeta, en realidad los dos orbitan alrededor del centro de gravedad del sistema que ambos forman. Kipping propone que las eventuales alteraciones en la velocidad y la posición del planeta revelarán la existencia de una luna, su masa y su distancia al planeta.

Ilustración de una luna habitable. ANDY MCLATCHIE

La hipótesis de Kipping permitirá definir sistemas de satélites en órbita alrededor de exoplanetas. Pero el estudio tiene una implicación aún más sugerente. Según Kipping, “tendremos la capacidad de detectar una luna de masa similar a la terrestre alrededor de un planeta gaseoso de masa similar a Neptuno”.

Dado que, dice el estudio, unos 30 exoplanetas ya catalogados ocupan la franja alrededor de su estrella que puede considerarse habitable, es cuestión de tiempo que se halle una luna rocosa, de un tamaño parecido a la Tierra, en una órbita con temperaturas moderadas. En resumen, una combinación propicia para la vida.

Fuente: publico.es, 16 de Diciembre de 2008

 

-Energía oscura, el acelerador cósmico

Si a un hombre del neolítico se le hubiera dado a comer una tarta de manzana de un kilo con 40 gramos de fruta en rodajas, seguramente sólo habría sido capaz de reconocer este último ingrediente; sobre la composición y elaboración de los 960 gramos restantes no habría tenido la más mínima idea.

Algo parecido les ocurre a los científicos que escudriñan el universo. Con el acelerón de la física en el siglo XX, se diría que restan pocos cabos sueltos, como una teoría unificadora o el archifamoso y esquivo bosón de Higgs, para el que se ha construido la trampa más cara de la historia –el LHC–; y poco más. Pero la realidad es bien diferente. Del total de masa y energía del universo –conceptos intercambiables, según Einstein–, sólo un 4% ha entrado en el redil de los instrumentos de medida. La manzana de los astrofísicos comprende planetas, estrellas, galaxias, nebulosas, polvo intergaláctico... En fin, lo que cualquiera entendería como materia normal o, más sencillamente, todo. Sólo que este todo deja fuera el 96% del universo.

Oscuridad casi total

¿Qué más hay en la tarta? En tres palabras, no se sabe. Modelos y observaciones piden que un 22% del verdadero todo sea una materia que no se ve, u oscura. Y si esto es difícil de concebir, el premio a la abstracción se lo lleva el 74% restante, bautizado como energía oscura.

En física no hay que conocer algo para nombrarlo. Un ejemplo: cuando Einstein enunció su relatividad general, tuvo que añadir un factor de corrección para que su universo permaneciera estático y no acabase colapsando por gravitación. Einstein eligió una letra griega –lambda– y lo llamó constante cosmológica. El problema surgió cuando en 1929 Edwin Hubble certificó que el universo ni es estático ni se contrae; se expande. En 1998, la observación de las supernovas demostró que la expansión se acelera, algo incongruente con la composición del cosmos. Hacía falta otro ingrediente, una fuerza ignota; la energía oscura. Y la ecuación de Einstein estaba allí, con su lambda expansiva. El genio predijo el pedal que acelera el universo.

La última pista llega del telescopio de rayos X Chandra de la NASA . Según anunciaron hoy los científicos y publicarán en Astrophisical Journal, el estudio de docenas de grupos de galaxias corrobora la expansión acelerada. Los investigadores creen que la energía oscura es la constante cosmológica.  Pero hay un problema: al calcular su valor teórico, debería ser 10 elevado a 120 (un decillón de decillones) veces mayor de lo observado, una fuerza absurdamente descomunal que habría pulverizado el universo, lo que no ha ocurrido. Solución: en tres palabras, no se sabe. La tarta aún esconde el 96% de sus secretos.

Fuente: publico.es, 15 de Diciembre de 2008

 

 

-Tres de cada cuatro especies de peces en el mundo está amenazada por la sobrepesca

Más de tres cuartas partes de la población de peces del mundo está amenazada a causa de la sobrepesca, según un estudio presentado hoy en Hamburgo por el Fondo Mundial para la Naturaleza (WWF, por sus siglas en inglés). Una de las especies más amenazadas es la gallineta, por lo que el WWF recomienda a los consumidores no incluir este pescado en su menú. La captura de estos peces tienen además un efecto colateral especialmente nefasto: la destrucción de corales de agua fría milenarios. La organización ecologista exige por ese motivo la prohibición absoluta de toda pesca en aguas profundas y apela a los consumidores a comprar sólo pescado con el sello ecológico "Marine Stewardship Council" (MSC).

Ni camarones ni preparados para paella

El WWF también desaconseja comprar camarones de piscifactoría procedentes de las costas tropicales de Sudamérica, pues para erigir estas factorías se destruyen numerosos manglares. Además, por cada camarón que se destina a la cría en la factoría muere un centenar de peces en las redes. Otro de los productos considerados problemáticos por el WWF son los congelados de paella, pues en la mayoría de los casos no figuran los países de procedencia de los pescados incluidos en este preparado. En muchos casos, sostiene la organización, los pescados proceden de las costas de África occidental, donde flotas de países occidentales explotan las aguas dejando apenas existencias para la población autóctona.

Fuente: adn.es, 15 de Noviembre de 2008

 

 

-España tendrá el único telescopio europeo destinado a investigar la energía oscura

Un telescopio de 2,5 metros de diámetro que se ubicará en el Pico del Buitre en la sierra de Javalambre (Teruel) será el único de Europa construido específicamente para investigar la energía oscura, que constituye el 70% del Universo.La existencia de la energía oscura es uno de los problemas científicos más importantes de todos los campos. De hecho, la prestigiosa revista 'Science' colocó recientemente el enigma de la energía oscura como el asunto número 1 entre los 125 más interesantes que tiene por resolver la ciencia actual. La puesta en marcha de este proyecto científico de alto nivel correrá a cargo de una fundación creada por el Gobierno aragonés y que se acaba de presentar, el Centro de Estudios de Física del Cosmos de Aragón, que será dirigido por Mariano Moles, investigador del Consejo Superior de Investigaciones Científicas (CSIC) del Instituto Astrofísico de Andalucía en Granada.  El telescopio, ha explicado Moles, trazará una cartografía celeste visible desde el Hemisferio norte y cuyo campo de visión permite aumentar 36 veces el tamaño de la luna llena, un mapa que generará el Javalambre Astronomic Survey a partir "de la extraordinaria cantidad de datos" de las observaciones.Las mediciones que se realicen ofrecerán una información diaria de 500 a 1.000 gigas que serán transmitidas por radiofrecuencia a una línea de fibra óptica para transportarlas a un centro de datos ubicado en la ciudad de Teruel con capacidad para manejar 1,5 millones de gigas de información. La elección del Pico del Buitre, situado a algo menos de 2.000 metros sobre el nivel del mar, es la calidad del aire, por su transparencia, y la oscuridad del cielo en este punto, "uno de los de menor contaminación lumínica de Europa", ha añadido.

 

El investigador del CSIC Mariano Moles, al presentar el proyecto del observatorio astrofísico del Pico del Buitre, en Teruel. (Foto: Efe)

 

Además, por el número de días despejados, la transparencia del cielo y la ausencia de vapor y polvo, "es ideal para la observación", según Moles, que lo ha comparado con un pico de la isla de Hawaii a más de 4.200 metros sobre el nivel del mar. Consideró que este proyecto es "único" tanto por el diseño específico del telescopio, la técnica de observación y su campo de visión para el estudio de la energía oscura, como por las condiciones del lugar elegido.

La Fundación Centro de Estudios de Física del Cosmos de Aragón está presidida por el consejero de Presidencia del Gobierno de Aragón, Javier Velasco, quien ha señalado que se cuenta con 12 millones de euros para la puesta en marcha del telescopio y centro de tratamiento de datos. Unos recursos financieros procedentes del Fondo de Inversiones de Teruel incluido en el Plan de Actuación específico para Teruel promovido por el presidente del Gobierno, José Luis Rodríguez Zapatero.

Desde la fundación se llevará adelante el proyecto científico que convertirá a Teruel en "punto de referencia mundial en el estudio del cosmos".

Fuente: elmundo.es, 14 de Diciembre de 2008

 

 

-Un agujero negro ejemplar

Una combinación de lupas naturales en el cosmos con los grandes telescopios VLT europeos, situados en Chile, han permitido observar con gran detalle lo que pasa cerca del borde de un agujero negro lejanísimo y potentísimo, famoso porque es el que da lugar al espejismo astronómico conocido como Cruz de Einstein. Lo que han hallado los astrónomos es que la distribución de materia y temperatura en el disco del que se alimenta el agujero negro se ajusta a lo que predicen los dos modelos teóricos más aceptados.

Cuásar de laa Cruz de Einstein- CASTLES

La cruz de Einstein, que se puede observar en el cielo en la constelación de Pegaso, son cuatro imágenes en forma de cruz de un solo cuásar, situado a unos 10.000 millones de años luz. Las imágenes son producidas por la lente gravitacional que supone una galaxia interpuesta, 10 veces más cercana y fueron descubiertas como tales en 1988. Este efecto fue predicho por Albert Einstein como consecuencia de su teoría de la relatividad general, por la que la gravedad deforma la luz. Un cuásar es un objeto que radia gran energía en el centro de una galaxia y que, supuestamente, es un agujero negro supermasivo que atrae gran cantidad de materia y está rodeado por un disco llamado de acreción.

"Hemos combinado la macrolente gravitacional de la galaxia con el efecto microlente de las estrellas que contiene", ha explicado a este diario el astrónomo chileno Timo Anguita, miembro del equipo que ha hecho las observaciones con los telescopios del Observatorio Europeo Austral (ESO). "Esta combinación nos permite ver en detalle que la temperatura va bajando desde la zona más próxima al agujero negro observada a la zona más lejana, y lo hace cómo predicen los modelos".

Han hecho falta tres años de observaciones para concluir el trabajo. El detalle con que se ha realizado la observación -1.000 veces mejor que utilizando las técnicas normales con un telescopio- es equivalente a divisar una moneda de euro desde cinco millones de kilómetros de distancia, unas 13 veces la distancia de la Tierra a la Luna, ha señalado Frédéric Courbin, que ha dirigido el trabajo.

Las nuevas técnicas de observación astronómica están desvelando los misterios de los agujeros negros supermasivos, míticas regiones del universo donde se producen las condiciones físicas más extremas-, que saltaron hace muy poco del campo de la teoría al de la observación experimental. Nuestra galaxia, la Vía Láctea, también tiene un agujero negro supermasivo en su centro, aunque no está rodeado de un disco de materia. Los astrónomos creen que ya lo han cazado definitivamente, que tienen pruebas casi irrefutables de su existencia, ya adelantada en 1994. Tras 16 años de observaciones de las estrellas más próximas que giran alrededor de él, astrónomos que trabajan igualmente con telescopios de ESO han concluido que la masa del agujero negro del centro de la Vía Láctea es igual a cuatro millones la del Sol y que la distancia de la Tierra al centro de la galaxia es de 27.000 años luz, una nimiedad si se compara con la del cuásar ahora observado, mucho más masivo.

Fuente: elpais.com, 13 de Diciembre de 2008

 

 

-Así impactó la mal llamada "gripe española"

"Una extraña forma de enfermedad de carácter epidémico ha aparecido en Madrid. La epidemia no es grave; no se han registrado muertes". Así informaba al resto del mundo, en la primavera de 1918, la Agencia de noticias Fabra sobre una enfermedad que pasaría posteriormente a ser erróneamente denominada 'gripe española'. Investigadores del Hospital Clínic han analizado algunos de los errores que favorecieron la expansión de una pandemia que mató a 70 millones de personas. Una investigación reciente, realizada a partir de muestras de cadáveres de nativos Inuit fallecidos en Alaska, aclaró lo que ya muchos sospechaban, que el origen de la epidemia de 1918 no estuvo en España. Sin embargo, el nombre de nuestro país ha quedado inscrito en la epidemia más letal de la historia de la Humanidad, según los autores del trabajo publicado en la revista 'Clinical Infectious Diseases' y dirigido por Antoni Trilla, médico epidemiólogo del Clínic.Trilla y los investigadores han revisado los datos epidemiológicos recogidos entre 1918 y 1919 sobre esta infección y han actualizado la información y ciertos conceptos sobre dicha epidemia.

"Para las cifras españoles hemos tenido en cuenta las muertes producidas por neumonía, que en 1918 fueron superiores a la de años anteriores y posteriores. Estos fallecimientos creemos que podrían estar relacionados con la gripe, de ahí la diferencia de cifras", explica a elmundo.es el experto en gripe Antoni Trilla.

La elevada mortalidad supuso que la población de España tuviese un crecimiento neto negativo en 1918, hecho sólo repetido en el año 1936 a consecuencia de la Guerra Civil. En España, al ser un país neutral en el conflicto mundial, se permitió que los informes sobre la enfermedad y sus consecuencias aparecieran en la prensa sin censura. Posiblemente, por esta mayor información, y sin un fundamento epidemiológico sólido, a la epidemia se le otorgó un origen "español".

Una superviviente de la 'gripe española' posa con su tía antes de enfermar. (Foto: El Mundo)

Errores en el control

Así, por ejemplo, se indica que las autoridades españolas tardaron más de cinco meses en declarar formalmente la epidemia y los servicios de salud se vieron desbordados por el elevado número de casos. La suspensión de actividades se hizo sin criterio, según los investigadores, ya que el curso escolar y el universitario se cancelaron pero otras actividades, como los servicios eclesiásticos o los teatros y cines, continuaron.

La ciudad de Zamora fue una de las que registraron una tasa de mortalidad más alta, con un pico de un 10,1% en octubre de 1918. A ésta le siguió Burgos. La mayor incidencia de muertes en estas ciudades está relacionada, según los autores, con el culto religioso. En Zamora, las autoridades de la Iglesia Católica indicaron que "el mal podría ser una consecuencia de nuestros pecados y falta de gratitud, la venganza de la eterna justicia ha caído sobre nosotros". Por este motivo, organizaron actos reliosos masivos en la catedral de esta ciudad, lo que contribuyó a la expansión del virus.

Muchos pueblos pequeños quedaron aislados y sin asistencia sanitaria al morir los médicos y no ser reemplazados. En otros casos, fueron estudiantes de medicina los que sustituyeron a esos facultativos.

Debido a la alta mortalidad, los servicios funerarios también se saturaron. El alcalde de Barcelona tuvo que pedir ayuda al ejército para transportar los ataúdes. Incluso se llegaron a modificar algunas leyes para facilitar el enterramiento lo antes posible y no dos o tres días después del funeral como estaba establecido según los cánones católicos. Incluso el toque de las campanas, como anuncio de un funeral, fue prohibido en algunos pueblos para evitar más pánico y desmoralización de sus habitantes.

Fuente: EFE, 12 de Diciembre de 2008

 

 

 

 

-Observan por primera vez a rotura de una placa tectónica

Un equipo internacional de geofísicos ha conseguido medir por primera vez en tiempo real y en tierra firme un evento geológico, denominado efecto dique, que provoca la separación de placas tectónicas y, en último extremo, la partición de los continentes que ha ido configurando el paisaje de la Tierra.

Dirigido por el profesor de la Universidad de Purdue Eric Calais, este equipo ha sido capaz de medir los desplazamientos del suelo en dos placas tectónicas en Africa que se mueven en direcciones opuestas, presionadas por un flujo de rocas fundidas en dirección a la superficie.

El resultado ha sido el primer «evento dique» en la corteza terrestre registrado en tiempo real. El fenómeno dejó una pared de magma de 9,6 km de largo y un metro y medio de ancho a modo de cuña entre las dos placas. Estos «eventos dique» habían sido registrados en la delgada corteza del fondo oceánico, pero nunca habían sido observados directamente en áreas donde la corteza es más gruesa, explicó Calais.
La existencia de estos eventos proporciona un elemento clave para comprender cómo la corteza terrestre emergida, o litósfera, se rompe en pedazos y se mueve.
Estas fuerzas que presionan a los continentes no son, de por sí, tan poderosas como para romperlos. Sin embargo, una sucesión de eventos dique puede llegar a debilitar la litósfera, permitiendo que finalmente las placas lleguen a fracturarse. Calais y sus colaboradores grabaron este evento en el Lago Natron, al norte de Tanzania, durante el verano de 2007.

Fuente: elmundo.es, 11 de Diciembre de 2008

 

-El país que se "hunde" por el calentamiento global lanza un SOS ante la ONU

El primer ministro de Tuvalu, la isla que amenaza con hundirse bajo las aguas si no se frena el calentamiento global, lanzó hoy un SOS ante los delegados de más de 190 países reunidos en la Cumbre del Clima de la ONU, a los que pidió ayuda para que su pueblo pueda sobrevivir.

"Somos una nación orgullosa con una cultura única que no desea ser reubicada en cualquier otro lugar", dijo el jefe de Gobierno tuvaluano, Apisai Ielemia, en referencia a los planes diseñados para que los cerca de 10.000 habitantes de este atolón se trasladen a otras islas cercanas cuando los efectos del cambio climático se hagan insoportables.

"No nos podemos hundir mientras otros subsisten, no debemos hundirnos por culpa de los problemas causados por los países grandes e industrializados", añadió Ielemia, representante de uno de los países del mundo que ve más de cerca los devastadores efectos del calentamiento global y el aumento del nivel del mar.

Lo cierto es que Tuvalu tiene el agua al cuello, lo que hace que hoy lidere al grupo de Estados más activos en la lucha contra el cambio climático, los pequeños países isleños de Oceanía, que literalmente desaparecerán de la faz del planeta si no se reducen las emisiones de CO2.

Llamadas sin respuesta

Tuvalu ha tomado el liderazgo y dado voz a varios pueblos presentes en la Conferencia del Clima que la ONU celebra en Poznan (Oeste de Polonia), aunque a pesar de sus llamadas de urgencia no consiguen sensibilizar a los países desarrollados y responsables del deterioro del medioambiente.

"El Protocolo de Kioto debe ser fortalecido, y esto es algo que sólo pueden hacer los países industrializados mediante una profunda reducción de sus emisiones", afirmó Ielemia, quien pidió más recursos y más apoyo a su causa.

El líder de Tuvalu, una especie de Don Quijote en esta lucha contra el cambio climático, lamentó sin embargo que las negociaciones que se desarrollan en la cita de Poznan no cumplan sus expectativas, que pasan por destinar más recursos económicos a esta batalla climática. Este pequeño Estado insular de apenas 26 kilómetros cuadrados, antiguamente denominado Islas Ellice, en la región de la Polinesia, a mitad de camino entre Hawai y Australia, pretende que el mundo, reunido estos días en Polonia, comprenda la gravedad de su situación.

Fuente: adn.es, 11 de Diciembre de 2008

 

 

-Canadá y Japón bloquean las negociaciones de la cumbre de Poznan

Si pocos resultados había hasta ahora en la cumbre del clima de Poznan, la iniciativa de Canadá y Japón de suprimir de la declaración final la referencia a que la reducción de emisiones debe ser la recomendada por el panel de expertos de la ONU sobre cambio climático (IPCC), es decir entre el 25% y el 40% para el ano 2020, ha empantanado las negociaciones.

Es más, a la ofensiva lanzada por los citados países se han sumado en las últimas horas Australia, Nueva Zelanda y Rusia, lo que ha causado un gran revuelo porque significa un retraso con respecto a la Cumbre de Bali, donde lo más importante que se aprobó fue precisamente esta referencia del IPCC para evitar que las temperaturas en el planeta suba por encima de 2,5 grados centígrados.

La puesta en cuestión de los objetivos firmados en Bali, que figuraban a pie de página de la declaración final, ha levantado ampollas entre las organizaciones ecologistas, que ven en ello "una marcha atrás", como señalaron los portavoces de Climate Action Networks, que integra a 350 ONG ambientales.

 

Un delegado observa las esculturas de hielo que se han colocado en la entrada a la conferencia de Poznan con eslóganes que piden medidas eficaces contra el cambio climático. (Foto: AFP)

"Es indignante", declaró Steven Guibeault, del grupo ambiental canadiense Equiterre. El documento final de Bali señalaba que era preciso "una reducción significativa de las emisiones", lo que se traducía a pie de página en la recomendación del IPCC.

Ayer, la UE salió al paso de esta cuestión, señalando que "tenían que permanecer intactos los compromisos ya aceptados", según Stravos Dimas, comisario de Medio Ambiente de la Comisión Europea. "Nosotros mantenemos nuestro compromiso de reducción del 20% para 2020, que será del 30% en caso que otros países desarrollados nos acompañen", añadió el comisario.

"Es un paso atrás", declaró Teresa Ribera, secretaria de Estado de Cambio Climático de España, en referencia a la iniciativa de japoneses y canadienses. No obstante, Ribera quitó hierro a la situación asegurando que seguramente obedezca a una táctica de regateo de estas dos naciones en el marco de las negociaciones. y han considerado que este problema se acabará solventando cuando vaya avanzando la negociación.

"Conforme vayamos introduciendo en la discusión a la nueva administración de Estados Unidos, a partir de enero, la negociación se va a abrir por muchos frentes y no sólo este", añadió Teresa Ribera, quien confía en que finalmente la referencia de Bali permanezca tal y como se acordó hace un ano.

Fuente: elmundo.es, 10 de Diciembre de 2008

 

-"Hubble" descubre dióxido de carbono en un planeta extrasolar

El telescopio espacial Hubble ha descubierto dióxido de carbono en la atmósfera de un planeta extrasolar (exoplaneta) que gravita alrededor de otra estrella como el Sol, informa la NASA en su página de internet. La Agencia Espacial Estadounidense afirma en su comunicado que el descubrimiento supone un importante avance en la búsqueda de rastros químicos de vida extraterrestre.

El 'Hubble' descubre anhídrido carbónico en un exoplaneta- ESA, NASA, M. Kornmesser (ESA/Hubble), and STScI

El dióxido de carbono supone, según el investigador de la NASA Mark Swain, un hallazgo emocionante ya que "en las circunstancias adecuadas, podría estar relacionado con la actividad biológica, como ocurre en la Tierra". Los compuestos orgánicos pueden ser también un subproducto de los procesos vitales y su presencia en planetas similares a la Tierra podría suponer la primera evidencia de vida fuera de nuestro planeta. La temperatura en el HD189733b, como ha sido denominado este exoplaneta, es según la NASA demasiado alta para albergar vida, pero la observación del telescopio prueba que es posible medir la química básica para la vida en planetas que orbiten alrededor de otras estrellas.

El HD189733b es del tamaño de Júpiter y se encuentra a unos 60 años luz de la Tierra. No es la primera vez que capta la atención de los científicos, ya que hace un año, astrónomos de Zúrich (Suiza) y de Finlandia anunciaron que por primera vez habían detectado la luz que un planeta extrasolar reflejaba de su estrella. A principios de este año, el Hubble detectó metano en la atmósfera del HD 189733b y otras observaciones previas realizadas por los telescopios espaciales Hubble y Spitzer habían hallado vapor de agua en este planeta.

Fuente: elpais.com, 10 de Diciembre de 2008

 

-Los meteoritos posible origen de la vida terrestre

Los impactos de meteoritos en los océanos primigenios de la Tierra pudieron haber sido los causantes de la formación de complejas moléculas orgánicas que más tarde originaron la vida, según un artículo publicado hoy por la revista científica británica «Nature Geoscience». Un equipo investigador de la Universidad de Tohoku (Japón) explica que los impactos de esos cuerpos sobre los mares primitivos, muy frecuentes en aquel entonces, pudieron haber generado alguna de las complejas moléculas orgánicas necesarias para la vida. Aunque muchos de los elementos necesarios como puntos de partida para la existencia de vida estaban presentes en la Tierra, se desconoce cómo se organizaron en los llamados bloques de construcción de vida. Los científicos japoneses, liderados por Yoshihiro Furukawa, trataron de arrojar un poco de luz sobre la incógnita del origen de la vida en el planeta azul. Para ello, utilizaron una pistola propulsora para simular el impacto de un meteorito de hierro y carbono en una mezcla de agua y amoniaco que imitaba la química de los océanos primitivos. Después del impacto a alta velocidad, el equipo encontró en el fluido una mezcla de moléculas orgánicas, incluido un aminoácido simple. A partir de aquí, los científicos concluyen que los impactos de meteoritos en las masas de agua de la Tierra primitiva pudieron haber contribuido a la creación de moléculas orgánicas complejas que formaron las bases de la vida. Lois científicos explican que un meteorito es un meteoroide que alcanza la superficie de la Tierra debido a que no se desintegra por completo en la atmósfera. Al entrar en contacto con la ésta, la fricción con el aire causa que el meteoroide se caliente, y entonces entra en ignición emitiendo luz y formando un meteoro, bola de fuego o estrella fugaz. Prácticamente se han encontrado restos de meteoritos en toda la superficie terrestre.

Fuente: larazon.com, 8 de Diciembre de 2008

 

 

-El calentamiento no espera a Pozman

Los habitantes de algunas aldeas de los Andes colombianos, ajenos en su mayoría a la cumbre sobre cambio climático que mañana empieza su semana decisiva en Poznan (Polonia), han sido testigos de la aparición de una amenaza inédita en el último decenio. En 1998, el mosquito portador de los virus del dengue y de la fiebre amarilla escaló las montañas a causa de la subida de las temperaturas y apareció, por primera vez, por encima de los 2.190 metros. Hasta entonces, el frío había confinado al temible insecto por debajo de los 1.000 metros.

El cambio en la distribución del mosquito Aedes aegypti es uno de los efectos del cambio climático constatados por la ciencia. Y hay muchos más, como expone la última edición del Atlas de las especies amenazadas (editorial Earthscan). A los delegados de los 192 países reunidos en Poznan, ya no les quedan demasiadas excusas para prolongar la desidia mostrada en las últimas citas para sustituir al Protocolo de Kioto . La comunidad científica recuerda que el calentamiento global ya está aquí y el tiempo, como el petróleo, también es un recurso no renovable.

Desde mediados del siglo XX, la primavera en Europa se ha adelantado tres días de media cada década, provocando un desorden en el crecimiento de las plantas, en los patrones migratorios de las aves y en los ciclos reproductivos de algunos animales. En Reino Unido, varias especies de aves crían de media nueve días antes que en 1950. Y algunas ranas se aparean, incluso, con siete semanas de adelanto a las fechas habituales.

 

Los casquetes polares se retraen a un ritmo desconocido en las últimas décadas.

Cientos de miles de desplazados

El desbarajuste del planeta no es inocuo para el ser humano. Según algunos climatólogos, la lluvia desmesurada que castigó a Somalia, Etiopía, Kenia y Ruanda en 2006 es uno de los efectos del cambio climático. Entonces, las inundaciones provocaron centenares de muertos y cientos de miles de desplazados.

El riesgo de inundaciones también está presente en la otra punta del globo. Desde 1970, la temperatura en la cordillera del Himalaya ha aumentado un grado y el consiguiente deshielo de los glaciares amenaza con anegar las aldeas vecinas y, a largo plazo, cerrar el grifo de agua para los países de la región.

A pesar de estas advertencias, el que será el principal responsable de la negociación del sustituto del Protocolo de Kioto en 2009, el economista maltés Michael Zammit Cutajar, ha reconocido que no espera grandes compromisos de la conferencia de Naciones Unidas en Poznan. En julio, las principales economías del mundo, reunidas en Toyako (Japón), anunciaron una reducción del 50% de las emisiones de gases de efecto invernadero en 2050. Pero su acuerdo tiene algo de estafa. No dijeron respecto a qué año. "No sé si en Poznan podremos ir más allá de Toyako", admite Cutajar.

Falta de liderazgo político

El calentamiento global, no obstante, no esperará a la llegada de un liderazgo político que reoriente el modelo económico de los países industrializados. Mientras los delegados de Poznan se enredan en interminables charlas técnicas con aroma a realpolitik, las manadas de caribúes del noroeste de Canadá continúan su declive, desconcertados por la transformación de la vegetación. Y en parecida situación se encuentran los lemures de Madagascar, donde el cambio climático ha trastocado el reloj biológico, poniendo en duda la disponibilidad de alimento para sus crías.

Sea cual sea el acuerdo que salga del Poznan, llegará tarde, como recuerda el Atlas de especies amenazadas: "El cambio está ocurriendo tan rápidamente en todo el mundo que muchas especies no tendrán suficiente tiempo para adaptarse".

Fuente: publico.com, 6 de Noviembre de 2008
 

 

-Cerca, aparatos autocargables

Imagínese que la vibración de su voz, mientras conversa por teléfono, será capaz de convertirse en electricidad para que el aparato siga funcionando.  Aunque parezca ciencia ficción, un equipo de ingenieros en Estados Unidos está cada vez más cerca de lograrlo.  Los científicos de la Universidad de Texas A&M ya lograron duplicar la eficiencia de los llamados aparatos piezoeléctricos, que son capaces de producir energía a partir del movimiento y la vibración.

El tamaño importa

La clave, al parecer, está en el tamaño, como señalan los autores del estudio en la revista Physical Review B.  Los científicos descubrieron que cierto tipo de material piezoeléctrico puede convertir la vibración en energía aumentada al 100% cuando se le fabrica a un pequeñísimo tamaño.  Y pequeño quiere decir casi 5.000 veces más delgado que un cabello humano, o 21 nanómetros de espesor.  El efecto piezoeléctrico, que se basa en la nanotecnología, ocurre en ciertos materiales cristalinos y cerámicos.  Al estirarlos o comprimirlos se provoca una separación de carga eléctrica a lo ancho y esto provoca un voltaje que puede aprovecharse, dicen los autores.  El concepto piezoeléctrico no es nuevo, fue descubierto por científicos franceses en los 1880, quienes lo usaron por primera vez en aparatos sonares durante la primera guerra mundial.  Hoy en día, estos materiales se utilizan en encendedores electrónicos y micrófonos, en los cuales puede "recolectarse" energía con la presión de un dedo pulgar o incluso en una onda de sonido.  Actualmente se ha comenzado a estudiar la posibilidad de fabricar aparatos piezoeléctricos que recogen energía del movimiento humano o el movimiento de la ropa.  E incluso hay muchos clubes en Europa que ya han incorporado materiales piezoeléctricos en sus pisos de baile, para reciclar una pequeña parte de la energía que transmiten los danzantes.  Sin embargo, los científicos han descubierto que el comportamiento de los materiales en aparatos relativamente grandes puede cambiar radicalmente cuando se le fabrica a escala nanométrica.

Flexoelectricidad

El profesor Tahir Cagin y sus colegas del Departamento de Ingeniería Química de la Universidad de Texas A&M descubrieron que a pequeñísima escala, a miles de millones de metro, puede producirse un nuevo efecto.  Lo han llamado "efecto flexoeléctrico" que produce un voltaje al retorcer y doblar el material, en lugar de comprimirlo o estirarlo como en la piezoelectricidad.  Los investigadores comprobaron que el efecto puede ser maximizado con ménsulas nanométricas -una especie de pequeñísimo tablero que genera un voltaje- manipulando la forma de éstas.

El estudio -en teoría- muestra que el efecto puede hasta triplicar la cantidad de energía disponible, gramo por gramo, de los materiales piezoeléctricos.  En los micrófonos y uñetas para instrumentos acústicos se usa este efecto para crear una señal eléctrica con la presión en una onda de sonido o una simple vibración.

"Incluso las alteraciones en la forma de las ondas de sonido podrían en el futuro ser "recolectadas" para producir energía en aparatos nano y micrométricos" expresa el profesor Cagin.

"Y esto será posible si logramos procesar y fabricar apropiadamente para este propósito estos materiales" agrega.

Esto quiere decir que en lugar de las pequeñísimas señales eléctricas que se producen con un micrófono, a nanoescala el material podría directamente cargar los pequeños aparatos o recargar una batería.

El impacto de estos materiales, afirman los expertos, podría ser enorme, principalmente porque cada vez hay una mayor demanda para fabricar aparatos portátiles, inalámbricos y cada vez más pequeños que sean capaces de tener energía de larga duración.  Todavía sin embargo los científicos tendrán que resolver varios aspectos complejos de los piezoeléctricos a nanoescala.  Uno de ellos, es cómo convertir un material del tamaño y la forma de un poste de teléfono al tamaño de un cabello humano.

"Estamos estudiando las leyes básicas de la naturaleza como la física y estamos tratando de aplicarlas en el desarrollo de mejores materiales" afirma el profesor Cagin.

"Tenemos que analizar las constituciones químicas y composiciones físicas para ver cómo manipulamos estas estructuras para mejorar el rendimiento de estos materiales", agrega el científico.

Fuente: BBC Mundo, 5 de Diciembre de 2008

 

 

-Ampliar las fronteras de la inteligencia artificial

 

El proyecto SIMBAD ('Más allá de las características: reconocimiento y análisis de patrones basados en la similitud'), recibe financiación comunitaria por valor de 1,65 millones de euros e investiga algunas de las formas en las que estas investigaciones pueden ponerse en práctica.

SIMBAD tiene como objetivo desarrollar completamente la nueva tecnología que surge en los campos del reconocimiento de patrones y de aprendizaje de las máquinas. También investiga el uso de la "información por similitud" en lugar del más tradicional enfoque "basado en características", según explicó el profesor Marcello Pelillo de la Universidad Ca' Foscari de Venecia (Italia).

En nuestra sociedad se desarrollan cada vez más máquinas complejas, como pueden ser robots que llevan a cabo muchas tareas cotidianas, afirmó. Los sistemas cognitivos artificiales (SCA) se están convirtiendo en una prioridad científica internacional y, en consecuencia, la Comisión Europea ha propuesto que esta área sea una de las siete áreas clave que Europa ha de desarrollar para alcanzar el liderazgo mundial en la próxima generación de tecnologías de la información y las comunicaciones (TIC).

Una investigación productiva en este ámbito conducirá al desarrollo de diversas herramientas que tendrán un gran impacto social y económico en la UE, añadió. El control de vehículos, el control de las redes de comunicación, el diagnóstico médico y las interacciones entre los humanos y las máquinas son tan sólo unos ejemplos de las áreas que saldrán beneficiadas de dicha investigación. También se producirán múltiples beneficios económicos que fomentarán la competitividad europea.

"Una parte considerable de nuestras energías está dedicada a dos aplicaciones de imagen biomédica a gran escala. Contribuimos a que se consigan técnicas efectivas y avanzadas que ayuden al diagnóstico del carcinoma de células renales y las principales psicosis como la esquizofrenia o el trastorno bipolar", aclaró el profesor Pelillo. "Las técnicas tradicionales de aprendizaje de las máquinas no son adecuadas para solucionar este tipo de problemas debido a la dificultad de extrapolar descripciones adecuadas basadas en características".

Si estas aplicaciones de la investigación se materializasen en un resultado satisfactorio, se demostraría que el enfoque de SIMBAD es muy recomendable para su uso biomédico, lo cual sería un adecuado trampolín para futuras investigaciones en este ámbito, explicó. El uso de técnicas de reconocimiento de patrones en la medicina y los servicios sanitarios propiciaría importantísimas mejoras en las industrias dedicadas a la sanidad en toda la UE y crearía múltiples oportunidades para el desarrollo de la tecnología médica.

"Si lográramos un resultado positivo con nuestros experimentos tendríamos una prueba de la aplicabilidad práctica de nuestro enfoque en la biomedicina, lo que fomentaría más investigación en el tema propuesto por SIMBAD, tanto en lo referente a la metodología como a la práctica", subrayó el profesor Pelillo. "Esto crearía nuevas oportunidades en la gestión de la sanidad y la enfermedad y permitiría mejoras radicales en la calidad y la eficacia de nuestros sistemas sanitarios", apuntó. El campo del reconocimiento de patrones se ocupa del descubrimiento de regularidades en los datos mediante el empleo de algoritmos informáticos. Mediante dichas regularidades se ponen en práctica trabajos como por ejemplo la clasificación de la información en distintas categorías con la idea de dotar a los sistemas artificiales de la capacidad de mejorar su propio rendimiento en función de nuevos impulsos externos.

Seis socios de cinco países europeos (Italia, Países Bajos, Portugal, Suiza y Reino Unido) participan en SIMBAD, un consorcio internacional que es espejo de un campo de investigación también internacional.

"Las capacidades que necesitamos para alcanzar nuestros objetivos no pueden encontrarse a nivel local o nacional. La dimensión europea del proyecto garantiza una masa crítica de investigadores dotados de experiencia y conocimientos complementarios, lo que a su vez amplia la probabilidad de éxito", según el profesor Pelillo. "El impacto potencial de esta investigación va mucho más allá del ámbito nacional y la UE saldrá beneficiada de participar activamente en el mundo de los sistemas cognitivos artificiales, dominado ampliamente por Estados Unidos".


Fuente: CORDIS, 5 de Diciembre de 2008

 

 

-Darwin más que nunca

150 años después, la selección natural continua siendo la espina dorsal de la Teoría de la Evolución y goza de buena salud. Sorprendentemente ahora en nuestro país cada vez se habla más de evolución: en publicidad, en discusiones formales e informales En contextos muy diversos la evolución es un concepto que está en boga y ha pasado a ser un elemento de la realidad social y cultural de nuestra especie. Como muchos otros vocablos que son socializados, nos sirven para entender cómo somos y nos ayudan a pensar y actuar de forma diferente.

Pero, ¿qué es la selección natural? De manera resumida, es la base del cambio evolutivo de los organismos vivos. A través de ella, los especímenes más adaptados sustituyen a los menos eficientes de manera que la acumulación lenta de cambios genéticos beneficiosos a lo largo de generaciones produce el éxito de una especie.

El racionalismo en Europa ha conseguido que evolución sea sinónimo de conciencia social, de conocimiento científico, de pensamiento consistente, etc. La formulación de la selección natural como mecanismo de adaptación y adquisición de caracteres que llevan a la diversidad biológica al planeta ha sido, y al paso que vamos, será la llave maestra del conocimiento sobre la evolución.

La influencia de Darwin en la evolución de la humanidad desde la publicación del 'Origen de las especies', en 1859, ha sido creciente tanto en los ámbitos científicos como en los sociales. Ha habido importantes nuevas formulaciones sobre la Teoría de la Evolución, sobre todo de la mano de Gould con su teoría del equilibrio puntuado, al admitir que la evolución tiene momentos de estasis o de pocos cambios y que en otros momentos los cambios se aceleran y producen transformaciones en cortos períodos de tiempo.

Una aplicación social de las teorías biológicas de la evolución nos llevo al darwinismo social, interpretación que ha servido durante mucho tiempo para justificar formaciones sociales como de la que formamos parte. Es obvio que Darwin no construyó la teoría para ser aplicada de forma poco elocuente a las diferencias sociales ni para justificarlas; hacerlo es una manipulación burda y de bajo perfil científico.

El evolucionismo, según mi punto de vista, tiene que jugar un rol muy importante en la concepción del futuro de la especie. La conciencia crítica y la inteligencia operativa son fruto de la selección natural, pero ahora, la conciencia, que también es un producto de la evolución, debe de servir para desplazar el azar evolutivo y sustituirlo por la lógica del conocimiento y del pensamiento humano.

El 150 aniversario de la Teoría de la Evolución nos puede servir para socializar aún más ese concepto que explica cómo hemos llegado hasta aquí. Leer directamente a Darwin es un lujo y lo aconsejo a los que no lo habéis hecho todavía. Cuántos más descubrimientos hacemos desde las ciencias de la vida y de la tierra, más sólida es esa teoría.

Tuve la suerte de estar en las Galápagos, uno de los lugares que visitó el genial naturalista en el siglo XIX con el Beagle. Desde allí tuve el honor de escuchar al matrimonio Grant, que lleva más de 25 años estudiando la variabilidad de los pinzones, con lo cual habían comprobado de nuevo lo robusta que es la Teoría de la Evolución.

Por consiguiente, hagamos un esfuerzo para conocer más y evolucionemos como humanos a través del conocimiento de la Teoría de la Evolución.

 

Fuente: elmundo.es, 4 de Diciembre de 2008

 

--El pterosauirio más grande conocido vivió hace 115 millones de años

 

Un paleontólogo de la Universidad de Portsmouth (Reino Unido) ha descubierto que el pterosaurio más grande del que se tiene noticia hasta ahora vivió en Brasil hace 115 millones de años, según publica la revista Palaeontology.

El descubrimiento se hizo a partir del fósil de un trozo del cráneo de un chaoyangopteridae, una especie que sólo había sido encontrada en la región china de Chaoyang y que se consideraba que no había alcanzado una altura superior a los 60 centímetros. El profesor Mark Witton, de la Universidad de Portsmouth, explicó en su investigación que el hallazgo corresponde a un pterosaurio que voló sobre el noreste brasileño y que tuvo una altura de un metro y una envergadura de 5 metros.

"Para decirlo de manera simple, esto convierte en enanos a los chaoyagopteridae que hemos conocido hasta ahora", afirmó Witton, que ha bautizado a la nueva especie como Lacusovagus (morador del lago), en honor del lugar donde el fósil fue encontrado.

Alimentación

Witton lo estudió y constató que el Lacusovagus tenía "un cráneo de unas proporciones inusualmente anchas, lo que implica que sus hábitos alimentarios incluyeron animales de tamaño medio. El paleontólogo afirmó que el estudio sigue abierto y subrayó que "el descubrimiento de algo como esto en Brasil, tan lejos de sus congéneres más cercanos en China, demuestra lo poco que realmente sabemos sobre la historia de la evolución y el emplazamiento de este fascinante grupo de criaturas". Los pterosaurios o "lagartos alados" existieron durante casi toda la era Mesozoica (hace entre 228 y 65 millones de años).

 

 

El 'Lacusovagus' es el más grande de su especie hallado a hasta ahora

Alimentación

Witton lo estudió y constató que el Lacusovagus tenía "un cráneo de unas proporciones inusualmente anchas, lo que implica que sus hábitos alimentarios incluyeron animales de tamaño medio. El paleontólogo afirmó que el estudio sigue abierto y subrayó que "el descubrimiento de algo como esto en Brasil, tan lejos de sus congéneres más cercanos en China, demuestra lo poco que realmente sabemos sobre la historia de la evolución y el emplazamiento de este fascinante grupo de criaturas". Los pterosaurios o "lagartos alados" existieron durante casi toda la era Mesozoica (hace entre 228 y 65 millones de años).

La paleontología los describe como los primeros vertebrados que conquistaron el aire, gracias a unas alas formadas por una compleja membrana sostenida por un cuarto dedo de la mano hipertrofiado. El cuerpo de los pterosaurios estaba cubierto de pelo, según los fósiles encontrados hasta ahora de al menos tres especies distintas. Estos restos son muy comunes y han sido hallados centenares de especímenes, pertenecientes a ocho géneros distintos en África, Asia, Australia, Europa, Norteamérica y Sudamérica. No son dinosaurios, aunque sí convivieron con ellos durante decenas de millones de años, ni tampoco aves.

Fuente: adn.es, 4 de Diciembre de 2008

 

-Nace la enciclopedia ornitológica digital más completa

La Fundación BBVA y SEO/BirdLife han presentado hoy La enciclopedia de las aves de España, la más completa obra ornitológica online realizada hasta ahora y que puede consultarse en www.enciclopediadelasaves.es Con el fin de conseguir la mayor difusión posible, se han editado 60.000 ejemplares del manual en formato DVD- libro, que serán distribuidos gratuitamente en centros educativos de toda España.

El compendio, con un enfoque claramente divulgativo, contiene más de 4.000 páginas sobre más de 500 especies presentes de forma habitual u ocasional en España; 1.600 fotografías; 1.200 dibujos; 370 archivos de sonido; 200 vídeos y 400 mapas, además de facilitar el acceso a 15 publicaciones de referencia en el ámbito ornitológico.

Un equipo de 40 personas, junto con 50 especialistas y colaboradores, han trabajado durante dos años bajo la dirección de SEO/BirdLife en la elaboración de la enciclopedia. El trabajo de alrededor de 4.000 voluntarios que, año tras año, han estado colaborando "codo con codo" con SEO recogiendo datos sobre las aves, ha servido de base documental para esta obra, además de las investigaciones existentes.

Indicadores del cambio climático

El presidente del BBVA y de la Fundación BBVA, Francisco González, ha subrayado durante el acto de presentación de la enciclopedia que el objetivo de esta obra interactiva y multimedia es hacer llegar al gran público toda la riqueza y la diversidad de las aves de España. González ha dicho que "las aves silvestres son uno de los indicadores más fiables para evaluar la riqueza biológica y la calidad de las condiciones medioambientales" y que "se han convertido en uno de los grupos de animales más importantes como bioindicador del cambio climático". González ha subrayado que, de las 514 aves europeas, la mitad hacen nidos en España, y para un centenar más la Península es zona de paso o de invernada. Sin embargo, ha recalcado que unas 160 especies se encuentran amenazadas y necesitan medidas de conservación, aunque el estado de otras, como las cigüeñas blanca y negra, ha mejorado en los últimos años "gracias al esfuerzo de entidades públicas y privadas y a una mayor concienciación de los ciudadanos".

El presidente de SEO/BirdLife, Eduardo de Juana, ha destacado que "las aves tienen muchos amigos, pero deberían tener muchos más", por lo cual, ha destacado, uno de los objetivos fundamentales de la enciclopedia es llegar al público más amplio posible.

La enciclopedia, que se estructura en cuatro apartados -Estas son nuestras aves, Cómo protegerlas, Las aves y su mundo, y Viajar y disfrutar-, propone viajes ornitológicos, presentando los veinticinco mejores enclaves para el avistamiento de aves en España. Una de las secciones con más carga estética y que invita a la serenidad y la contemplación es la denominada Paisajes sonoros, en la que a través de vídeos de unos cuatro minutos de duración se puede hacer un recorrido por distintos ambientes (desde el bosque mediterráneo a las montañas), acompañado de los sonidos de las aves.

Fuente: elpais.com, 4 de Diciembre de 2008

 

 

 

-La colonización de Marte podría empezar por los robots

Desde el proyecto I-SWARM señalan, no obstante, que es más probable que las primeras 'criaturas' que habiten Marte sean un enjambre de robots de pequeño tamaño. En este Proyecto Integrado, dotado con fondos comunitarios por valor de 4,4 millones de euros, se ha creado un grupo de robots capaces de realizar una serie de tareas y exploraciones sobre el terreno.

"Marte podría ser explorado por robots pequeños capaces de colaborar entre sí", según declaró a ICT Results Marc Szymanski de la Universidad de Karlsruhe (Alemania). "Ahora ya sabemos que hay agua y tierra, así que tan sólo necesitarían una especie de adhesivo para empezar a construir estructuras como habitáculos para científicos humanos".

Los socios de este proyecto han desarrollado unos robots a escala centimétrica y han avanzado considerablemente hacia la creación de innumerables 'microbots' del tamaño de una hormiga. Se trata de robots autónomos capaces de efectuar en común tareas que pueden realizar los insectos de verdad, como construir nidos y buscar alimento. El equipo científico del proyecto indicó que la exploración y la colonización de planetas son tan sólo algunas de las actividades que podrían asumir estos robots. Éstos, aseguran, podrían refinar sus habilidades para ajustarse a cada tarea e incluso adaptarse a los cambios del entorno.

"Los enjambres de robots resultan de especial utilidad en situaciones en las que se requiere un grado elevado de redundancia", según el Sr. Szymanski, investigador de robótica en dicha universidad. "Si un robot se avería o falla, no provoca el fracaso de la misión, porque sencillamente otro robot ocupa su lugar".

Las aplicaciones posibles de la tecnología robótica son innumerables. Estos pequeños robots podrían usarse no sólo en el espacio o en las profundidades marinas; también podrían ser de una inestimable utilidad, por ejemplo, en la medicina, para efectuar pruebas y aplicar tratamientos en el interior del cuerpo humano, según indicaron los investigadores. Aunque aún falta mucho para que estos robots estén listos para su uso por cualquier humano, los socios del proyecto han logrado grandes progresos en el desarrollo de robots programables similares a hormigas. Los robots creados por I-SWARM tienen la capacidad de comunicarse y percibir el entorno que les rodea, tal y como lo hacen las hormigas auténticas. En palabras de los investigadores, así se consigue una especie de percepción colectiva.

Los robots de I-SWARM se comunican por infrarrojos. Cada robot emite una señal a otro robot cercano, lo cual se repite hasta que todo el enjambre queda informado. Si aparece un obstáculo que impide una correcta comunicación, las hormigas se envían señales entre sí para rodear el obstáculo y quitarlo de en medio. Hay un grupo de robots I-SWARM denominado 'Jasmine' cuyo tamaño es de una moneda de dos euros y que funciona con la energía almacenada en una batería. Los robots más pequeños tienen una longitud de tan sólo tres milímetros y funcionan con energía de una diminuta célula fotovoltaica.

"La energía es un aspecto crucial. Cuanto más compleja sea una tarea, más energía requiere", dijo el investigador. "Un robot que tiene que levantar un objeto [utiliza] potentes motores que consumen una gran cantidad de energía".

Actualmente los investigadores están desarrollando enjambres de robots que pueden reconfigurarse de forma autónoma y acoplarse a otros para formar robots mayores. Este trabajo forma parte de los proyectos Symbrion y Replicator, que disponen de fondos comunitarios por valor total de 5,3 y 5,41 millones de euros respectivamente.

Fuente: CORDIS, 4 de Diciembre de 2008

 



 

-Investigadores sin cerebro

La mayoría de las enfermedades neurológicas, como el párkinson o el alzhéimer, todavía no tienen cura. Son dolencias que afectan en España a alrededor de un millón de personas, que solo pueden mitigar su sufrimiento con tratamientos paliativos. La ciencia se enfrenta a un gran problema: el desconocimiento sobre el funcionamiento del cerebro. La única solución es la investigación pero, para ello, es necesario analizar el órgano en el laboratorio y, literalmente, faltan cerebros, según reconoce Alberto Rábano, responsable del Banco de Tejido Cerebral del Hospital de Alcorcón: “Necesitamos más órganos, son imprescindibles para la investigación”.

Cuando una persona fallece por culpa de una enfermedad neurológica, su cerebro es el cuerpo del delito. Examinarlo permite saber con exactitud la causa de su muerte, algo indispensable en un tipo de enfermedades que generalmente se diagnostican a través de síntomas y mediante pruebas de descarte. Solo el análisis del tejido neuronal permite saber cuál ha sido la verdadera afección asesina. Es lo que se llama diagnóstico definitivo.

“Muchas veces”, explica Rábano, “los pacientes no tienen una sola dolencia. Cuando analizamos su tejido, podemos conocer exactamente qué problema estábamos tratando. Y, generalmente, nos encontramos con patologías combinadas”. Esta dualidad entre diagnóstico e investigación se lleva a rajatabla con los órganos donados. Tanto, que el cerebro se divide en dos. El hemisferio izquierdo se guarda en formol para llevarlo directamente al laboratorio de autopsias, lo que permite descubrir la patología que lo ha afectado. El derecho se parte en lonchas y se congela, y ya es apto para la investigación.

El diagnóstico del hemisferio izquierdo del cerebro no sólo es importante para conocer las dolencias que afectaban al paciente en vida, sino también para que los investigadores que analicen el lado derecho sepan exactamente qué tienen entre manos. “Sin clasificación”, dice Rábano, “los estudios no valen, porque no sabemos sobre qué estamos trabajando”.

Trescientos órganos

Los principales donantes de órganos son enfermos neuronales. Son conscientes, por un lado, de que es su cerebro el que va a dar a conocer el verdadero origen de su mal. Por otro, asumen que solo la investigación permitirá encontrar una curación. De entre los 300 órganos donados en los últimos diez años, sólo uno correspondía a un paciente sano. Y ese escaso número de donaciones representa un gran problema, tal y como explica Rábano: “Tenemos una gran demanda de tejidos sanos, que sirven de control. Sin ellos, la investigación no está completa”.

Las asociaciones de enfermos neurológicos ya se han encargado de divulgar la necesidad de que los pacientes donen sus cerebros. Sin embargo, todavía falta que las personas sanas también lo hagan: “Los familiares tienen que saber que somos muy cuidadosos”, explica Rábano, quien insiste en que los cadáveres no quedan desfigurados. “Para los humanos, el cerebro tiene un valor cultural muy especial”, concluye el responsable del banco.

¿Para que se lo coman los gusanos?

Los científicos están de acuerdo en que la mente humana, sea lo que sea, está en el cerebro. Por tanto, no es extraño que mucha gente rechace, por principio, la donación de este órgano: en él está todo lo que somos.
Carlos Alcañiz, sin embargo, no comparte esta opinión. Diagnosticado con párkinson hace tres años, sabe que su tejido cerebral es oro puro para los neurólogos. “Cuando me comentaron la posibilidad de donarlo, me pareció una idea excelente”, explica este madrileño de 50 años. “Sería genial que pudiera servir para avanzar en la investigación, aunque solo fuera como un granito de arena. Porque muchos granitos hacen una montaña”.

Ni Alcañiz ni centenares de pacientes de enfermedades neurológicas de toda España tienen miedo a esta donación. “¿Miedo?, ¿de qué? Una vez que yo fallezca, mi cerebro no servirá ya para nada... ¿para que se lo coman los gusanos?”, se pregunta.

A Alcañiz le dieron la noticia de su enfermedad en 2005. Poco después comenzó a colaborar con la Asociación de Enfermos de Párkinson de Móstoles y se ha hecho donante en vida. Su diagnóstico, como el de otros muchos trastornos neurológicos, está basado en pruebas de descarte y solo una autopsia del órgano afectado podrá corroborarlo. Su propio tejido cerebral confirmará su enfermedad y, además, ayudará a encontrar vías para combatirla.

Fuente: publico.es, 3 de Diciembre de 2008

 

-Un trabajo sobre las células madre del cáncer desacredita la teoría más extendida

Hace algún tiempo que los científicos manejan el término de células madre del cáncer. Se sospechaba (y en algunos casos se han llegado a identificar con precisión bajo el microscopio) que existe una pequeña proporción de las células del tumor que son responsables de iniciar el proceso maligno. Es decir, que si se trasplanta una única de esas células madre a otro organismo, ella sola es capaz de dar lugar a un nuevo cáncer. Sin embargo, un trabajo publicado en la portada de la revista 'Nature' esta semana pone en cuestión algunas de las cosas que se daban por seguras hasta ahora.

El estudio está firmado en primer lugar por la española Elsa Quintana, que trabaja desde 2005 en el laboratorio de Sean Morrison (director del ensayo) en las instalaciones del 'Life Sciences Institute' de la Universidad de Michigan (en EEUU). En trabajos con ratones, el equipo de Quintana sugiere que la cantidad de células madre que contiene un tumor podría ser mucho mayor de lo que se había sostenido hasta ahora. Al menos así lo han demostrado en el melanoma, el cáncer de piel más agresivo.

La hipótesis de las células madre del cáncer ('cancer stem cells', según su denominación en inglés) ha ido ganando adeptos en las últimas décadas. Se han observado en tumores de mama, cerebro, páncreas y, sobre todo, en tumores sanguíneos, y se sospecha que son resistentes al tratamiento estándar con quimio y radioterapia. Por eso, aunque se calculaba que apenas representan una de cada millón de células tumorales, podrían sobrevivir a la terapia y favorecer las recaídas. En estos casos la estrategia terapéutica debía ir encaminada a indentificar estas células especiales tan poco frecuentes para poder atacarlas directamente.

De una entre un millón, a una de cada cuatro

Sin embargo, el nuevo estudio desbarata esta hipótesis. Para demostrarlo, los investigadores inyectaron células malignas tomadas directamente de varios pacientes humanos en ratones inmunodeprimidos (algo habitual para que no rechacen el injerto). Y descubrieron que en realidad no son tan pocas las células capaces de reiniciar el tumor en un nuevo organismo, sino que su cantidad podría elevarse por lo menos a un 25%.

"Nosotros asumimos inicialmente que el melanoma también seguiría el modelo convencional de células madre cancerosas", explica Quintana a elmundo.es desde Michigan. "De hecho, utilizando un roedor inmunodeprimido convencional también necesitábamos inyectar entre 100.000 y un millón de células para lograr que el cáncer apareciera".

Pero decidieron mejorar su método y emplearon un nuevo tipo de ratón de laboratorio, aún más debilitado inmunológicamente. Concretamente, desactivaron no sólo sus linfocitos B y T (como se venía haciendo hasta ahora), sino que les dejaron sin otras células defensivas denominadas 'natural killers' (o células asesinas).

Además, a los roedores les "inyectamos las células humanas con una sustancia que aporta nutrientes y parece favorecer su supervivencia en un ambiente tan inhóspito como es la piel de un ratón. Con este nuevo modelo experimental vimos que una de cada cuatro células era mala. De hecho, en este estudio se demuestra por primera vez que se puede reproducir un tumor a partir de la inyección de una única célula cancerosa", señala Quintana.

"Al principio mejoramos el método con la idea de lograr que los tumores apareciesen antes (porque tardaban demasiado en surgir) y con necesidad de inyectar menos cantidad de células", confiesa la investigadora alicantina, "así que tardamos casi tres años en darnos cuenta de nuestras conclusiones".

¿Un modelo desacreditado?

"Esto demuestra que no vamos a ser capaces de acabar con el melanoma eliminando únicamente una pequeña proporción de células", coincide por su parte Morrison. "Tendremos que reorientar nuestros esfuerzos científicos, y mientras seguimos buscando nuevos tratamientos para el cáncer de piel, deberemos considerar que es necesario eliminar una elevada cantidad de las células tumorales", añade el dermatólogo Timothy Johnson, otro de los co-autores.

"Ahora habrá que revisar si todos los cánceres que hasta el momento seguían la hipótesis de las células madre del cáncer la cumplen con nuestro modelo", explica Quintana, que no descarta incluso que su ratón de laboratorio no sea válido para otros tumores. "No podemos asumir nada", añade, "ni siquiera estamos diciendo qué es lo que pasa en el paciente, sino que dado que demostramos que la gran mayoría de las células cancerosas tiene el potencial de reproducir el tumor en condiciones experimentales, es importante eliminar todas las células malignas para acabar con el melanoma. Porque el 25% de ellas, y probablemente más, tienen capacidad tumorgénica".

Ni ella ni el autor de un comentario en la misma revista creen que el modelo de las células madre tumorales esté totalmente desacreditado, aunque sí que habrá que revisar las cifras que se han manejado hasta ahora porque probablemente se hayan infravalorado. "No está claro cómo de relevantes clínicamente son estos resultados", reconoce Connie Eaves, de la Agencia del Cáncer canadiense en su artículo editorial.

"Es posible que sus conclusiones sean aplicables únicamente para un pequeño grupo de tumores, con mutaciones específicas o sólo en ciertas fases de la progresión tumoral, que se deban a ciertos elementos del entorno del tumor o al estado de inmune del paciente", señala el editorialista. "En cualquiera de los casos, este trabajo nos despierta un sano escepticismo".

Fuente: elmundo.es, 3 de Diciembre de 2008

 

 

-El tesoro de la biodiversidad antártica

Es fácil perder la noción de la biodiversidad marina sin un inventario que agrupe a todas las especies. Como parte del proyecto del Censo de la Vida Marina, puesto en marcha hace casi una década para crear el primer gran catálogo del mar, científicos de Alemania y Reino Unido han elaborado una primera lista de las especies antárticas, tanto terrestres como marinas, que habitan en las islas Orcadas del Sur -cerca de la península antártica- o en sus aguas.

En el siglo XIX y principios del XX era común pensar que más allá de los 600 metros de profundidad, el mar era un espacio yermo, sin rastro de vida. También se suele asociar a las regiones polares con zonas pobres en especies. Pero los avances en la exploración de los océanos han permitido saber que hay vida incluso en el punto más profundo del mar, a 10.900 metros, en las fosas Marianas, y la biodiversidad es sorprendente cuando se trata de los organismos marinos que habitan tanto el Ártico como la Antártida.

Una estrella de mar hallada en el fondo del océano Antártico. (Foto: BAS)

 

El océano Antártico es especialmente rico en organismos marinos, y en los últimos años no ha dejado de aportar nuevas especies. En esta ocasión, los investigadores recogieron especímenes de profundidades de hasta 1.500 metros. El resultado, publicado en Journal of Biogeography esta semana, sugiere que en esta región viven 1.224 especies conocidas. De los ejemplares obtenidos, sólo cinco formaban parte de especies nuevas, lo cual, para los investigadores, es una muestra de lo bien que se conoce ya esta región.

Entre las especies catalogadas, una inmensa mayoría (1.026) vive en el mar, como son los erizos de mar, los gusanos nadadores, los crustáceos y los moluscos. "Es la primera vez que se hace un inventario como éste en regiones polares. Si queremos entender cómo responderán estos animales a futuros cambios, éste es un primer paso muy importante", declara David Barnes, de la Inspección Antártica Británica (British Antarctic Survey).

"Hay una creencia muy extendida de que la vida es muy rica en los trópicos y que lo va siendo menos a lo largo de las regiones templadas, hasta las polares. Esto es en parte porque consideramos como vida lo que es únicamente terrestre, y cuando vemos el Ártico o la Antártida, sólo vemos hielo", dice Barnes a la BBC.

"Pero bajo la superficie del mar hay un entorno increíblemente rico, y bucear por ahí es como hacerlo en un arrecife de coral", añade. "Si lo comparamos con otros archipiélagos del planeta que también están aislados, se puede comprobar que las islas Orcadas del sur son incluso más ricas que las Galápagos, si tenemos en cuenta la cantidad de especies que encontramos en el mar". Falta por descubrir qué esconden las profundidades oceánicas, aún sin explorar.

Fuente: elmundo.es, 2 de Diciembre de2008

 

 

-"Creo que hay vida en Marte"

Irene Schneider Puente trabaja en la Universidad de Pensilvania (EEUU) y se dedica al estudio de Marte y sus radiaciones. El planeta que investiga mantendrá su interés en los próximos años. En 2009, partirá hacia allí la misión de exploración de la NASA Mars Science Laboratory y, en 2016, Europa enviará ExoMars.

Esta física hispano-alemana comenzó sus estudios en España y los acabó en EEUU. También ha participado en el CERN (Laboratorio Europeo de Física de Partículas) y ha colaborado con entidades como la NASA, la Mars Society o el Fermilab (el Laboratorio Nacional de Altas Energías de EEUU). En su paso por Madrid, invitada por el museo CosmoCaixa de la Fundación LaCaixa, Schneider confirma su renovada pasión infantil por el planeta rojo y la posibilidad de enviar allí una misión tripulada.

Sus investigaciones se centran en Marte. ¿Qué tiene ese planeta para ser tan importante desde el punto de vista científico?

Marte es un planeta que nos ha fascinado desde el mismo origen de la humanidad. Hemos llegado a la Luna y está claro que la próxima frontera es Marte. Desde siempre, se ha planteado la posibilidad de la existencia de vida en Marte. Yo, desde luego, soy optimista y creo que la hay.

Parece que las condiciones del planeta harían muy difícil la existencia de cualquier forma de vida.

Efectivamente. Pero también es verdad que hemos encontrado vida en los ambientes más extremos de la Tierra, donde no hay luz ni oxígeno. El descubrimiento de esos hábitats extremos, que se creía eran estériles, ha cambiado el concepto de vida que teníamos. Viven sin luz, sin oxígeno y prácticamente sin agua: cualquiera diría que estamos hablando de Marte.

Las grandes radiaciones que asolan el planeta es una de las principales razones que esgrimen los que piensan que allí no puede haber vida.

En la Tierra hay un microorganismo fantástico, al que llamamos Conan la bacteria, que aguanta miles y miles de rads de radiación. De hecho, crece en las tuberías de los circuitos primarios de las centrales nucleares.

Conocemos realmente las condiciones de vida en Marte?

Mucha gente dirá que sí, porque se han estudiado, se han enviado sondas, etc. Pero todavía habrá sorpresas. La última sonda que ha aterrizado en el planeta, la Phoenix, enviada por la NASA, no llevaba ningún aparato de medición de las condiciones de radiación en superficie.

En 2009, la NASA va a lanzar otra sonda clave para estudiar la atmósfera del planeta.

Sí, el Mars Science Laboratory, que es la primera sonda con detector de radiación, algo que es imprescindible para conocer datos reales de la superficie marciana.

Usted participó en Crew 61, un proyecto desarrollado en el desierto de Utah en el que se simulaban durante dos semanas las condiciones para el desembarco de una nave tripulada en Marte.

Sí. Yo me encargaba de simular y estudiar el efecto de las radiaciones.

Si en vez de una simulación hubiera sido un auténtico vuelo espacial, usted no habría sobrevivido.

No. Habría tenido una muerte terrible, similar a una intoxicación química de la sangre. Simulé un código rojo de alerta, a causa de una tormenta solar, en medio de una actividad extravehicular y decidimos volver a la base, aunque no lo suficientemente rápido.

 

Irene Schneider

 

¿Cómo se podría evitar que eso pasara en un vuelo a Marte?

Se estudia la previsión de las tormentas solares, de tal manera que se sepa con antelación cuándo va a haber una y los astronautas puedan refugiarse. También hay investigaciones biomédicas para crear antídotos que ralenticen los efectos. Y se estudian trajes especiales, por ejemplo, con protecciones selectivas que aíslen los órganos más sensibles.

Esa experiencia le quitaría las ganas de convertirse en astronauta.

La verdad es que nunca he querido ser astronauta. De pequeña, eran mis héroes, pero ahora lo que me gusta es trabajar en las monitorizaciones, en el desarrollo de protocolos para el control de las misiones.

 

Fuente: publico.es, 2 de Diciembre de 2008

 

 

 

-El aire contaminado perjudica el desarrollo del cerebro infantil

 

El aire contaminado puede perjudicar el desarrollo del cerebro durante el embarazo y la niñez. Así lo indican estudios realizados en tres ciudades, Nueva York, Boston y México DF. Los pequeños que crecen en zonas con un aire más sucio pueden sufrir alteraciones estructurales que pueden traducirse en retrasos en funciones cognitivas superiores, como el aprendizaje o la memoria. Sin embargo, todavía falta saber más sobre qué contaminantes y a qué niveles influyen y qué mecanismos biológicos intervienen. Ahora, científicos del Centro de Investigación en Epidemiología Ambiental (CREAL) se disponen a comprobarlo en España, en un estudio con 750 niños de la ciudad de Sabadell que ahora tienen cuatro años de edad.

Forman parte del proyecto Inma (Infancia y Medio Ambiente), en el que desde 2004 se sigue a un total de 2.500 pequeños con el objetivo de ver cómo el entorno influye en su salud. Los investigadores han recogido datos desde la semana 12 de la gestación y les hicieron análisis y pruebas cognitivas al cumplir un año y cuando han llegado a cuatro. También han registrado su exposición a gases y partículas de la atmósfera, resultantes de la combustión en coches e industrias: óxido de nitrógeno, hidrocarburos aromáticos policíclicos, compuestos volátiles y partículas en suspensión (PM10, PM2,5).

Las partículas resultan de especial interés, por ser el vehículo que utilizan los metales para entrar en el cuerpo. En ellas se ha centrado un estudio del Instituto Nacional de Pediatría de México y la Universidad de Montana, publicado este año en Brain and Cognition y financiado por el Instituto Nacional de Salud de Estados Unidos (NIH).

Los investigadores analizaron el desarrollo cognitivo de 73 niños con una media de 9 años de edad, todos de familias de clase media y formación similar. Un total de 55 vivían en la capital, México DF, con altas concentraciones de contaminación, y el resto en otra ciudad mucho menos contaminada, Polotitlán. El desarrollo cognitivo del 57% de los niños de México DF estaba por debajo de lo esperable para su edad. Algo que sólo ocurría en el 7% de los de Polotitlán.

Para completar su estudio, los investigadores compararon tejido cerebral de personas fallecidas entre los 2 y 45 años. También de perros. En el cerebro de quienes habitaron en la urbe más contaminada se apreció neuroinflamación y daños vasculares. "La inhalación de partículas en suspensión causa inflamación en los pulmones, que desencadena estrés oxidativo. Este proceso también acaba inflamando el cerebro", explica Jordi Sunyer, director del programa salud respiratoria, contaminación e infancia del CREAL.

Además, se cree que algunos de estos contaminantes, las partículas más pequeñas, alcanzan las neuronas sin ni tan siquiera pasar por los pulmones. "En las autopsias con animales se ha visto que pasan directamente del nervio olfatorio al cerebro", afirma Sunyer. El efecto neurotóxico de la inflamación altera el equilibrio en la producción de la proteína betaamiloide, asociadas a la enfermedad de Alzheimer.

El niño es más vulnerable ya que "el cerebro es una ventana abierta a la influencia del medio ambiente durante muchos años. Es el órgano del cuerpo que tarda más en formarse: desde el mismo vientre de la madre hasta el final de la adolescencia. La parte que más tarda es el córtex prefrontal, clave para funciones cognitivas superiores", afirma Sunyer. "La exposición a estos contaminantes puede interferir en la producción de neurotransmisores, en la mielinización de las neuronas y en cómo establecen sus conexiones", concluye Sunyer.

Fuente: elpais.com, 2 de Diciembre de 2008

 

 

 

-El primer videojuego de la historia cumple 50 años

 

 

En los estertores de la Segunda Guerra Mundial, el Laboratorio Nacional de Brookhaven registraba una actividad frenética. En su interior, científicos estadounidenses permanecían encerrados, devanándose los sesos a punto de inventar la bomba atómica. Trabajaban para el Proyecto Manhattan, nombre en clave del programa de desarrollo nuclear norteamericano. Pero en los ratos muertos del laboratorio, esos mismos científicos se dedicaron a desarrollar el primer videojuego del mundo. Se llamó Tennis for two y este año ha cumplido 50 años.

El padre del entretenimiento fue William Higinbothame, un físico al que la historia le cita con muy diversos títulos. Jefe de la división de Instrumentación del Brookhaven, cuya principal función consistía en entretener a los visitantes, primer presidente de la Federación de Científicos Americanos... Y, aunque suene paradójico, Higinbothame se erigió en férreo antinuclearista. El Proyecto Manhattan estaba minado de científicos con una filosofía pacifista. Varias de las eminencias que parieron la bomba atómica eran contrarios a ella. Para distraer las conciencias, o en una distracción de las mismas, nació Tennis for two.

Se jugaba en un osciloscopio, un aparato de medición electrónica que hacía las veces de monitor. La pantalla utilizaba una vista lateral en la que se veía una pista. Con mucha imaginación, era posible llegar a intuir una red y una pelota, esa sí, que se movía con cierto ritmo de una esquina a otra del plano. Los dos jugadores que podían participar en cada partida disponían de un controlador compuesto por un pulsador que servía para golpear la pelota virtual y un mando analógico que controlaba la bola.

A pesar de lo primitivo del diseño, se podía escoger el lado desde el que lanzar, la altura de la red e incluso la longitud de la pista. Una serie de amplificadores operacionales se encargaban de detectar cuándo la bola tocaba el suelo. En ese momento se activaba un dispositivo que cambiaba la polaridad de otro amplificador. Así, la pelota reflejaba su trayectoria, dando la sensación de movimiento.

Higinbothame nunca se planteó patentar su creación. No le dio importancia. Una pena. De haberlo hecho, sus herederos serían hoy millonarios. La industria del videojuego factura más en España que la del cine, el DVD y la música juntas. Sólo en 2007 creció un 50%, hasta los 1.454 millones de euros. 'Y eso porque conecta mejor con el público que el resto de artes visuales', señalan los expertos. 'Es la interacción', ataja Víctor Ruiz, director de FxInteractive y alma máter de Imperium, uno de los juegos españoles más exitosos del momento. Hoy, ese volumen representa todo un récord (1,5 millones de copias vendidas).

En los ochenta, la llamada edad de oro del software español, que situó a España como segundo productor para máquinas de ocho bits, esa cantidad resultaba irrisoria. 'Los 16 bits, la piratería y la inoperancia de la Administración, nos relegaron a una posición subsidiaria', denuncia. En su alegato, Gilberto Sánchez, secretario de la patronal Desarrolladora Española de Videojuegos, cifra en 500 millones las pérdidas por descarga ilegal sólo en España. 'Hay que darse prisa en actuar', urge. 'Aún estamos a tiempo'.

Fuente: cincodias.com, 1 de Diciembre de 2008