Inicio

 

Ya puedes DESCARGAR todos nuestros PROGRAMAS DE RADIO "EL ALEPH" en la Sección NOSOTROS-PROGRAMACIÓN--

 

NOTICIAS CIENTÍFICAS


Febrero 2011

TITULARES DE LAS NOTICIAS DEL MES

 

-Como los animales consiguieron sus colores

-Un proyecto pionero en la restauración forestal con árboles autóctonos de Madrid

-Google reforma su algortimo para castigar los contenidos copiados

-El Discovery despega por última vez

-Revelada la estructura química de unos fósiles

-El cactus que caminaba

-Crónica del fin de un imperio

-Conectar a millones con un viejo satélite sin uso

-Los simios más promiscuos producen más esperma que otros primates

-Realidad virtual para eliminar el miedo

-El Parkinson se debe a los genes no al entorno

-Ordenador 1- Humanos 0

-El plan contra la polución estará antes de verano

-Malas noticias para un fármaco estrella contra el cáncer

-Hola Alien, ¿sabes sumar?

-Muy lejos del robot que podría pensar por sí mismo

-Comienzan las pruebas de "Orion"

-El cerebro hace "zooms" simultáneos para ver

-La estrategia de las pulgas para dar grandes saltos

-Estrella a la fuga

-El deshielo acelera la "caza" del mamut

-ZX Spectrum, los videojuegos regresan al pasado

-Las raíces de la Península Ibérica tienen 290 años

-EEUU y Europa batallan por el gemelo de la Tierra

-"2012" la película más absurda

-"Mars 500" ya está en la órbita de Marte

-Grandes avances a pequeña escala

-Una luna de Saturno puede albergar un océano efervescente

-Tecnología novedosa para la creación de nuevas células

-Un genoma para conquistar el mundo

 

Archivo


-Como los animales consiguieron sus colores

¿Por qué el leopardo tiene manchas y las cebras son rayadas? Los patrones de color resultan fundamentales para los animales, ya que les ayudan a camuflarse y despistar a los posibles depredadores en su hábitat natural, pero hasta ahora su origen había resultado un misterio. Que la evolución permitiera emparejar a criaturas moteadas con entornos llenos de árboles y sombras y a los seres de un solo tono con paisajes más uniformes parecía, además de una inspiración para los cuentos de Kipling, un milagro de la evolución. Pero, por fin, existe una explicación al enigma. La respuesta puede ser un gen llamado Agouti, descubierto por científicos de la Universidad de Harvard en los ratones ciervo (Peromyscus), el mamífero más extendido en Norteamérica. La expresión de esta proteína específica, que se encuentra en todos los vertebrados, puede determinar el color de una gran variedad de especies desde el desarrollo del embrión.

Durante la investigación, que aparece publicada en la revista «Science», los científicos estudiaron dos poblaciones salvajes de ratones ciervo. Una de ellas, extendida por la Florida continental, tiene el lomo oscuro y el vientre de color claro, mientras que la otra, que coloniza las dunas de la costa, luce un pelaje más claro. El equipo, dirigido por Marie Manceau, investigadora de Biología Evolutiva de Harvard, encontró que la expresión del gen Agouti marcaba los patrones de color de los roedores sólo doce días después de la concepción, mucho antes de que los primeros pigmentos aparecieran en la piel.

 

Misma especie, ratón ciervo, el de la izquierda vive en la costa en zonas de playa y el otro en el interior. Las diferencias de color son evidentes

Los cambios sutiles de la actividad embrionaria de este gen pueden marcar una gran diferencia en la distribución de los pigmentos por todo el cuerpo. «Durante la embriogénesis -el proceso que conduce a la formación de un organismo pluricelular-, Agoiti se expresa en el vientre, donde retrasa la maduración de las células que eventualmente producen los pigmentos», explica Hopi E. Hoekstra, otro de los autores de la investigación. «Esto lleva a un vientre más claro en los adultos, que es el patrón de color más común en una amplia variedad de vertebrados, desde los peces a los antílopes», añade.

Ratones cebra y ardillas listadas

Los investigadores creen que incluso los pequeños cambios en la expresión genética de Agouti pueden establecer un patrón de color completamente nuevo. En el ratón ciervo, la selección natural ha producido cambios en la cantidad y el lugar de la expresión de Agouti, de forma que los animales puedan camuflarse con su entorno. Los ratones de playa son claros como la arena y los de interior oscuros como los bosques.

«Es difícil no especular que Agouti juega un papel en la generación de patrones más complejos como las rayas o las manchas en una diversidad de vertebrados», apunta Hoekstra. Para confirmar su hipótesis, los científicos analizarán las bases moleculares de otros animales con patrones de color más complejos, como los ratones cebra -unos animalitos originarios de África que se caracterizan por sus bandas longitudinales-, las ardillas listadas y, tal vez, leopardos y cebras.

Fuentes: 28-2-11, abc.es

 

-Un proyecto pionero en la restauración forestal con árboles autóctonos de Madrid

La ONU conmemora en 2011 el Año Internacional de los Bosques, y algunos han decidido celebrarlo sembrando árboles. Es lo que vienen haciendo desde 2008 la organización ecologista WWF y Toyota España, que participan en un proyecto de mejora de los hábitats de la Sierra del Rincón, al noroeste de la Comunidad de Madrid, un territorio de 15.000 hectáreas, declarado como Reserva de la Biosfera y perteneciente a cinco municipios muy afectados por la despoblación rural.

Esta semana se acaba de inaugurar oficialmente el vivero de producción de planta autóctona construido por la organización ambiental en Montejo de la Sierra (Madrid) con la cooperación del Ayuntamiento y se han presentado los trabajos de restauración llevados a cabo en los últimos cuatro años.

Se han sembrado unos 8.000 árboles y arbustos de unas 20 especies autóctonas a lo largo de unas 13 hectáreas. La idea era demostrar el tipo de mejoras que podían llevarse a cabo en los montes de la Sierra del Rincón, que están marcados por una larga historia de usos y abandono de actividades. La zona es rica en recursos forestales, con amplias áreas de robledal natural, pinares de repoblación y algunos bosquetes de hayas que son una joya botánica por encontrarse casi al límite sur de su distribución en Europa.

Sin embargo, como explica Lourdes Hernández, la técnico de WWF responsable del proyecto sobre el terreno, algunos de esos bosques están envejecidos y carecen de regeneración debido a la ancestral presión ganadera; otros, por el contrario, como los pinares jóvenes sembrados por la Administración pública hace décadas, han carecido de manejo alguno y crecen demasiado densos y uniformes. Esos pinares masificados arden con más facilidad y albergan menos variedad de fauna y flora al ser tan homogéneos. Por último, hay otras áreas cubiertas por matorral, que ha rellenado el terreno de antiguos bosques que ardieron. Por otra parte, algunas especies de árboles como el abedul, el tejo, el haya, el arce de Montpellier o el serbal que tienen valor geobotánico y estético pero nunca forman grandes masas sino que crecen de forma aislada, han ido desapareciendo del paisaje.

 

Enrique Segovia y Katsuhito Ohno sembrando un árbol.

 

Jardineros de ecosistemas

Reconstituir el paisaje de estos montes con el mimo de un jardinero y la visión de un restaurador de ecosistemas es lo que han hecho WWF y sus colaboradores de Toyota. Los sembradores han sido cientos de voluntarios, entre los que se encuentran empleados de Toyota España y clientes de Toyota Prius que desde 2008 han acudido como voluntarios a cavar agujeros y colocar plantones.

La empresa automovilística también ha suministrado los 180.000 euros destinados al proyecto. Y WWF ha puesto el conocimiento técnico, tratando de darle más valor a esos bosques al introducir más variedad de especies. Los cuatro años de trabajo han servido para mejorar el avance de la sucesión natural de la vegetación, asegurar la conectividad entre hábitats y potenciar la biodiversidad, dicen los técnicos de WWF.

Como explica Enrique Segovia, Director de Conservación de WWF, ahora esos montes son más variados y ricos y han ganado en capacidad de resistencia a los cambios, algunos de los cuales están ya en marcha, como los producidos por el cambio climático que traerá más olas de calor y sequías, lluvias extremas y plagas forestales.

El portavoz ecologista lanza una idea atrevida: "Hablamos siempre de proteger los bosques. Esa es la idea que le queda siempre a la gente: proteger. Pero no basta con eso. De hecho, hay muchos bosques que ya están protegidos, o lo están teóricamente sobre el papel. Y en realidad lo que hace falta ahora es ir un paso adelante. Hay que restaurar los bosques. Hay que mejorarlos ambientalmente y trabajar sobre ellos, porque hay todo tipo de situaciones diferentes en nuestros montes y muchos de ellos necesitan que el hombre los maneje con criterio ambiental porque sin una gestión adecuada no mejoran, sino que se degradan".

Los montes están abandonados

Segovia no tiene reparos en romper ciertos tópicos y defiende que muchos montes deberían ser explotados y convertirse en motor económico y de empleo. "Un país como el nuestro no se puede permitir tener abandonado el 50% de su territorio, que son los terrenos forestales, y a los que sólo se dedica el 0,01 del PIB. Dejar los montes a su suerte no los mejora".

El técnico explica que muchos montes que han llegado a nuestros días por toda España no parten de un estado ideal sino que provienen de fases de recuperación de un estado alterado. Algunos son árboles que empiezan a colonizar terrenos agrícolas o ganaderos abandonados desde hace décadas; otros son repoblaciones olvidadas o son el fruto del paisaje tras los incendios. En todo caso, muchos necesitan la mano del hombre para darles más calidad.

Por su parte, el presidente de Toyota España, Katsuhito Ohno, que ha participado todos los años en las jornadas de repoblación, se siente contento del resultado obtenido y liga esta iniciativa ambiental con la filosofía de su compañía de producir vehículos, como el Prius, que tienen la menor tada de emisiones de gases de efecto invernadero del sector: "Queríamos participar en un proyecto de restauración forestal de la mano de profesionales que aportaran la experiencia y la visión a largo plazo indispensables. Esta visión a largo plazo está en línea con nuestra filosofía de actuación. Trabajamos con un enfoque integrado y con el objetivo de reducir el consumo de energía y las emisiones en todas las áreas que abarca nuestro negocio".

Enrique Segovia concluye: "La implicación de empresas líder en proyectos de conservación de la naturaleza es fundamental porque sirven de ejemplo para que otras muchas entidades asuman su compromiso para detener la creciente degradación ambiental e impulsen políticas de responsabilidad social corporativa".

Fuente: elmundo.es, 27-2-2

 

-Google reforma su algortimo para castigar los contenidos copiados

Google realiza periódicamente cambios en sus algoritmos para el refinado de las búsquedas. "Cambios muy sutiles que muy poca gente advierte", admite el buscador. Sin embargo, Google acaba de anunciar un cambio que, prometen, va a tener una mayor repercusión. El retoque del algoritmo pretende primar en la jerarquía de su listado de resultados los sitios con contenido original y castigar a aquellos que viven de la copia o las llamadas granjas de contenidos, sitios pensados únicamente para conseguir una buena posición en el buscador a base de estrategias que no tienen nada que ver con la elaboración de contenidos sólidos. Una buena ubicación en Google supone más visitas y una mayor entrada de publicidad para el sitio.

Obviamente, Google no desvela en qué consisten los cambios. Únicamente ha explicado que afectará al 11,8% de los resultados. De momento, se introduce en Estados Unidos, pero su aplicación se extenderá al resto de países.

Según la empresa, este cambio está diseñado para penalizar los sitios de baja calidad "que son de bajo valor añadido para los usuarios, que copian contenidos de otros sitios web o sitios que no son muy útiles". Algunos medios han mostrado su preocupación por el concepto de "utilidad" que pueda aplicar el buscador. Google, asegura, favorecerá a las páginas que ofrezcan "contenido original y con información sobre investigación, reportajes en profundidad, análisis reflexivo..."

Una granja de contenidos es un sitio que ofrece una enorme cantidad de artículos -Demand Media llega a publicar más de 4.000 diarios y ayer su cotización en Bolsa cayó un 4%- sobre temas particularmente buscados por los internautas y susceptibles de generar mucho tráfico. Artículos nada elaborados, cuya única finalidad es conseguir posicionar al sitio en los primeros lugares del buscador. Algunos de estas páginas dedicadas a la chatarra informativa pagan 400 dólares (290 euros) por 200 artículos. Jason Calacanis, fundador de Weblogs, afirmó ya en 2007 que los practicantes de estos trucos debían mirarse al espejo y preguntarse si es eso lo que deseaban ofrecer a sus clientes. Este tipo de sitios crean, aseguró, una verdadera polución en Internet.

Las astucias empleadas por estos sitios son de muy distinto tipo, desde el enmascaramiento de enlaces, saturación de palabras clave, textos ocultos para el visitante que, sin embargo, detectan los buscadores, aprovechamiento de errores ortográficos (por ejemplo, gogle.com)...

Con el objetivo de conseguir un "ecosistema web sano", Google introdujo hace poco en su navegador Chrome una herramienta que permite al internauta bloquear un sitio que haya aparecido en los resultados del buscador y le parezca irrelevante para que no vuelva a aparecer en futuras búsquedas. Google ha afirmado que el nuevo algoritmo no se basa en la información recogida por esta herramienta de los enlaces desechados pero que un 80% de los sitios que van a ser principalmente penalizados ya habían sido bloqueados por los usuarios de esta opción del navegador.

Este cambio se produce a las pocas semanas de que Google anunciara que Google Instant ya no refleja sitios que sean sospechosos de vulnerar la propiedad intelectual. Esta medida no afecta a las búsquedas tradicionales. El filtro se aplica a las sugerencias (las palabras que se van completando cuando se teclea en la ventana de búsqueda) de enlaces.

Del algoritmo que regula las arañas del buscador se conocen desde hace mucho tiempo algunos criterios como el de primar a los sitios que reciben más enlaces de terceros, síntoma claro, en principio, de su interés.

 

Search Engine Land cuenta que una web de contenidos de nula profundidad como eHow, que estaba en el primer puesto cuando un internauta buscaba cómo conseguir un embarazo rápido, ya ha desaparecido de este puesto de honor.

Días atrás, Google penalizó a la tienda Overstock.com, que había llegado a acuerdos con distintas universidades por los que ofrecía descuentos del 10% a sus estudiantes a cambio de que las webs de los centros educativos presentaran enlaces a su tienda.

El cambio anunciado por Google también responde a la necesidad de prestigiar sus resultados de búsqueda. Al margen del éxito de los enlaces prescritos por los amigos de las redes sociales que atinan más con los intereses del internauta que los consulta, el propio sistema del buscador está bajo sospecha. Un grupo de empresas ha denunciado ante la Unión Europea al buscador porque, aseguran, manipula sus célebres algotirmos para perjudicar a los sitios que pueden suponer una competencia y consideran que la compañía abusa de su posición dominante en el sector de las búsquedas.

La Unión Europea, al anunciar la apertura de la investigación, precisó que ello no suponía dar crédito a la denuncia hasta que no se concluyera la misma. Google recibe mil millones de peticiones de búsqueda al día.

La noticia de Google será bien recibida por los medios dedicados seriamente a la información que están directamente perjudicados por las prácticas de sitios fraudulentos en la jerarquía de resultados del buscador.

Fuente: elpais.com, 26-2-11

-El Discovery despega por última vez

El Discovery, la nave que más veces ha viajado al espacio, despegó ayer por última vez en sus casi 27 años de historia. Cuando regrese el 7 de marzo, el venerable carguero, que comenzó sus andanzas durante la Guerra Fría y las ha acabado llevando al espacio a astronautas rusos y de otros países, será recluido en un museo de Washington.

"Ninguna otra nave puede hacer lo que hace esta y seguramente ninguna la iguale durante mucho tiempo", explicaba ayer Steve Swanson, un astronauta de la NASA que viajó a bordo del Discovery en 2009, al teléfono desde el Centro Espacial Kennedy, desde donde se realizó el lanzamiento.

Tras los viajes del Endeavour, el próximo abril, y el Atlantis, previsto para junio, los transbordadores de la NASA quedarán en dique seco para siempre sin que tengan un sucesor made in USA.

"No hay dinero para conservarlas y hay que seguir adelante", lamentaba ayer Swanson, que personifica el sino del astronauta estadounidense del siglo XXI. Su próximo viaje al espacio, fijado para 2014, lo realizará a bordo de una nave Soyuz rusa diseñada en la extinta URSS.

El Discovery despegó ayer a las 22.50 hora peninsular española entre los vítores del público que asiste a los despegues como si fuera un ritual. "Es como si se parara el tiempo; empiezas a ver una columna de humo y el estruendo del despegue te llega con retraso debido a la distancia", rememora Juan Nebrera, consejero delegado de IberEspacio. Nebrera vio despegar el Discovery en 1998, durante la misión que llevó al espacio al español Pedro Duque. A bordo iba también John Glenn, quien en 1962 se había convertido en el primer americano en orbitar la Tierra, casi un año después, eso sí, que el ruso Yuri Gagarin, en un tiempo en el que la carrera al espacio era más política que científica.

El despegue del Discovery marca el final de otra época sin tantas carreras, pero con hitos como la edificación de la Estación Espacial Internacional (ISS), a la que se dirige el Discovery. Durante su reinado de 30 años, los transbordadores de la NASA también han dejado dos históricos accidentes, el del Challenger (1986) y el Columbia (2003), cuyo fantasma persigue cada nuevo lanzamiento.

 

A pesar de ello, Swanson afirma que no tuvo miedo de que la nave estallase por sí sola, sino debido a un fallo humano. "Lo único que piensas mientras despegas es: no la cagues", confiesa.

El Discovery sale con cuatro meses de retraso. El pasado noviembre se descubrieron varias grietas en los tanques de combustible que obligaron a retirar la enorme nave de la plataforma de lanzamiento para repararla.

Horas antes de que el Discovery saliera desde el Centro Espacial Kennedy, en Florida, el módulo de carga europeo no tripulado ATV-2 se acoplaba con éxito a la ISS con más de cuatro toneladas de material. Los seis tripulantes del Discovery llevan ahora a la estación el último módulo Leonardo, también fabricado en Europa, que llegará al espacio, según Ricardo Díaz Manchón, director de comunicación de Thales Alenia España, que fabrica componentes del módulo. "Ha sido imprescindible disponer de estas fabulosas naves, con las que se ha podido construir la práctica totalidad de la ISS", señala. Una vez vaciado, el Leonardo aportará 31 metros cúbicos más de espacio habitable a la ISS.

Si todo sale como lo ha planeado Barack Obama, en unos años a la ISS se llegará en taxi espacial. El presidente ha decidido dejar en manos de empresas privadas el transporte de astronautas a la estación. Entre las candidatas hay grandes contratistas como Boeing o Lockheed Martin y otras compañías con menos experiencia pero que están muy adelantadas en el desarrollo de cohetes, como Space X. La era privada será mucho más variopinta que la actual. Otra de las empresas que planea competir por contratos de la NASA es Excalibur Almaz, que usará viejas cápsulas soviéticas para llevar astronautas. Por primera vez, Europa competirá también en este mercado con el Liberty, un cohete de 30 pisos de alto que mezcla los actuales tanques de combustible de los shuttle con otra etapa del cohete europeo Ariane 5. La próxima meta volante para estos nuevos taxistas llegará en marzo, cuando la NASA tiene previsto otorgar 200 millones de dólares para transporte privado al espacio.

Hasta que los primeros taxis estén disponibles no se les espera antes de 2016, EEUU y sus socios en el espacio, entre ellos Europa, deberán viajar a la ISS a bordo de naves Soyuz rusas con una impecable hoja de servicio. Al contrario que los transbordadores, que son reutilizables como demuestran los 39 vuelos del Discovery, las naves rusas son de un solo uso y cada billete en ellas, incluido el de Swanson, cuesta más de 40 millones de euros.

Un año en el aire

De los tres transbordadores que quedan en activo, el Discovery es el más veterano. Si completa esta misión con éxito, habrá acumulado casi un año de vuelo durante el que ha recorrido suficientes kilómetros como para dar la vuelta a la Tierra casi 6.000 veces.

Desde su primer vuelo en 1984, el Discovery ha servido para casi todo. Comenzó poniendo en órbita satélites comerciales y militares durante los últimos compases de la Guerra Fría. En 1988, fue el primer transbordador de la NASA en volver al espacio después del accidente del Challenger y lo mismo hizo en 2005, dos años después de que el Columbia volase por los aires con toda su tripulación a bordo.

El Discovery ha puesto en órbita el telescopio espacial Hubble, ha vuelto para repararlo y además ha llevado al espacio gran parte de la ISS, que gira a unos 360 kilómetros en torno a la Tierra.

La nave deja EEUU en uno de los momentos más inciertos para la NASA. La semana pasada, el Gobierno anunció que planea mantener el presupuesto de su agencia espacial congelado hasta 2016. Uno de los pocos capítulos que se han reforzado en el presupuesto para 2012 es el dedicado a financiar las empresas privadas para llegar a la ISS.

Tras su regreso a casa, el Discovery será relevado de servicio y preparado para su entrada en el Museo Nacional del Aire y el Espacio, en Washington, donde acabará sus días como nave espacial para comenzar su nueva vida de vieja gloria.

‘R2', el primer robot en el espacio

Entre el equipaje que el ‘Discovery' lleva a la ISS está ‘Robonaut 2', que será el primer robot humanoide en el espacio. El androide ha sido desarrollado al alimón por la NASA y la General Motors, ambas interesadas en tener un empleado dócil capaz de desarrollar labores repetitivas en la estación espacial o en una cadena de montaje de la Tierra. Por ahora, ‘Robonaut 2' o ‘R2' sólo tiene cabeza, tronco y brazos, pero sus creadores quieren mejorarlo para labores de exploración acoplado a vehículos con ruedas.

‘R2' ve gracias a cinco cámaras dentro de su casco, es capaz de levantar nueve kilos con cada brazo y sus manos articuladas le permiten usar las mismas herramientas que los astronautas de la ISS. El ingenio ha costado dos millones de euros. El objetivo final de la NASA es saber si robots como ‘R2' pueden encargarse de tareas de montaje o incluso de misiones en el exterior de la ISS que sean demasiado peligrosas para los astronautas.

Fuente: publico.es, 25-2-11

 

-Revelada la estructura química de unos fósiles

Gracias a un potente microscopio, un equipo científico británico-estadounidense ha logrado revelar la estructura química de fósiles de gran antigüedad. Según sus descubrimientos, incluso los fósiles del Paleozoico (el periodo que va desde hace 542 millones de años hasta hace 251 millones de años) contienen quitina (un polisacárido) y proteína estructural. Se trata de materias degradadas fácilmente por los microorganismos. Estos científicos opinan que sus hallazgos, publicados en la revista Geology, pueden tener consecuencias de gran calado para la comprensión del registro de fósiles orgánicos.

En el equipo participaron el profesor George Cody, del Laboratorio de Geofísica del Instituto Carnegie de Ciencias, en Washington (Estados Unidos) y el profesor Andrew C. Scott, del Departamento de Ciencias de la Tierra del Royal Holloway de la Universidad de Londres (RHUL, Reino Unido).

La firma molecular más antigua de un complejo quitina-proteína se había descubierto en fósiles cenozoicos de hace 25 millones de años, mientras que los restos de proteína estructural más antiguos se habían hallado en fósiles mesozoicos de 80 millones de años. Pero en el estudio referido se han encontrado vestigios de un complejo quitina-proteína en fósiles de artrópodos del Paleozoico, un hallazgo inimaginable hasta ahora.
 

  Entre otras características comunes, los artrópodos poseen cutículas en forma de exoesqueletos. Las porciones exteriores de estas cutículas son de un compuesto de fibras de quitina integradas en una matriz de proteínas. Puesto que la quitina y la proteína estructural se degradan fácilmente por la acción de los microorganismos, se daba por hecho que sólo se podrían hallar en fósiles más recientes. Pero el profesor Cody y su equipo descubrieron lo erróneo de esta suposición cuando estudiaban los restos fósiles de la cutícula de un escorpión de 310 millones de años hallados en el estado de Illinois (Estados Unidos) y un euriptérido (un artrópodo ya extinto similar al escorpión, posiblemente emparentado con el cangrejo herradura o limulo) de 417 millones de años encontrado en Ontario (Canadá).

Haciendo uso de un sofisticado instrumento analítico alojado en las instalaciones de la Advanced Light Source («Fuente de luz avanzada»), en los Estados Unidos, los investigadores midieron los espectros de absorción de rayos X de baja energía por parte del carbono, el nitrógeno y el oxígeno contenidos en los fósiles. Estas mediciones se tomaron con una resolución del orden de 25 nanómetros. Los autores mostraron que la mayor parte del carbono, el nitrógeno y oxígeno hallados en los fósiles paleozoicos provenía de un complejo proteína-quitina.


«Este estudio demuestra la existencia de cutícula de artrópodo fosilizada en forma de un compuesto de ceras a escala nanométrica y un complejo proteína-quitina degradado pero aún rico en nitrógeno», escriben los autores.

Naturalmente, la materia proteína-quitina hallada estaba algo degradada, lo que los autores atribuyen a procesos químicos o, en parte, a la acción de bacterias.

«No hay duda de que la macromolécula del fósil difiere considerablemente del compuesto quitina-proteína inicial de la cutícula moderna», señalan los autores. «Estas diferencias se pueden achacar a una degradación bacteriana extensa pero incompleta y, posiblemente, a la posterior alteración diagenética», añaden.

«La degradación extensa de los enlaces glucosídicos, estéricos y amídicos probablemente destruyó gran parte del complejo quitina-proteína y liberó ácidos grasos», mientras que «la deshidratación de la quitina dio lugar a carbono insaturado, lo que incrementa la intensidad de la absorción en la región aromática u olefínica.»

El profesor Scott opina que este trabajo puede servir para «conocer mejor el proceso de fosilización, y esta nueva técnica permite sacar a relucir la naturaleza química del fósil sin destruirlo por completo».

El complejo proteína-quitina vestigial podría desempeñar una «función determinante en la conservación de fósiles orgánicos al proporcionar un sustrato protegido contra la degradación total por un recubrimiento de sustancias cerosas que impide la desecación de los artrópodos», indicó.

Fuente: CORDIS, 24-2-11

 

-El cactus que caminaba

Medía unos seis centímetros de largo, tenía el cuerpo blando como un gusano, diez pares de espinas robustas y probablemente apéndices articulados. Esa extraña criatura que se parecía más a una planta que a un animal pudo ser hace 500 millones de años el antepasado de los artrópodos modernos -animales con patas articuladas, como las arañas y los crustáceos-, el grupo biológico que ha tenido más éxito en el mundo animal. Los científicos han bautizado a esta forma de vida desconocida hasta ahora como el «cactus caminante», por su apariencia vegetal y los fuertes miembros sobre los que conseguía desplazarse. Su descripción aparece detallada por primera vez en la revista «Nature».

Su origen es todavía un misterio. Un equipo internacional de investigadores, en su mayoría expertos de universidades chinas, encontraron los fósiles de tres especímenes completos y otros treinta parciales de esta criatura, de nombre científico Diania cactiformis, en el sudoeste de China. Nunca habían visto nada semejante. Los investigadores sugieren que puede ser el pariente más cercano de los artrópodos, una gran familia a la que hoy pertenecen más de un millón de especies, en su mayoría insectos.

Este «cactus rampante» compartía muchas de sus características con los lobopodios, un grupo de organismos parecidos a gusanos con patas que florecieron en el Cámbrico, la época de la Tierra en la que se produjo la gran explosión de la vida y, repentinamente, se distinguieron organismos pluricelulares complejos. Sin embargo, esta especie poseía algo distinto a sus congéneres que la convierten en algo único: sólidos apéndices con elementos articulados. Estos apéndices la hacían más parecida a los artrópodos modernos que cualquier otro ser de la época registrado hasta ahora. En su descripción, los científicos citan un cuerpo blando de seis centímetros compuesto por nueve fragmentos, ausencia de boca, diez pares de espinas robustas y lo más llamativo, unas patas rígidas que parecen articuladas.

Los investigadores creen que es probable que las extremidades de esta criatura se endurecieran antes que el cuerpo, una forma de evolución que, de momento, no se puede extrapolar a todos los artrópodos.

 

 

Fuente: abc.es, 23-2-11

 

-Crónica del fin de un imperio

La caída del imperio de los incas tras la conquista de los colonizadores españoles en el s. XVI sigue siendo un capítulo lleno de interrogantes para los historiadores. Los libros los escriben los vencedores así que como en tantas otras ocasiones, el relato que nos ha llegado es, en el mejor de los casos, sesgado. Lo comprobó el antropólogo y explorador Kim MacQuarrie durante el periodo en que convivió con una tribu peruana del Amazonas recientemente descubierta.

Tras investigar la conquista de este próspero imperio, que se extendió a lo largo del territorio que hoy ocupa Perú, MacQuarrie decidió escribir un relato novelado sobre este sangriento episodio histórico y sobre las luchas por el poder entre los propios indígenas. 'Los últimos días de los incas', publicado por La Esfera de los Libros, saldrá a la venta el lunes 21 de febrero.

Y es que la muerte en 1528 del emperador inca, Huayna Cápac, que contrajo la viruela que los europeos habían introducido en América, desató una devastadora guerra civil en la que se enfrentaron dos de sus hijos. Atahualpa no dudó en asesinar a su hermano Huáscar para convertirse en emperador. En los años siguientes, miles de indígenas murieron a manos de los conquistadores liderados por Francisco Pizarro, al que se unió más tarde Diego de Almagro.

"Los miembros de esta tribu me contaron historias sobre los contactos que habían tenido sus antepasados con los incas hace 500 años. Sin embargo, no sabían por qué había desaparecido su civilización", explica el autor a ELMUNDO.es. Solían intercambiar bienes -como monos, loros y carne de tapir (un mamífero del tamaño de un jabalí)- a cambio de ropa y herramientas de metal de los incas. "Más tarde, recorrí el camino hacia la antigua ciudad de Vilcabamba, en la que el joven emperador Manco Inca dirigió una guerra de guerrillas contra los españoles. A medida que iba averiguando más datos sobre esta rebelión, más me fascinaba la historia. Los incas casi lograron dar la vuelta a la conquista. Estuvieron muy, muy cerca [de vencer a los españoles]", asegura.

 

Ejecución del emperador Atahualpa en 1533, vista por el artista nativo del s.XVI Poma de Ayala

Animado por el éxito de Hernán Cortes que, en 1521, se hizo con el control del imperio azteca en México -la otra gran civilización americana de la época-, Francisco Pizarro se lanzó a la conquista de los incas.

En el libro, aparece retratado como un líder militar analfabeto, estratega, diplomático, ambicioso empresario, terrorista y, tras la captura del emperador inca, Atahualpa, como raptor. "Pizarro era también un cristiano de gran devoción. A sus 54 años, creía firmemente en la Divina Providencia...La propia captura de Atahualpa [después del primer enfrentamiento con los incas] y el hecho de que hubieran muerto tantos incas a manos de tan pocos españoles era prueba de ello. Después de todo, el emperador indígena y sus súbditos eran 'infieles' cuya alma estaba destinada a arder en el infierno si no se convertían. A pesar del derramamiento de sangre, Pizarro estaba convencido de que, al final, él y sus conquistadores conducirían a la gran masa de infieles hacia el sagrado redil del Señor, aunque fuera con las espadas ensangrentadas".

En el libro se relatan las estrategias que pusieron en marcha ambas partes. A la hora de negociar con Atahualpa, "Pizarro jugó con la baza de que éste ignoraba las sangrientas atrocidades cometidas por los españoles en el Caribe, en México o en Centroamérica, y que tampoco había oído hablar de Colón, de la trata de esclavos, ni del asesinato de Moctezuma, el emperador azteca".

Según MacQuarrie, la parte de la conquista menos conocida es "la enorme rebelión que ocurrió tres años después de que Pizarro capturara a Atahualpa, un movimiento que continuó durante los 37 años que siguieron a la conquista y que casi logró expulsar a los conquistadores. Los incas, que previamente habían dejado las armas, desarrollaron y pusieron en práctica una guerra de guerrillas muy sofisticada, la primera que conocemos en América Latina a gran escala. Ellos la inventaron", explica el autor, que en la actualidad se encuentra en Bolivia siguiendo los pasos del Che Guevara, el protagonista de su próximo libro.

La búsqueda de un retiro cómodo

Según se narra en el libro, "en cierto sentido, la conquista del Nuevo Mundo fue la historia de un grupo de hombres que intentaron zafarse de uno de los principios básicos en la vida de cualquier ser humano, la necesidad de trabajar para vivir. Al ir a Perú, o a cualquier parte de las Américas, los españoles no buscaban tierras fértiles para cultivar, sino dejar de tener que realizar trabajo físico. Para ello, debían encontrar comunidades lo suficientemente grandes a las que obligar a ejercer las laboriosas tareas para proveerse de todo lo esencial para vivir: alimentos, refugio, ropa y, a poder ser, riqueza efectiva. En aquel momento la conquista tenía poco que ver con la aventura, y era un asunto de gente que haría cualquier cosa por evitar trabajar para vivir. Si se reduce a lo esencial, podría decirse que la conquista de Perú fue la búsqueda de un retiro cómodo".

Desde el punto de vista armamentístico, los incas eran muy inferiores. Sus armas no tenían comparación con las de los españoles, que disponían además de caballos y de la experiencia acumulada durante 30 años sometiendo a pueblos indígenas. La plaga de lo que seguramente fue viruela europea se convirtió en otra arma poderosa en el arsenal de los conquistadores.

Magistral capacidad de organización

Y es que, al igual que los romanos, el talento de los incas estaba en su magistral capacidad de organización. Una etnia que nunca llegó a superar las cien mil armas logró regular la actividad de diez millones de personas que hablaban 700 lenguas distintas y estaban repartidas en una extensión de 4.000 kilómetros en uno de los territorios más accidentados del planeta.

Durante su investigación, lo que más impresionó a MacQuarrie fue la manera en la que la civilización inca sintetizó miles de años de evolución cultural: "Los incas, como los romanos, tomaban lo mejor de las culturas que conquistaban y sintetizaban sus conocimientos para crear finalmente el imperio nativo más grande que había existido en América. Así, aprendieron de los pueblos conquistados la artesanía para pulir piedras, la construcción de carreteras, la formación de ejércitos, la planificación de las ciudades o la recaudación de impuestos. Eran muy, muy sofisticados y maestros en los Andes, una de las zonas geográficamente más escarpadas de la Tierra. ¿Quién sabe de qué manera habría evolucionado si los europeos no hubieran llegado?".

Fuente: elmundo.es, 22-2-11

 

 

 

 

 

-Conectar a millones con un viejo satélite sin uso

El propietario del satélite de comunicaciones más capaz del mundo acaba de quebrar. Estamos recogiendo donativos para comprarlo. Y poder moverlo. Para conectar a millones de personas que convertirán el acceso en una oportunidad". Así resume la web buy-thissatellite.org (Compre este satélite) lo que esa página define como "la gran idea". Tan sencilla en su concepción como complicada en su ejecución, a juzgar por la selva de obstáculos que el padre de la propuesta y su equipo de colaboradores deberán vencer.

El principio que inspira el plan está escrito en el nombre de la organización que lo promueve: A Human Right(AHR) (Un derecho humano). Este no es otro que el de acceso a internet, hoy un privilegio del que sólo disfruta el 28,7% de la humanidad, según la web de esta ONG. La banda ancha es un lujo reservado al 4,6%. AHR se ha propuesto el ambicioso objetivo de extender el acceso básico al 95% de la población del planeta. Suena inalcanzable, pero al menos la magnitud del plan está a la altura de sus metas.

Una imagen de la preparación del TerreStar-1' antes de su lanzamiento. - TERRESTAR

 

Nada menos que comprar la mayor nave estelar de comunicaciones que recorre el cielo, un gigante que, dicen sus dueños, posee el récord Guinness al satélite más pesado, con siete toneladas y una altura de cinco pisos.

El TerreStar-1 se lanzó en julio de 2009 a la órbita geoestacionaria, una cáscara intangible situada a 36.000 kilómetros sobre la Tierra donde los satélites sincronizan su órbita con la rotación terrestre, conservando su posición respecto a la superficie. La misión original del aparato es suministrar servicios IP de voz y datos a los usuarios de EEUU que utilicen terminales GENUS, teléfonos inteligentes de TerreStar que en condiciones normales chupan la señal de los repetidores terrestres, pero que en ausencia de cobertura miran al cielo en busca del coloso espacial.

Las cosas no han funcionado como TerreStar esperaba. En octubre pasado, la compañía se declaró en quiebra con la intención de reestructurarse y reforzar su posición. AHR ha aprovechado la circunstancia para fijar sus ojos en este satélite, comprarlo, moverlo desde su slot actual de la órbita geoestacionaria (sobre EEUU) a otro disponible sobre el tercer mundo, probablemente Asia, y ponerlo a funcionar para que provea conexión a todo el que disponga de "ordenador y un módem satélite", precisa Kosta Grammatis, el fundador de AHR y alma del proyecto. "Estamos trabajando para bajar el coste de los módems y con grupos como Un Ordenador por Niño [el proyecto de portátiles baratos liderado por Nicholas Negroponte] para producir hardware barato", relata.

La primera fase del proyecto, para la que la ONG espera recaudar 150.000 dólares, consistirá en elaborar el plan de negocio, organizarse legalmente y someter a la consideración de TerreStar una oferta de compra del satélite, que deberá escalar a la órbita de las decenas de millones de dólares. "Contactamos con TerreStar antes de lanzar la campaña para preguntar cuestiones específicas sobre la viabilidad técnica de la idea. TerreStar afronta retos crecientes y aunque no han decidido liquidar, hay oportunidades para llevar a la compañía en una nueva dirección. Esa es nuestra meta", explica Grammatis.

Cebo para inversores

Este joven ingeniero con amplia experiencia en satélites no espera más altruismo que el de sus donantes anónimos. Para las empresas, guarda en la manga un cebo con el que espera atrapar a los inversores: mientras que el acceso básico se regalará, el de banda ancha se facilitará a los proveedores de servicios de internet (ISP) para que lo revendan a sus clientes. Grammatis espera así matar dos pájaros de un tiro: rentabilizar el servicio de valor añadido y lograr que los ISP no lo vean como un competidor, sino como un colaborador. "Con el plan de negocio esperamos atraer a los inversores", confía el ingeniero. "Ya se nos han acercado varios interesados", confirma.

Grammatis es consciente del largo camino a recorrer, pero tiene reservado un plan B. "Hay numerosos satélites infrautilizados en órbita y estamos proponiendo a sus dueños que nos dejen utilizar esa fracción libre. Poniendo a trabajar muchos satélites podríamos cubrir el planeta, mientras que TerreStar-1 sólo cubriría un continente". El camino se está recorriendo. Las donaciones ascienden ya a más de 46.000 dólares, 2.000 de ellos aportados durante la elaboración de este artículo. Grammatis está seguro de que su mensaje calará, ahora más que nunca, con casos como el reciente apagón de internet tras las revueltas en Egipto. Ningún dictador apagará su satélite. "Bloquear internet es un crimen contra la humanidad", advierte.

Fuente: publico.es, 21-2-11

 

-Los simios más promiscuos producen más esperma que otros primates

Los simios más promiscuos son también los que más esperma producen. Así, los chimpancés producen 200 veces más semen que los gorilas (los primates vivos de mayor tamaño) y 14 veces más que los orangutanes. Lo ha averiguado un grupo de investigadores japoneses, que acaba de publicar sus conclusiones en la revista 'American Journal of Primatology'.

Dos jóvenes chimpancés. | Delphine Bruyere.

 

Los científicos ya sabían que las especies cuyos machos tienen relaciones sexuales con un mayor número de hembras tienen también los testículos más grandes. Ahora, han demostrado que también producen más esperma.

Competencia entre chimpancés

Según la BBC, una de las teorías que se barajaban para explicar el gran tamaño de los testículos de los chimpancés era que en esta especie es habitual que varios machos copulen con una sola hembra, lo que les llevaría a producir más esperma para competir entre ellos y asegurarse de que su ADN será el que sea transmitido.

Para llevar a cabo este estudio, los investigadores estudiaron el comportamiento sexual de chimpancés, orangutanes y gorilas en varios zoológicos de Japón e Indonesia. En estas tres especies de simios, los científicos han demostrado que el tamaño de los testículos es proporcional a su producción de esperma. Según explicó a la BBC el investigador Hideko Fujii-Hanamoto, su estudio respalda las teorías que sugieren que la producción de esperma está directamente vinculada a la competición por reproducirse y al comportamiento sexual.

Gorilas

Varios estudios anteriores sugerían que los testículos de las especies polígamas, como los gorilas (en los que el macho alfa puede copular con todas las hembras de su comunidad) son más pequeños ya que no tienen competencia de otros gorilas. Por el contrario, los chimpancés deben competir entre ellos para copular con una hembra. Según los investigadores, esta competitividad sería el factor determinante que explicaría por qué producen más esperma y tienen los testículos más grandes. Los científicos que llevaron a cabo el estudio subrayaron las dificultades para medir la producción de esperma en simios ya que resulta muy difícil recoger semen de estos animales, incluso si viven en un zoo.

Fuente: elmundo.es, 20-2-11

-Realidad virtual para eliminar el miedo

Barbara Rothbaum concluye su charla con una curiosa proyección en la pantalla. En ella, se ve la representación virtual de una audiencia, similar a la real, tirando papeles y abucheando a un supuesto orador. "Espero que no hagáis esto conmigo", bromeó la psicóloga y profesora de la Facultad de Medicina de la Universidad de Emory (EEUU) a los 500 psiquiatras asistentes al XVI Symposium Internacional Avances en Psiquiatría celebrado recientemente en Madrid.

La imagen es una de las utilizadas en los programas de realidad virtual que desarrolla la empresa Virtually Better, que Rothbaum cofundó en 1995 y que, desde entonces, ha provisto de software a algunos de los psicólogos y psiquiatras que se preparan para ser terapeutas virtuales. Los escenarios que desarrollan los ingenieros de esta compañía sirven para tratar diversos trastornos de ansiedad.

El primer estudio que demostró la utilidad de la realidad virtual se realizó con una fobia muy común: el miedo a las alturas. En estos programas se expone a un paciente -equipado con unas gafas y un casco con auriculares- a sus miedos introduciéndole en un escenario generado por ordenador. El trabajo, firmado por Rothbaum en The American Journal of Psychiatry en 1995, demostró que, a las ocho semanas, los pacientes "mejoraban significativamente".

Miedo a volar y a la guerra

El último estudio de esta psicóloga, que se ha publicado este mes en Journal of Traumatic Stress, demuestra la misma utilidad 25 años después pero, en este caso, para soldados del Ejército de EEUU en activo con trastorno de estrés postraumático.

La terapia ha demostrado ser efectiva para infinidad de tipos de ansiedad: el miedo a volar, la abstinencia al tabaco y otras drogas, los nervios de los niños cuando tienen que someterse a tratamientos médicos, la fobia social y el temor a hablar en público. Incluso han recreado la inundación de Nueva Orleans provocada por el huracán Katrina.

Las investigaciones no paran, relata la experta estadounidense, que explica entusiasmada su último proyecto. "Hemos descubierto que un viejo fármaco para la tuberculosis, la D-cicloserina, actúa en las sustancias químicas que se generan cuando tenemos miedo, si se administra antes de una sesión de realidad virtual, y mejora su efecto", señala. Puesto que la dosis es mínima, una décima parte de la usada para la tuberculosis, y los pacientes no muestran efectos secundarios, Rothbaum espera que pronto concluyan los estudios, cuyos datos preliminares han sido positivos, y se pueda pedir a las autoridades que lo autoricen para mejorar su tratamiento, que es utilizado en la actualidad por miles de psicólogos y psiquiatras en todo el mundo.

El Departamento de Psicología Básica, Clínica y Psicobiología de la Universidad Jaume I, en Castellón, es pionero en el uso de este tipo de tratamientos en España. "El primer artículo lo publicamos en 1997", explica la profesora Azucena García. Sus aplicaciones de realidad virtual las crea Previ, una empresa que ha surgido de la Universidad constituida por ingenieros de la Politécnica de Valencia. Trabajan también una técnica aún más novedosa, la realidad aumentada, que consiste en introducir elementos virtuales en el mundo real, de tal forma que el paciente ve lo que proyecta el ordenador como un complemento a la realidad. Con esta terapia, los levantinos tratan fobias específicas y muy comunes: a las arañas y a las cucarachas. El precio de la sesión, "alrededor de 40 euros", señala García, y gratuito si los afectados forman parte de un estudio.

Sin miedo a las cucarachas

Una de esas participantes fue la funcionaria Lara Iniesta que, hasta hace dos años, se levantaba de una terraza y dejaba su copa a medias si veía una cucaracha, algo muy habitual en los veranos de su ciudad. Así, no dudó en tomar parte en un ensayo de este tipo. "No fue sólo realidad aumentada; primero, me instalaron en el móvil un juego en el que iban apareciendo cucarachas muy reales que tenías que matar - incluso sonaba el ruido real-; después, empezaron las sesiones, que se alternaban entre reales y virtuales", explica. La primera prueba de fuego fue decidir si quería entrar a una habitación con un terrario con una cucaracha. "Dije que no", recuerda. Tras dos meses de terapia, lo hizo y, hoy, Lara puede convivir con estos animales sin miedo ni ansiedad, "ni necesidad de matarlas", subraya.

Esta joven confirma lo que también resalta Barbara Rothbaum: que la terapia con realidad virtual va acompañada de psicoterapia regular. "Primero te hacen ver la ilógica de las fobias; por ejemplo, cuando yo decía que me daban asco las antenas de las cucarachas, la psicóloga me señalaba que eran como las de las gambas", comenta Iniesta, una paciente satisfecha.

Rothbaum, sin embargo, es realista y reconoce que, en muchos casos, los pacientes sienten menos miedo pero tampoco disfrutan de sus antiguas fobias. Lo único que preocupa a esta experta es que el abaratamiento de la tecnología haga que pueda caer en malas manos. "Nosotros enseñamos a utilizarla, pero está ahí y se puede emplear mal", apunta. Las consecuencias: exponer de forma demasiado abrupta al paciente a sus miedos y conseguir que éste interrumpa la sesión en un estado máximo de ansiedad. "La terapia de realidad virtual mal hecha es igual que la psicoterapia mal hecha", concluye.

Nos han pedido crear programas de sexo"

Barbara Rothbaum.  Psicóloga y fundadora de la empresa Virtually Better

La directora del Programa de Recuperación de Traumas y Ansiedad de la Universidad de Emory (EEUU), Barbara Rothbaum, recuerda divertida que uno de los primeros trabajos que su hijo, “un loco de la informática”, llevó a cabo cuando fue becario en la empresa que cofundó en 1995 fue diseñar una “casa de crack” virtual, donde se veía cómo se fabricaba esta droga y se podía comprar y vender. La compañía en cuestión es Virtually Better, que desarrolla entornos virtuales para el tratamiento de todo tipo de trastornos de ansiedad.

Cuando los pacientes se someten a terapia con realidad virtual, ¿no se dan cuenta de que es falso?

A los 30 segundos de ponerse las gafas y el casco, para ellos lo que están viendo en pantalla es real.

¿Los pacientes reciben alguna preparación?

Para algunos trastornos, sí. Por ejemplo, la gente que tiene fobia a hablar en público está continuamente pensando que lo está haciendo fatal, aunque hable muy bien. Por eso, antes de ponerles en la realidad virtual, les enseñamos a evaluar sus pensamientos de forma lógica en sesiones regulares de terapia cognitivo conductual.

Usted es fundadora de una empresa de realidad virtual. Si las sesiones con esta terapia cuestan lo mismo que con la convencional, ¿cómo consiguen hacer dinero?

Yo, por conflicto de interés, ya no trabajo en Virtually Better. Pero la empresa no hace dinero con las terapias, sino con el desarrollo y venta de ambientes de realidad virtual.

¿Desarrollan cualquier escenario que les pidan?

No. Por ejemplo, nos han pedido muchas veces realidades virtuales relativas al sexo y siempre decimos que no. Nosotros buscamos tratar enfermedades y mejorar las opciones existentes.

¿No hay peligro de que un paciente se quede atrapado en la realidad virtual?

Podría ocurrir con pacientes psicóticos, que tienen problemas para diferenciar la fantasía de la realidad. Por eso, no la usamos con estos enfermos.

Fuente: publico.es, 19-2-11
 

 

-El Parkinson se debe a los genes no al entorno

Un estudio realizado a escala paneuropea ha revelado cinco nuevas variantes genéticas responsables de la enfermedad de Parkinson. Esta investigación fue financiada en parte por la iniciativa NEURON («Red europea de financiación para investigación en neurociencias»), una acción concertada financiada con 2,7 millones de euros por el plan ERA-NET del Sexto Programa Marco (6PM) de la Unión Europea. En NEURON participaron científicos de Austria, Finlandia, Francia, Alemania, Israel, Italia, Luxemburgo, Polonia, Rumanía, España, Suecia y Reino Unido. La investigación se ha publicado recientemente mediante un artículo en la revista The Lancet.

En la comunidad científica el sentir general era que la enfermedad de Parkinson se debía totalmente a factores ambientales. Sin embargo, desde 2007 hasta ahora se habían descubierto seis variantes genéticas o «loci» que agravan el riesgo de desarrollar esta enfermedad. En el estudio referido se han descubierto otros cinco loci, lo que invita a deducir que la clave fundamental de esta patología se encuentra en factores genéticos, y no ambientales, como se pensaba anteriormente.


«Este trabajo ofrece indicios de que la variación genética común desempeña una función importante en la causa del Parkinson», indican los autores. «Hemos confirmado un fuerte componente genético en la enfermedad de Parkinson; hasta hace poco se pensaba que ésta era causada exclusivamente por factores ambientales.» Concluyen que «la identificación de más variantes de riesgo de la enfermedad de Parkinson, unas comunes y otras raras, probablemente nos impulse a recalcular al alza el componente genético de la causa de esta patología».

El equipo científico llegó a esta conclusión tras llevar a cabo lo que describen como el análisis genético de mayor envergadura que se haya realizado acerca del Parkinson. El trabajo consistió en un metaanálisis de cinco estudios de asociación de genoma completo (GWAS) de Estados Unidos y Europa, abarcando así cerca de 7,7 millones de variantes genéticas posibles. Se constató que variantes genéticas identificadas previamente en los genes de la MAPT (proteína Tau asociada a microtúbulos) y la SNCA (alfa-sininucleína [componente no A4 de la precursora amiloide]) son las responsables en su mayor parte del riesgo genético calculado.

Los investigadores señalan que el 20% de los pacientes que presentan el mayor número de variantes de riesgo en los 11 loci identificados tenían 2,5 veces más probabilidades de desarrollar Parkinson que el 20% que poseía el menor número de factores de riesgo genético. Aunque esto plantea un riesgo genético sustancialmente más alto que en los estudios anteriores, los autores matizan que estos perfiles de riesgo aún no poseen validez clínica. Pese a ello recalcan que estos datos sí que ponen de relieve genes nuevos en los que centrar los futuros estudios, y consideran que sus hallazgos constituyen un punto de partida para próximas investigaciones sobre la fisiopatología de esta enfermedad discapacitante.

En un editorial al respecto, los doctores Christine Klein y Andreas Ziegler de la Universidad de Lübeck (Alemania) señalan: «Desde la perspectiva clínica, la cuestión más candente es si estos hallazgos repercutirán en la atención sanitaria prestada a los pacientes.» En su opinión, «no hay una respuesta sencilla» a esta pregunta, e instan a ser cautos al realizar cribajes de casos posibles de Parkinson basándose en las afirmaciones de este trabajo.

«El diagnóstico genético de la enfermedad de Parkinson monogénica puede resultar de utilidad para reducir al mínimo los procedimientos diagnósticos, esclarecer las opciones terapéuticas y orientar la planificación familiar, pero actualmente la validez clínica de los SNP (polimorfismos de nucleótido simple) es como mínimo cuestionable», aseveran.

Sin embargo, reconocen que «el descubrimiento y la confirmación realizados por este consorcio acerca de SNP potencialmente causantes de esta enfermedad se presentan muy prometedores de cara a establecer hipótesis de causalidad», y añaden que «este estudio, que constituye un hito, sirve otro propósito importante, puesto que constituye una reflexión exhaustiva sobre el estado de la técnica en lo que se refiere al uso clínico de datos de GWAS para combatir la enfermedad de Parkinson».

Los doctores Klein y Ziegler concluyen así: «Pese a mantener ciertas reservas para no exagerar el valor de estos hallazgos asociativos de cara a la medicina personalizada, esta confluencia de índices científicos nuevos y avances técnicos impresionantes da razones para ser optimistas y confiar en que estos adelantos reporten beneficios directos para nuestros pacientes.»

Fuente: CORDIS, 18-2-11

-Ordenador 1- Humanos 0

No pudo ser. Ninguno de los dos cerebros humanos que aportan las preguntas a las respuestas que se dan en el concurso Jeopardy -así es el formato, a los concursantes se les da pistas en forma de respuestas y deben dar sus respuestas en forma de una pregunta- pudo con Watson, el ordenador diseñado especialmente por IBM para competir en el programa de la televisin estadounidense.

Watson se comió a Ken Jennings y Brad Rutter y, gracias a que por su sistema corre electricidad y no sangre, no presumió de su xito, que fue apabullante, ni escupió sus restos en señal de total superioridad. El ordenador de IBM conseguía un total de 77.147 dólares que fue acumulando a lo largo de los tres días que el programa de ABC ha dedicado al reto de la máquina contra el hombre. Mucho más del doble de lo que consiguió Jennings, el contrincante número uno, que sumó un total de 24.000- o Rutter, contrincante número dos -21.600-. Las dos personas de carne y hueso que asumieron el desafío eran viejos conocidos de Jeopardy. Jennings ganó en el pasado 74 programas seguidos y 2,5 millones de dólares. Rutter es el concursante que mayor cantidad de dinero ha obtenido en Jeopardy: 3.255.102 dólares.

Por haber derrotado ampliamente a sus mortales contrincantes, Watson fue premiado en la noche del miércoles con un total de un millón de dólares, que IBM dedicar a obras de caridad. El segundo puesto de esta edición especial estaba dotado con 300.000 y el tercero con 200.000 dólares. "Lo cierto es que deseaba ganar con todas mis fuerzas porque era el equivalente a salvar la dignidad de la especie", bromeó Jennings después de que concluyera el programa, que fue grabado en enero en la sede de IBM en Yorktown Heights (Nueva York). Alex Trebek, presentador del programa creado en los años sesenta, comenzaba la emisión de ayer admitiendo la virtud más obvia de Watson: es rápido.

 

Los dos concursantes humanos aplauden admirados a Watson tras una de sus respuestas.- AP

 

Cierto. En el segundo día de programa quedó probada la superioridad con la que el ordenador era capaz de pulsar el botón reclamando para sí la respuesta a la pregunta que se solicitaba. Lo hacía en milésimas de segundos frente al mayor tiempo, mínimo pero mayor, que tardaban los dos concursantes en reaccionar. La rapidez le permitió tener más oportunidades aunque tuviera fallos tan garrafales como la mala respuesta que dio al final del programa de la segunda jornada cuando contestó Toronto a un enunciado que reclamaba una ciudad de Estados Unidos.

Entonces surgió la esperanza. Watson no era capaz de ganar, a pesar de los años de trabajo invertidos por los especialistas y científicos de IBM y a pesar de que tenía acceso a bases de datos equivalentes a un millón de libros o 200 millones de páginas de información para dar sus respuestas, porque no tenía la capacidad del ser humano para captar dobles sentidos o juegos de palabras. Error. Watson no piensa pero su diseo es elaboradísimo, se nutre de 90 servidores que le hacen capaz de aprender sobre la marcha de sus errores y así poder mejorar su capacidad de responder de manera precisa. Dicho de otra manera, IBM ha perseguido el desarrollo de la inteligencia artificial.

 

Watson bautizado en honor del fundador de IBM, Thomas J. Watson, no es Deep Blue, la famosa super computadora que en 1997 derrotó al que entonces era el campeón mundial de ajedrez Gary Kasparov. El triunfo del ordenador de IBM en un concurso es la prueba más espectacular del avance de la ciberinteligencia desde la victoria de otro computador contra el ajedrecista ruso. Incluso la robótica voz ha sido muy mejorada. Deep Blue manejaba datos precisos de lógica matemática y cálculo para sus movimientos de piezas. Watson es la prueba de que la compañía IBM ha dado un paso de gigante en un mundo en el que los ordenadores inteligentes son capaces de entender y responder a los humanos -esperemos que no reemplazarlos-.

¿El futuro está aquí? El HAL de 2001: Una Odisea en el Espacio; todas las versiones de Terminator; ¿Las máquinas ganando terreno al hombre? ¿Hasta en la vulgar diversión de responder a las triviales preguntas de historia, literatura, arte, cultura, ciencia, deporte, geografía? Ganando mucho dinero? Juzguen ustedes mismos: http://www.jeopardy.com/minisites/watson/

Fuente: elpais.com, 17-2-11

 

-El plan contra la polución estará antes de verano

Tras varios episodios de reproches entre administraciones, y algunas escenas de toreo de responsabilidades, la nube de contaminación que ha castigado a las ciudades españolas tiene el primer gran acuerdo en su contra. La ministra de Medio Ambiente, Rosa Aguilar, logró ayer que todas las administraciones se levantaran de la mesa con la vista puesta en una hoja de ruta común para enfrentarse a los males de la contaminación ambiental antes del verano.

De este modo, en el mes de julio el Consejo de Ministros tendría listo para su aprobación el Plan Nacional por la Calidad del Aire según la agenda consensuada por el Ministerio, las comunidades autónomas y la Federación Española de Municipios y Provincias (FEMP).

Durante la reunión que mantuvieron ayer representantes de las tres administraciones se decidió repartir los esfuerzos en tres planes paralelos que hagan frente al trío de sustancias contaminantes más dañinas: partículas en suspensión PM10, dióxido de nitrógeno (NO2) y ozono. Aguilar resumió que se pretende ir "primero a lo fundamental, a lo que contamina más".

Para afianzar la columna vertebral del Plan Nacional sobre estas tres vértebras, el director general de Calidad y Evaluación Ambiental, Jesús Huertas García, se reunirá la semana que viene con representantes de las autonomías para iniciar la primera fase de la hoja de ruta: análisis y diagnóstico de la situación real de estas sustancias contaminantes en los cielos españoles.

Con el resultado de ese examen en la mano, se constituirá un grupo de trabajo para establecer las medidas necesarias para combatir la polución.

 

 

La ministra de Medio Ambiente, Rosa Aguilar, antes de la reunión de ayer.Gabriel pecot

 

Fin del trabajo en mayo

"El tráfico es un elemento clave, esencial y fundamental" de la contaminación de las ciudades españolas, señaló la ministra tras el encuentro con los consejeros autonómicos. Aguilar se remitió al mes de mayo, que será cuando el grupo de trabajo finalice su tarea, para conocer en detalle qué decisiones afectarán directamente al parque automovilístico.

Según el "cronograma aprobado" que presentó la ministra, en junio se abrirá un periodo de participación pública para aportar soluciones. Aguilar reconoció que uno de los puntos será el de la fiscalidad, con el objetivo de "ver qué posibilidades" hay de mejorar la calidad del aire al incidir en impuestos como los de "matriculación, circulación y carburantes".

La agenda acordada ayer surge después de que las principales ciudades españolas hayan vivido en los últimos días altos niveles de concentración de partículas contaminantes. El Fiscal de Medio Ambiente, Antonio Vercher, está investigando si grandes urbes como Barcelona, Valencia y Sevilla están maquillando sus cifras de polución, después de atacar a Madrid por trasladar las estaciones de medición de polución a zonas verdes.

Por otra parte, el Parlamento Europeo aprobó ayer nuevos límites para las emisiones de CO2 de furgonetas y camionetas. La nueva norma, que entrará en vigor progresivamente desde 2017, obligará a los fabricantes a producir vehículos más limpios para reducir la polución y contribuir a la lucha contra el cambio climático, pero fue recibida con frialdad por las organizaciones ecologistas, que recordaron que los límites de la propuesta inicial eran más estrictos, informa Daniel Basteiro desde Bruselas.

Fuente: publico.es, 16-7-11

 

 

-Malas noticias para un fármaco estrella contra el cáncer

Hace pocas semanas, EEUU decidió prohibir el uso de bevacizumab (más conocido por su nombre comercial Avastin) para el tratamiento del cáncer de mama. Una de las razones alegadas es que sus beneficios no parecen ser superiores a sus riesgos. Ahora, los resultados de una revisión ahondan en el tema de su seguridad al detectar un pequeño aumento de la mortalidad que invita a reconsiderar en qué situaciones debe usarse este fármaco 'superventas'.

El trabajo, publicado en la revista 'Journal of the American Medical Association', analiza los datos de 16 ensayos clínicos en los que se comparó el uso combinado de bevacizumab más quimioterapia o terapia biológica frente a estos dos tratamientos por separado en pacientes con distintos tipos de cáncer (colon, riñón, próstata, pulmón, mama y páncreas). Su conclusión es que "añadir este fármaco a la terapia antineoplásica se asocia con un aumento significativo del riesgo de sufrir reacciones adversas fatales", apunta el trabajo.

Basándose en la información de más de 10.000 pacientes, los autores concluyeron que aquellos tratados con Avastin tenían un riesgo 1,5 veces superior de sufrir un efecto secundario letal en comparación con los demás. Aunque se trata de una probabilidad pequeña (2,5%), los autores sugieren que el tratamiento con este fármaco se "debe reconsiderar" y "es importante para los médicos y los pacientes que entiendan y reconozcan los riesgos".

Algo que, según Ricardo Cubedo, oncólogo del Hospital Puerta de Hierro de Majadahonda (Madrid), ya se había observado. "Sabemos que Avastin tiene toxicidad y que hay que tener cuidado con las perforaciones [gastrointestinales] y las hemorragias", explica a ELMUNDO.es. El problema con este fármaco, según los expertos consultados por este medio, es otro.

Resultados inconsistentes

La historia de Avastin, un anticuerpo monoclonal que inhibe el desarrollo de nuevos vasos sanguíneos, fenómeno del que depende el crecimiento de tumores y metástasis, está llena de altibajos. A pesar de los buenos augurios iniciales, "el desarrollo clínico de bevacizumab incluye éxitos y fracasos decepcionantes", apunta Daniel Hayes, reputado oncólogo de la Universidad de Michigan (EEUU), en un editorial acerca de este estudio. La euforia inicial se ha ido disipando debido principalmente a las sospechas acerca de sus efectos adversos letales y a que Avastin no aumenta la supervivencia global de los pacientes.

"La inconsistencia de los resultados despierta cuestiones importantes: ¿Tiene bevacizumab beneficios específicos contra el cáncer?", se pregunta Hayes. La práctica clínica y el análisis detallado de la respuesta al fármaco sugieren que "funciona bien, pero sólo en pacientes seleccionados", señala este experto. Emilio Alba, presidente de la Sociedad Española de Oncología Médica (SEOM), coincide en que "en algunos pacientes funciona muy bien pero en otros no tiene ningún efecto".

Administrarlo o no

A pesar de esto, Avastin es el fármaco de su familia más utilizado en España y uno de los más empleados en EEUU. Pero es que averiguar qué personas se beneficiarían del tratamiento con Avastin pasa por realizar estudios biológicos que determinen qué biomarcadores predicen este efecto positivo y cuales indican el futuro fracaso. "Habría que hacerlo -subraya Cubedo-; pero, ¿quién lo hace?".

Por un lado, las farmacéuticas "no tienen ningún incentivo para llevar a cabo estas investigaciones", señala este oncólogo. Por otro, "cuestan demasiado dinero para que las hagan otras instituciones". Mientras tanto, bevacizumab se sigue administrando o se prohíbe para ciertos tumores, en función de las decisiones de las diferentes agencias reguladoras (Reino Unido, por ejemplo, ya le impuso serias restricciones).

¿Cuál es la acertada? Para Hayes, los beneficios de su uso generalizado "podrían no estar justificados" dados los "modestos" beneficios detectados y al enorme coste de este fármaco (unos 30.000 euros por paciente).

 

Fuente: elmundo.es, 15-2-11

 

 

 

-Muy lejos del robot que podría pensar por sí mismo

¿Cuándo realizaremos preguntas directas a los buscadores?

Google está invirtiendo toneladas de dinero en la comprensión artificial del lenguaje natural, consciente de que el primer buscador que sepa responder a la frase "¿dónde voy a cenar esta noche?" será el dueño del mercado. "Esta tecnología ha avanzado mucho", asegura Javier Arias, de Google. "La inteligencia se aplica a diferentes servicios como, por ejemplo, que el buscador te ofrezca un mapa al preguntar por dos localizaciones diferentes", añade. Pero Google depende de qué información quiera compartir el usuario para personalizar las búsquedas. "Si compartes con el buscador qué tipo de comida te gusta, este te dirá dónde cenar", explica.
 

¿Cuándo llegará la traducción automática perfecta?

Nadie se arriesga a responder a esta pregunta. Arias explica que, en el caso del traductor de Google, "ya no se traduce palabra por palabra, si no por el sentido general de la frase. Además, el sistema aprende, y las mejoras se incorporan".
 

¿Qué ocurre con la imagen y el audio?

La ciencia está comenzando a avanzar en la inteligencia artificial de comprensión de textos, pero en audio y vídeo apenas se ha comenzado a trabajar. Los resultados de los primeros programas comerciales para convertir conversaciones en textos, y para identificar rostros o monumentos en imágenes, son por ahora muy decepcionantes.

¿De qué depende la evolución de la inteligencia artificial?

Los expertos creen que se trata, en buena parte, de una cuestión de músculo: la investigación avanzará en paralelo con la potencia de procesamiento y de cálculo, la capacidad de memoria de las máquinas y los avances en algoritmos distribuidos, que trabajan en los ordenadores conectados en red.

¿Cómo se mide si un ordenador es inteligente?

La prueba más conocida es el llamado "test de Turing". Propuesto en 1950, su funcionamiento es muy sencillo: un juez habla, a través de un ordenador, con un humano y una máquina, y debe descubrir cuál es cuál. Ninguna máquina ha logrado superar aún el test de Turing, aunque otros expertos han propuesto más pruebas. José Hernández-Orallo y su equipo, por ejemplo, están investigado un test universal, con el objetivo de evaluar sistemas de inteligencia artificial de cualquier velocidad y nivel de inteligencia, y sin utilizar tareas predeterminadas.
 

¿Aprenderán los ordenadores?

Miquel Barceló es contundente: "No tengo ninguna duda. No sé cuándo sucederá, pero sucederá". Muchos ya aprenden de algunos de sus errores pero se trata, sobre todo, de máquinas dedicadas, es decir, especializadas en una determinada tarea. Más compleja será la creación de ordenadores de propósito general, es decir, robots como los imaginados por la ciencia-ficción que sean capaces de pensar por sí mismos y tomar decisiones. "No estamos ni siquiera remotamente cerca de eso", dice, contundente, Selmer Bringsjord. Juan Manuel Rebes sí cree que los ordenadores "se repararán a sí mismos" en un plazo no muy lejano.

¿Qué ocurrirá si las máquinas comienzan a ‘pensar'?

La Universidad de Oxford acaba de lanzar una carrera mixta de Filosofía e Informática para formar profesionales que puedan entender la complejidad técnica, ética y moral de crear un ordenador inteligente. Selmer Bringsjord, que enseña Filosofía y Lógica, se confiesa muy "preocupado" por el escaso interés que existe en estudiar las implicaciones que tiene desarrollar una máquina que, por ejemplo, "pueda volar y quizá decida disparar por sí misma".

Fuente: 14-2-11

-Hola Alien, ¿sabes sumar?

Nuestro planeta lleva cien años filtrando señales al espacio en forma de series de televisión, conversaciones de móvil, comunicaciones militares y programas de radio. Si hay extraterrestres buscando señales, ya nos deberían haber descubierto y, si están interesados en aniquilarnos, ya lo habrían hecho". Así de seguro se muestra Jacob Haqq-Misra, un investigador de la Universidad Estatal de Pensilvania (EEUU), cuando defiende la necesidad de mandar mensajes a posibles civilizaciones alienígenas. Como para todo debe haber un orden, este experto en condiciones habitables de otros planetas acaba de proponer un nuevo código para hablar con aliens junto a otros dos investigadores de EEUU y Francia.

 

Desde que tuvo la inteligencia y la tecnología para enviar su primer mensaje de radio interplanetario en 1974, la humanidad ha intentado contactar con inteligencias extraterrestres en un puñado de ocasiones. Se han enviado números, monigotes antropomorfos y hasta chistes acuñados por el grupo cómico Monty Python. Debido a la distancia de ida y vuelta a la constelación de Hércules, a 25.000 años luz, la respuesta al mensaje de 1974 no llegará hasta dentro de unos 50.000 años.

Los mensajes retransmitidos de forma inconsciente podrían llegar antes. Si los alienígenas han llegado a un nivel de desarrollo similar al nuestro y tienen antenas lo suficientemente grandes, a estas alturas estarán recibiendo los primeros programas de televisión grabados en la Tierra en la década de 1950. En el caso de EEUU sería una serie llamada I love Lucy y en el de España un partido entre el Madrid y el Racing de Santander narrado por Matías Prats. "Por supuesto no podrán entenderlos como hacemos nosotros, pero sabrán que la señal ha sido fabricada, sabrán que estamos aquí", explica Haqq-Misra.

En un estudio que se publicará en Space Policy, el experto aboga por un nuevo protocolo para crear mensajes "menos antropocéntricos" y más inteligibles para mentes no humanas.

Nada de emociones

El equipo aún no ha determinado las reglas exactas para elaborar los mensajes, y de hecho quieren que participe el mayor número de personas en decidir cómo abordar el próximo intento de comunicación. Su objetivo es crear una web que comenzará a funcionar este verano donde podrán consultarse las directrices publicadas en su estudio para que la gente pueda proponer mensajes y sistemas de codificación.

De establecerse el contacto, los comienzos serían áridos, según Haqq-Misra. "Nuestro mensaje debería ser muy matemático, comenzando con las definiciones de la suma, la resta y la multiplicación para después describir la estructura del átomo y la tabla periódica, porque sería muy complicado transmitir emociones humanas o ideas como el arte, el amor o la música", propone. Si hay alguien ahí fuera, de vuelta recibiríamos "leyes de la física y la química según las ven ellos", se atreve a aventurar Haqq-Misra.

Fuente: publico.es, 13-2-11

 


-Comienzan las pruebas de "Orion"

Cápsula Orión/NASA

 

El primer prototipo de la cápsula espacial tripulada 'Orión' ha emprendido su primer viaje, por el momento puramente terrestre, de Nueva Orleans a Denver y bajo la más estricta supervisión de los ingenieros de la NASA. Antes de salir al espacio, aún tendrá que pasar muchas pruebas aquí en nuestro planeta.

La cápsula 'Orión' salió este jueves de la planta de montaje de Michoud (Nueva Orleans) con destino a las instalaciones de la empresa aeroespacial Lockheed Martin. En su nuevo emplazamiento, este nuevo vehículo de la agencia espacial estadounidense tendrá que pasar varias pruebas tanto en agua como en tierra.

En el futuro, la cápsula servirá para transportar astronautas tras la jubilación de los transbordadores, pero antes de emprender ese viaje está previsto que el módulo 'Orión' realice su primer vuelo no tripulado en 2013, según dirigentes de Lockheed Martin.

Nuevos vehículos espaciales

El traslado de la cápsula es un paso más en la consecución del objetivo anunciado por el presidente Barack Obama para enviar al espacio una misión con astronautas en 2016. Las próximas pruebas de la 'Orión' estudiarán cómo responde la nave a los retos de una misión espacial de gran envergadura como el ascenso, lanzamientos abortados, operaciones en órbita, trayectoria de regreso a gran velocidad, despliegue de paracaídas y amerizajes bajo diferentes condiciones.

Los vehículos 'Orión' tienen un diámetro de aproximadamente cinco metros en su punto más ancho y se diseñaron para alojar a cuatro astronautas. Además, a diferencia de los transbordadores de la NASA, no necesitan pistas de aterrizaje cuando llegan a su destino, sino que amerizan como ya hicieron otras naves como 'Mercury', 'Gemini' o 'Apollo'.

Cambio de planes

En principio, las cápsulas se pensaron para ir colocadas en la parte superior del cohete 'Ares I', que las lanzaría al espacio. Los módulos como el 'Orión' estaban llamadas a sustituir a los transbordadores espaciales, al borde de la jubilación tras 30 años de diligente servicio. La idea era que estos módulos espaciales sirviesen para llevar y recoger astronautas de la Estación Espacial Internacional.

Sin embargo, el año pasado, Obama canceló el Proyecto Constelación impulsado por su predecesor, George W. Bush y con él, los planes previstos para la cápsula Orión. El nuevo presidente de EEUU impulsó entonces un nuevo programa que favorece la exploración de Marte y de los asteroides. De hecho, la empresa Lockheed Martin ya ha estudiado cómo conectar varias cápsulas 'Orion' para que viajen juntas en una misión tripulada a un asteroide. Los dirigentes de la compañía llaman a este proyecto 'Plymouth Rock'.

Uno de los principales objetivos del nuevo plan de la NASA con la llegada de Obama a la Casa Blanca es enviar astronautas a visitar un asteroide hacia el año 2025.

Pruebas en tierra para viajes al espacio

La cápsula 'Orión' de Denver tendrá que demostrar que es lo suficientemente segura como para llevar a astronautas a misiones espaciales interplanetarias. Para ello, la NASA también ensayará los amerizajes de la nave en el Centro de Investigación Langley, en Virginia. En mayo de 2010, la agencia espacial estadounidense ya comprobó el sistema para abortar el lanzamiento del módulo 'Orión' -una torre de lanzamiento propulsada por un cohete diseñada para que la cápsula se separe de su cohete durante un lanzamiento de emergencia-. El pasado mes de julio, el diseño de la nave 'Orión' pasó satisfactoriamente la Fase I de los requisitos que la NASA exige a todos los vehículos espaciales que van a transportar astronautas.

Fuente: elmundo.es, 12-2-11

 

-El cerebro hace "zooms" simultáneos para ver

Una persona charla con dos amigos en un bar repleto de gente que habla a gritos. A pesar de ello, puede entender a sus interlocutores porque su cerebro se concentra en las voces que le interesan y baja el volumen del ruido de fondo. De forma similar, la corteza cerebral usa diferentes tipos de zoom para percibir la forma, color y movimiento de los objetos.

Así lo ha demostrado un equipo de investigadores de la Universidad de A Coruña en un estudio que ha logrado desactivar la corteza del cerebro en gatos. "En los mamíferos, este área es el gran filtro de información entre el mundo exterior y el cerebro", explica Xurxo Mariño, uno de los autores del trabajo, publicado en PLoS ONE. La desactivación se ha logrado con estimulación magnética transcraneal (TMS), que apaga zonas del cerebro temporalmente y cuyos efectos desaparecen después de un tiempo.

El estudio demuestra que la corteza desactivada es incapaz de procesar toda la información que le llega, por lo que la visualización de las imágenes se distorsiona, ofreciendo claves de cómo ve el cerebro. Una de las respuestas es que lo hace por canales distintos y paralelos que permiten aumentar el detalle sobre la forma, color y movimiento de un objeto a la vez.

Fuente: publico.es, 11-2-11

 

-La estrategia de las pulgas para dar grandes saltos

Son diminutas -apenas pesan 0,7 miligramos- pero cuando saltan son capaces de alcanzar los dos metros en un segundo. Las pulgas tienen una asombrosa habilidad para saltar que desde hace décadas ha intrigado a los entomólogos.

Un estudio publicado esta semana en 'The Journal of Experimental Biology' revela cómo lo consiguen y rebate los resultados obtenidos en investigaciones anteriores. Según el nuevo trabajo, las pulgas se impulsan con sus pies, en concreto con el tarso. Desde aquí proyectan la energía almacenada en su tórax y logran dar sorprendentes saltos.

En 1967, Henry Bennet-Clark descubrió que las pulgas almacenan la energía necesaria para catapultarse en el aire en una zona de su tórax compuesta por resilina (la proteína que permite a los insectos ser flexibles). Sin embargo, no estaba claro de qué manera lograban impulsarse. En los años siguientes, tanto Bennet-Clark como Miriam Rothschild formularon varias hipótesis sobre cómo lo lograban pero no disponían de equipos de grabación de alta velocidad para comprobarlo.

Los investigadores, liderados por los científicos de la Universidad de Cambridge Malcolm Burrows y Gregory Sutton, analizaron el comportamiento de 10 ejemplares. En total, consiguieron filmar 51 saltos. Según explican, la tarea no fue sencilla ya que habitualmente graban con la misma técnica a langostas, mucho más grandes que las pulgas. Sin embargo, pronto vieron que los insectos se quedaban totalmente quietos en la oscuridad y sólo saltaban cuando se encendían las luces, lo que facilitó su trabajo.

Propulsión desde el tarso

Mientras que Rothschild había planteado que las pulgas se propulsaban con el trocánter (la segunda de las cinco partes de que constan las patas de los insectos y que está articulada con la cadera y el fémur), el nuevo estudio ha descubierto que estos insectos transmiten la fuerza desde el tórax a las patas y se impulsan utilizando el tarso (la pieza más externa de la pata), consiguiendo saltar a una altura de hasta 1,9 metros por segundo.

En la mayor parte de los saltos, el tarso y el trocánter estaban en contacto con el suelo durante el 'despegue'. Sólo en el 10% de los saltos filmados el tarso era la única parte de la pata que tocaba el suelo. Es decir, si en estas ocasiones no necesitaban usar el trocánter, probablemente esta parte de la pata no era imprescindible para saltar o bien, las pulgas tienen dos mecanismos para impulsarse.

Para averiguarlo, siguieron recopilando pruebas. Las grabaciones mostraron que durante el 'despegue' los insectos siguen acelerando, incluso cuando no utilizan el trocánter. Además, el análisis de la pata mediante un microscopio electrónico reveló que tanto la tibia como el tarso estaban equipados con elementos de agarre mientras que el trocánter era liso, de modo que no podría conseguir un buen agarre para lograr impulso.

Después, desarrollaron dos modelos matemáticos que reproducían la trayectoria de la pulga basándose en las teorías de Rothschild (propulsión desde el trocánter) y Bennet-Clark (desde el tarso). Al comparar los resultados con las grabaciones el segundo modelo fue el que coincidió a la perfección con la trayectoria del insecto y su aceleración, y pudo confirmar cómo las pulgas han conseguido ser grandes saltarinas.

 

Fotogramas del salto de una pulga

Fuente: elmundo.es, 10-2-11

-Estrella a la fuga

Durante décadas, los astrónomos vienen utilizando la brillante emisión de la estrella Zeta Ophiuchi (ζ Oph) para estudiar, mediante las absorciones producidas en su vecindad, la composición química del gas que la rodea. Esta misma estrella, que se mueve a una velocidad de unos 85.000 kilómetros por hora, también es un prototipo de las denominadas "estrellas fugitivas". Una imagen de gran campo tomada recientemente por el telescopio espacial WISE de la NASA revela ahora el gigantesco frente de choque, en forma de "arco de proa", que se crea según la estrella se mueve a tan vertiginosa velocidad.

La estrella fugitiva Zeta Ophiuchi (en el centro de la imagen). | NASA/WISE, Caltech/UCLA

 

 

En una nube

Observada en el visible, la estrella Zeta Oph parece una estrella rojiza y anodina. Nada más lejos de la realidad. Estudios en otras longitudes de onda han revelado que esta es una de las estrellas más masivas y energéticas de nuestro entorno. Situada a 460 años-luz de distancia, 20 veces más masiva que el Sol, 500 veces más voluminosa, y 68.000 veces más luminosa, Zeta Oph es una estrella azulada y sumamente brillante que al estar embebida en una nube difusa nos aparece oscurecida y enrojecida por el material polvoriento que la rodea.

De hecho, la intensísima radiación de esta estrella ofrece una oportunidad única para estudiar el medio interestelar. Por ello, durante más de cuatro décadas, Zeta Oph ha sido utilizada por los astrónomos para determinar la composición química de la nube de gas y polvo que la rodea. Este material, al absorber selectivamente la radiación estelar, produce unas marcas características en el espectro electromagnético que se observa en la dirección de la estrella. La identificación de tales absorciones, que son como las huellas digitales de los diferentes compuestos químicos, revela así la composición química de la nube que envuelve a nuestra estrella.

La gran masa de Zeta Oph la hace evolucionar a toda prisa. Las fuerzas gravitatorias en su interior son tan enormes que la energía nuclear se produce de manera desbocada. Se estima que su edad es de 4 millones de años, y que tan solo vivirá otros cuatro millones más antes de estallar en forma de supernova. Una vida muy corta si la comparamos, por ejemplo, con la vida del Sol. El Sol también parece encontrarse a la mitad de su vida, pero ya tiene 4.600 millones de años de edad, unas 1.000 veces más que la edad de Zeta Oph.

Como un proyectil

Pero, además de por su gran masa, Zeta Oph también es extraordinaria por otro motivo: su vertiginosa velocidad. La velocidad de la estrella, que se mueve hacia la parte superior de la imagen que encabeza este artículo, supera los 85.000 kilómetros por hora. Y es que Zeta Oph pertenece a una clase de estrellas extremadamente veloces conocidas como "estrellas fugitivas".

Se piensa que Zeta Oph formó parte de un sistema binario en el pasado y que su compañera en tal sistema era aún más masiva que ella. La mayor masa de su pareja la hizo explotar antes en forma de supernova lanzando al espacio la mayor parte de su materia. Como resultado de esta fenomenal explosión, Zeta Oph salió disparada como un proyectil por el espacio. Estudiando la trayectoria de la estrella, resulta que aquella explosión debió suceder hace medio millón de años y que el residuo dejado por su compañera puede identificarse como una estrella de neutrones o púlsar (el denominado PSR J1932+1059

Esta explicación para el origen de la alta velocidad de Zeta Oph, parece ser aplicable a muchas de las estrellas fugitivas entre las que se encuentran Mu Columbae y AE Aurigae. La identificación de las estrellas fugitivas y la explicación de su origen fueron obras del astrónomo holandés Adriaan Blaauw (1914-2010).

Arco de proa

La imagen que encabeza este artículo es una combinación de varias observaciones infrarrojas. Zeta Oph aparece claramente en el centro rodeada por las nubes interestelares (representadas en color verde) que apenas resultan visibles en el óptico. Las nubes más cercanas a la estrella están sometidas al efecto de la radiación estelar y son, por tanto, más calientes y excepcionalmente brillantes en el infrarrojo (en tonos rojizos en la imagen).

Pero la característica más sorprendente de la imagen es el enorme arco (en amarillo), de unos 5 años-luz de tamaño, en la parte superior de Zeta Oph. Este es un espectacular efecto de las ondas de choque generadas por el movimiento tan veloz de la estrella (que viaja desde el lado inferior al superior). Según se mueve la estrella, el potente viento que emana de su superficie empuja, comprime y calienta el material interestelar que encuentra a su paso. Como el movimiento es altamente supersónico se genera un frente de choque que tiene la forma característica de arco de proa. Este frente de choque es similar en algunos aspectos, al que generan los aviones cuando vuelan a velocidades supersónicas en nuestra atmósfera, o al que se produce en el agua delante de la proa de un barco en movimiento.

En el óptico esta región no resultaba particularmente atractiva, pero una mirada en el infrarrojo nos desvela detalles muy novedosos. Naturalmente el material del frente de choque está sometido a condiciones físicas extremas de densidad y temperatura, que deben influir dramáticamente en su composición química. El estudio de tal material es pues del mayor interés y será objetivo prioritario en estudios futuros.

También interesante

Fuente: elmundo.es, 9-2-11

 

 

-El deshielo acelera la "caza" del mamut

La leyenda dice que los cazadores que encuentran un mamut en Siberia se comen su carne congelada o se la echan a los perros mientras ellos arrancan los valiosos colmillos del animal extinto. En otras ocasiones, hacen cosas aún más raras.

"Una vez usé un secador de pelo para descongelar parte de la carne", explica a Público Dick Mol, uno de los hombres que extrajeron del suelo helado de Siberia al llamado mamut de Jarkov en 1998. "Era una mezcla de humedad, orina y heces única en el mundo; fue la primera vez que olí un animal extinto", asegura Mol, investigador del Museo de Historia Natural de Rotterdam y uno de los mayores expertos mundiales en la vida, muerte y extinción del mamut lanudo hace unos 10.000 años.

Cada primavera, las llanuras de Siberia se convierten en un western. Grupos de científicos, cazadores locales y tratantes de marfil llegados de Moscú se disputan o colaboran por un botín descomunal. Se trata de los cadáveres de hasta 150 millones de mamuts lanudos que aún permanecen bajo el permafrost, el subsuelo helado de la península de Taimyr y la República de Sajá, dos territorios rusos con una extensión siete veces mayor que la Península Ibérica .

La tundra funciona como una máquina del tiempo. Sus temperaturas bajo cero hacen que los mamuts enterrados conserven piel y pelo sobre los huesos y hasta su última comida en las entrañas. Por razones que algunos expertos atribuyen al calentamiento global, el permafrost se derrite cada vez más rápido, destapando un mayor número de fósiles y convirtiendo las praderas heladas de Siberia en una tierra de oportunidades.

Con el deshielo y antes de que el corto verano convierta la tundra en un cenagal intransitable, los científicos desem-barcan en Siberia para una nueva temporada de caza. Disponen de unas semanas para localizar el mayor número de restos. Compiten con cazadores locales que rastrean la tundra durante todo el año y cuyo principal objetivo es el marfil de mamut, con colmillos de hasta tres metros y 90 kilos.

"Si es marfil de primera calidad, su precio es de 1.000 euros el kilo", explica Bernard Buigues, un explorador francés que viaja a Siberia varias veces al año y que dirige el proyecto Mammuthus. Su objetivo es rastrear Siberia en busca de fósiles hasta 2014 para que estos no acaben troceados, enviados a tratantes de Moscú y San Petersburgo y vendidos a China, el mayor consumidor de marfil de mamut, o en páginas web.

Este mercado ha florecido en parte por la prohibición internacional del comercio de marfil de elefante en 1989. Desde entonces han aumentado las exportaciones desde Rusia hasta llegar a la cifra oficial de 60 toneladas al año. "El marfil de mamut no está protegido por ninguna ley, es como un mineral más de los que hay en Siberia", lamenta Buigues. "Lo único que necesitas es una licencia para extraer tanto marfil como quieras", señala el explorador, que advierte que las exportaciones de Rusia llegan a las 80 toneladas anuales contando el mercado negro. Los colmillos más vistosos acabarán vendidos a museos o a coleccionistas privados, según Buigues. Los menos valiosos y los huesos serán troceados y usados en Rusia y China para hacer figuras de todos los tamaños y formas.

 

Bernard Buigues observa los colmillos de un mamut hallados en Siberia en 1999.AP

 

Uno de los ases de este negocio es Fyodor Shidlovskiy. Antiguo piloto de avión en Sajá, Shidlovskiy viaja a Siberia cada año en busca de fósiles. También regenta el Ice Age Museum de Moscú, donde se pueden ver mamuts y rinocerontes lanudos disecados, comprar figuritas de marfil e incluso encargar tallas personalizadas.

Los siberianos llevan usando el marfil de mamut desde el Paleolítico. A veces los colmillos se hallan a simple vista, sobresaliendo de la tierra como si fueran troncos en una tierra donde no hay árboles, explica Mol. "Si los colmillos están enteros nos cuentan la vida completa del animal", detalla. La composición química y el ritmo de crecimiento muestran de dónde llegó el animal, si tuvo hijos y en qué época del año murió, es decir, son un tesoro para comprender Quién o qué mató a los mamuts, el nombre de un proyecto de investigación que Mol y otros expertos inauguraron tras el hallazgo del mamut de Jarkov.

"En estas tierras todo funciona aún según la ley del Lejano Oeste", lamenta Régis Debruyne, investigador del Museo Nacional de Historia Natural de Francia. "Cuando encuentran un mamut, los cazadores limpian los restos con agua a presión para arrancarlos de la tierra y lo echan todo a perder", comenta. Debruyne es experto en extraer y analizar el ADN de mamuts y otros de los enormes animales que poblaron Siberia. Esta primavera acompañará a Buigues a una nueva expedición para extraer nuevos restos que están por identificar. El objetivo es localizar y acumular cuantos más restos mejor.

Si los restos de los mamuts no se retiran a tiempo, se corrompen, pierden toda su información sobre el animal y su hábitat útil para los científicos y también acaban por ser inservibles para el comercio. Según el proyecto Mammuthus, el 70% de los fósiles se pierde para siempre. Los cazadores comerciales logran un 25%, y los científicos, un 5%. La organización está promoviendo la colaboración con la población local para que este Lejano Oeste sea más parecido a una tierra prometida en la que unos puedan hacer ciencia y otros sacar dinero extra.

"En varias ocasiones han sido los habitantes los que nos han traído muestras", reconoce Mol, que comenzó a rastrear Siberia en 1997. Como recompensa de pasar semanas durmiendo en una tienda a temperaturas bajo cero ha podido quedarse con recuerdos, como el trozo de espalda de mamut que tiene en el congelador de su casa. "Aún puedo tener aquel olor único si lo descongelo", concluye.

La nevera rusa

Mamut de Adams

Fue el primer ejemplar casi completo rescatado por investigadores europeos en Siberia, en 1799 . Aún tenía piel y carne pegada a los huesos, aunque había sido parcialmente devorado por otros animales. 

‘Berezovka' 

Fue hallado en lo que hoy es la República de Sajá en 1901. Sus descubridores rescataron de su boca los restos aún medio masticados de las hojas que estaba comiendo antes de caer muerto. 

‘Yukagir' 

Hallado en 2002, este adulto murió hace unos 18.000 años y tal vez estaba enfermo. Sus entrañas conservaban una última comida con abundante ‘salix', del que se extrae un componente de la aspirina. 

‘Lyuba' 

En 2007, un cazador de renos del noroeste de Siberia encontró un mamut de seis meses que murió hace 40.000 años y que es uno de los mejor conservados. Le puso el nombre de su mujer.

Fuente: publico.es, 8-2-11 

 

-ZX Spectrum, los videojuegos regresan al pasado

La compañía Elite ha anunciado que trabaja en un nuevo modelo de Spectrum que presentará en 2012. La empresa ha asegurado que la alta demanda de sus juegos adaptados a dispositivos de móviles ha animado a la compañía a revivir al mítico dispositivo. En 2012 Spectrum cumple 30 años y Elite confía en su éxito entre los jugadores de mediana edad más nostálgicos.

El nuevo Spectrum consistirá en un teclado que cargará los juegos, muy similar al antiguo modelo. Por el momento no se ha precisado si se podrá conectar a la televisión, si contará con una pantalla integrada y si se utilizará en conexión con dispositivos móviles. En caso de conexión con teléfonos inteligentes de última generación, los fabricantes han señalado que el nuevo modelo de Spectrum contará con Bluetooth.

Desde Elite se ha asegurado que al lanzamiento del nuevo Spectrum le acompañará un variado catálogo de juegos. Los usuarios podrán disfrutar de los títulos clásicos y nuevos productos diseñados y adaptados en la actualidad. Los más nostálgicos tendrán la oportunidad de disfrutar una vez más con uno de los dispositivos que ha marcado la historia del mundo de los videojuegos.

La compañía Elite es la principal fabricante y desarrolladora de los juegos clásicos del Spectrum. Los usuarios de teléfonos inteligentes como el iPhone han adquirido muchos títulos de juegos o emuladores relacionados con el Spectrum.

Según los datos del diario The Telegraph, el 67% de los usuarios de móviles de última generación asegura jugar a juegos en sus terminales.

Fuente: publico.es, 7-2-11

 

-Las raíces de la Península Ibérica tienen 290 años

La Península Ibérica ha sufrido muchos vaivenes a lo largo de su historia geológica. Un equipo de investigadores españoles acaba de revelar que hace entre 310 y 290 millones de años, hubo una serie de movimientos en las placas tectónicas que cambiaron el panorama del exterior y el interior del territorio.

En aquella era, el Carbonífero, la península ocupaba el centro de lo que era el gran continente de Pangea, el único que existía en el planeta. Los movimientos tectónicos destruyeron el manto litosférico, que está situado entre 30 y 150 kilómetros de profundidad, y propiciaron la formación de uno nuevo, que es el que hoy existe.

El trabajo, en el que los científicos han invertido más de dos años, confirma la tesis que mantenía uno de los investigadores, Gabriel Gutiérrez Alonso, de la Universidad de Salamanca, puesto que revela como se formó la cadena montañosa conocida como Arco Ibero-armoricano. También explica el origen de la gran cantidad de rocas volcánicas, de granitos y de mineralizaciones asociadas que son la base de la minería metálica del noroeste de la península Ibérica.

Para desarrollar esta investigación, los geólogos muestrearon rocas volcánicas que podían haber tenido su origen en ese manto antes y después de los 310 y 290 millones de años, y que afloran en algunos puntos de la geografía ibérica. "Sabemos que ese es el momento en el que sucedió el proceso de transformación, tanto en la superficie como en el interior terrestre", ha señalado Gutiérrez Alonso.

Los muestreos probaban que el manto anterior al actual se formó hace unos 1.000 millones de años, mientras que el que existe ahora es de hace unos 290 millones y reemplazó casi totalmente al anterior.

Según sus conclusiones, primero se fue doblando la capa superficial de la corteza (la litosfera), que cambió la forma de la cadena Arco ibero-armoricano: de alargada pasó a tener forma de herradura. Con estos movimientos, la litosfera se hizo más gruesa y, al pesar más, acabó rompiendo el manto que tenía debajo. Fue reemplazado por materiales del interior de la Tierra, que al enfriarse constituyeron la litosfera actual.

Durante los próximos dos años, este grupo de investigadores, del que forman parte científicos de la Universidad de Salamanca, la Universidad Complutense, la STFX de Canadá y la Bryn Mawr de Filadelfia, continuará probando este modelo con modelizaciones analógicas y estudios isotópicos.

 

Fuente: elmundo.es, 6-2-11

 

Gráfico sobre la formación de la Península Ibérica. |Divulga

 

 

 

-EEUU y Europa batallan por el gemelo de la Tierra

Un exoplaneta apodado Zarmina y supuesto gemelo de la Tierra ha desatado una guerra científica difícil de zanjar. Según un nuevo estudio realizado en EEUU y en el que ha participado una astrónoma española, este planeta es habitable y recibe una radiación de su estrella casi igual que la que la Tierra recibe del Sol. Para otro experto que ha repasado las observaciones que se han hecho de este cuerpo, llamado oficialmente Gliese 581 g, hay un 99,99% de posibilidades de que el planeta no exista.

"Los europeos dicen que no está ahí y los estadounidenses que sí, nosotros hemos considerado ambas opciones", confiesa a este diario Mercedes López-Morales, investigadora del Instituto de Ciencias del Espacio (IEEC-CSIC) y coautora de un trabajo que ha recalculado el tamaño de Gliese 581, la estrella que calienta a Zarmina, si es que existe.

Mundo invisible

En septiembre, un equipo liderado por el astrónomo estadounidense Steven Vogt proclamó el descubrimiento de Gliese 581 g, el planeta más parecido a la Tierra. El investigador llegó a decir que en su Zarmina, con una masa unas tres veces la de la Tierra y un radio 1,5 veces mayor, había un 100% de posibilidades de que hubiera vida.

Unas semanas después, otro equipo europeo apeaba a Vogt del caballo. De acuerdo con las nuevas observaciones del cazador de exoplanetas más preciso del mundo, el telescopio HARPS, en Chile, el planeta no existe. Desde entonces, Zarmina habita en un limbo del que será difícil sacarle hasta dentro de dos años, cuando haya observaciones suficientes. El hecho sigue alimentando el morbo de que la vida esté brotando en un mundo a 20 años luz de la Tierra.

Los nuevos cálculos del equipo de López-Morales, hechos con el telescopio CHARA, cerca de Los Ángeles, indican que Gliese 581 es un poco más grande y fría de lo que se pensaba. Eso redefine dónde se encuentra la zona habitable en la que puede haber agua líquida y, por tanto, vida. El nuevo cálculo, que será publicado en Astrophysical Journal Letters, dejaría a Gliese 581 g en medio de la zona habitable, con unas temperaturas que oscilarían entre los 51 y los 9 grados bajo cero. El truco está en que, si como se piensa, el planeta tiene atmósfera capaz de hacer efecto invernadero, la temperatura máxima llegaría hasta los 21 grados. "Sería como estar en Canarias", fantasea López-Morales.

 

Representación artística de Gliese 581

Si está ahí, Zarmina es más una melliza que una gemela. Sus años duran 10 veces menos (36 días), y su estrella emite 100 veces menos luz que nuestro Sol, lo que hace que reciba una radiación casi idéntica que la que recibe nuestro planeta, según López-Morales. Pero según una revisión estadística del astrónomo Phillip Gregory, de la Universidad de la Columbia Británica (Canadá), las observaciones de los dos telescopios que han usado los rivales de EEUU y Europa, el Keck de Hawai y el HARPS en Chile, el planeta g no existe. Tampoco el f, que también fue anunciado por Vogt.

"Si está ahí, el Gliese 581 g es el lugar perfecto para ir de vacaciones", opina Ignasi Ribas, un experto en exoplanetas del IEEC-CSIC que no ha participado en ninguno de los dos estudios. Ribas se inclina por que Zarmina sea sólo un espejismo. "El equipo de EEUU calculó órbitas totalmente circulares para los planetas de Gliese 581, pero cuando se usan otras elípticas, más parecidas a lo que vemos en otros sistemas solares, Gliese 581 g desaparece", explica Ribas.

"No voy a admitir todavía que [Zarmina] es un planeta muerto", explica Sarah Seager, experta en exoplanetas del Instituto Tecnológico de Massachusetts. Vogt y el resto de su equipo siguen defendiendo la existencia de su planeta y ya están recabando nuevos datos. "Claramente se necesitan más observaciones para que podamos llegar a un consenso", opina Seager.

Lo mismo cree la propia López-Morales, que advierte de que aunque el sistema Gliese 581 está siendo "bombardeado con observaciones" por muchos grupos, se necesitarán al menos dos años para confirmar o descartar a Zarmina. "La otra opción es comenzar a mandar señales de radio hasta que nos contesten", concluye la investigadora.

Fuente: publico.es, 5-2-11

 

-"2012" la película más absurda

En términos estrictamente científicos -y puede que también cinéfilos- '2012' es la película más absurda de la historia del cine. Así al menos lo creen en la NASA, cuyos expertos han repasado el género de la ciencia ficción buscando los argumentos menos afortunados.

Varios miembros de la Agencia Espacial Estadounidense se reunieron en California para charlar sobre las películas de ciencia ficción que más se aproximan a la realidad y también sobre las que tienen unas tramas más absurdas o descabelladas.

Y si bien encontraron argumentos plausibles, como el de la mítica 'Blade Runner' de Ridley Scott o el de la menos conocida 'Gattaca' -la película de Andrew Niccol protagonizada por Ethan Hawke, Uma Thurman y Jude Law-, la mayoría de cintas analizadas desde el punto de vista estrictamente científico no salen muy bien paradas. También recibieron los parabienes de los expertos el clásico 'Metrópolis' y la primera entrega de 'Parque Jurásico'.

Harrison Ford en una escena de "Blade Runner"

  En términos estrictamente científicos -y puede que también cinéfilos- '2012' es la película más absurda de la historia del cine. Así al menos lo creen en la NASA, cuyos expertos han repasado el género de la ciencia ficción buscando los argumentos menos afortunados.

Varios miembros de la Agencia Espacial Estadounidense se reunieron en California para charlar sobre las películas de ciencia ficción que más se aproximan a la realidad y también sobre las que tienen unas tramas más absurdas o descabelladas.

Y si bien encontraron argumentos plausibles, como el de la mítica 'Blade Runner' de Ridley Scott o el de la menos conocida 'Gattaca' -la película de Andrew Niccol protagonizada por Ethan Hawke, Uma Thurman y Jude Law-, la mayoría de cintas analizadas desde el punto de vista estrictamente científico no salen muy bien paradas. También recibieron los parabienes de los expertos el clásico 'Metrópolis' y la primera entrega de 'Parque Jurásico'.

'2012', apocalíptica y rocambolesca

La que cuenta con el dudoso honor de tener el argumento más absurdo y rocambolesco es el de '2012', la cinta apocalíptica de Roland Emmerich a la que, al margen de sus variopintos gazapos científicos, los chicos de la NASA culpan de alentar en la población la idea de que el mundo se acaba el año que viene. Un miedo que logró recaudar más de 800 millones de dólares en taquilla el pasado año.

En el segundo lugar del ranking de las cintas más absurdas está 'El Núcleo', otra cinta sobre el fin de la vida en el planeta esta vez no provocado por una profecía maya sino por el colapso del centro de la Tierra. Aaron Eckhart y Hilary Swank protagonizaron este despropósito estrenado en 2003.

El tercer escalón del podio es para una cinta mucho más conocida: 'Armaggedon'. Y es que, desde que se estrenó, al menos una vez al año podemos ver por televisión a Bruce Willis y compañía salvando el mundo del letal impacto de un asteroide a golpe de perforación y explosión. Un proceder nada científico a pesar de que expertos de la NASA aconsejaron a Michael Bay a la hora de elaborar el guión, aunque parece que el director de 'Transformers' no les hizo mucho caso.

Otros títulos que merecen ser reconocidos como barrabasadas científicas por la agencia espacial estadounidense son 'Volcano' (1997), cinta protagonizada por Tommy Lee Jones; 'Reacción en cadena' (1996), con Keanu Reeves, Morgan Freeman y Rachel Weisz; o 'El Sexto Día' (2000) con el 'siempre riguroso' Arnold Schwarzenegger.

Fuente: elmundo.es, 4-2-11

 

-"Mars 500" ya está en la órbita de Marte

 

La primera simulación en tiempo real de un viaje tripulado a Marte se aproxima a su momento álgido: la ‘nave’ llegó el martes a la ‘órbita’ de Marte, tras 244 de ‘viaje’ interplanetario. Tres miembros de la tripulación ‘aterrizarán’ en Marte el próximo día 12 y realizarán tres excursiones sobre un escenario que reproduce la superficie marciana.

El programa internacional Mars500 es un estudio pionero de los complejos aspectos técnicos y psicológicos de los viajes espaciales de larga duración. Esta simulación lleva en marcha más de ocho meses, durante los que los seis miembros de la tripulación han permanecido aislados en el interior de unos módulos que imitan una nave espacial, en las instalaciones del Instituto IBMP de Moscú.
La tripulación, formada por tres rusos, dos europeos y un chino, vive y trabaja en el interior de estos módulos imitando al detalle la rutina a bordo de una nave espacial. Su actividad diaria, estructurada en semanas de siete días con dos días de descanso, sigue una programación similar a la de los astronautas que se encuentran en la Estación Espacial Internacional. Las horas de trabajo durante el ‘vuelo’ se dividen entre tareas de mantenimiento de la nave, experimentos científicos y ejercicio físico.

“Mars500 es un experimento visionario”, comenta Simonetta Di Pippo, Directora de Vuelos Tripulados de la ESA. “Europa se está preparando para dar un gran paso en la exploración del espacio, nuestra ciencia y tecnología se fortalecen día a día.”

“Mars500 es tan sólo una simulación, de la que sin duda aprenderemos mucho, pero ya estamos trabajando para que algún día se convierta en realidad.”

 

Diego Urbina, uno de los componentes de Mars500 delante de una simulación. ESA

 

En órbita virtual a Marte
 
De acuerdo con el guión de la simulación, la nave entró en órbita a Marte el pasado martes. La fase de aproximación comenzó el pasado día 24 de diciembre, cuando la tripulación modificó la trayectoria interplanetaria para acercarse en espiral a una órbita circular entorno al Planeta Rojo.  La tripulación ya ha abierto la escotilla que comunica la nave principal con el módulo de aterrizaje que, según el guión, fue lanzado de forma independiente.  Durante los próximos días, la tripulación transferirá equipos y suministros entre las dos naves y se prepararán para desatracar el módulo de aterrizaje y ‘posarse’ sobre la superficie marciana.

La tripulación se dividirá ahora en dos equipos: Alexandr Smoleevskiy (Rusia), Diego Urbina (Italia) y Wang Yue (China) ‘aterrizarán’ en Marte mientras sus compañeros Romain Charles (Francia), Sukhrob Kamolov y Alexey Sitev (ambos de Rusia) les esperarán en ‘órbita’.  La escotilla entre las dos naves se cerrará el día 8 de febrero. Está previsto que el módulo de aterrizaje se ‘pose’ sobre la superficie simulada de Marte el próximo día 12.

Actividades Extra-Vehiculares
 
La primera excursión sobre el escenario que reproduce la superficie de Marte, instalado en el interior de una gran bóveda adyacente a los otros módulos de Mars500, tendrá lugar el próximo día 14 de febrero. Alexandr Smoleevskiy y Diego Urbina se pondrán los trajes rusos Orlan modificados y abandonarán el módulo a través de una esclusa presurizada.

La segunda salida se realizará el día 18, de la mano de Smoleevskiy y Wang Yue. La tercera y última tendrá lugar el día 22, en la que Smoleevskiy y Urbina caminarán juntos de nuevo sobre la superficie marciana.  El día 23 de febrero el módulo de aterrizaje ‘despegará’ de la superficie de Marte, reuniéndose con la nave principal al día siguiente.  Sin embargo, los tres miembros de su tripulación tendrán que permanecer tres días en cuarentena antes de poder abrir la escotilla el día 27 de febrero y reunirse con sus compañeros de expedición.

Todavía quedan más de 200 días para su regreso
 
El día 28 de febrero la tripulación comenzará a cargar el módulo de aterrizaje con deshechos y equipos que ya no volverán a necesitar, antes de ‘abandonarlo’ en órbita a Marte. El día 2 de marzo encenderán los motores virtuales de la nave principal, poniendo rumbo a casa. A partir de ese momento, la tripulación comenzará una nueva fase rutinaria de ‘viaje interplanetario’ que los traerá de ‘vuelta’ a la Tierra en noviembre de 2011.

Fuente: ESA, 4-2-11

 

 

-Grandes avances a pequeña escala

 

Es un cambio en la manera de pensar y en la forma científica de ver el mundo. Investigar a nano escala es trabajar a una medida similar a la que resultaría de la comparación del planeta tierra con una moneda de céntimo de euro. Significa manipular partículas del tamaño de una millonésima parte de un metro, lo que permite trabajar la materia a escala nanométrica, es decir, átomo a átomo. A minúsculas dimensiones, la materia se ve alterada, y cambian sus propiedades. La gravedad deja de tener importancia y las fuerzas electrostáticas toman relevancia.

Lo nano tiene y tendrá mucho que aportar. Al modificarse las propiedades de los materiales, se abre un mundo nuevo de aplicaciones en muchos terrenos: desde la medicina pasando por la alimentación, el textil y como no, la vivienda.

 

 

En la industria de la construcción, ACCIONA destaca en España como una de las pioneras de lo minúsculo. Como muestra, logra modificar las fachadas de los edificios para que se mantengan limpias por sí mismas. Para ello, proporciona propiedades fotocatalíticas a los materiales que forman dichas fachadas. De este modo, tienen la capacidad de destruir la suciedad de origen orgánico a través del fenómeno de la fotocatálisis. Este proceso responde a una reacción fotoquímica que involucra la absorción de luz ultravioleta por parte de un catalizador, en este caso, un material semiconductor. Para llevar a cabo la fotocatálisis es necesaria la activación de este semiconductor a través de la radiación solar.

Mediante esta tecnología, también es posible generar un importante efecto descontaminante, con eficacia superior al 60% en eliminación de compuestos volátiles orgánicos, y otros compuestos nocivos procedentes del transporte como son los Nox.

Esta técnica da como resultado unas fachadas con propiedades autolimpiables y descontaminantes. "Con ello, se ahorran costes y peligros derivados de la limpieza de superficies y se preserva el medio ambiente de sustancias químicas y tóxicas, que actualmente se usan en la construcción", sostiene Javier Grávalos, jefe de área de materiales de Acciona I+D+i.

Otra ventaja de la fotocatálisis es que permite instalaciones sencillas y no produce ningún tipo de corrosión ni deterioro de las mismas, ya que el sistema no emplea el uso de agentes químicos. Este mismo efecto será aplicable en un futuro próximo a las superficies en el interior de las viviendas y oficinas, ya que "estamos investigando en que se pueda conseguirse a través de la luz artificial" señala Grávalos.



La nanotecnología es un campo de investigación con un enorme potencial y, según la opinión de muchos expertos, cambiará muchos aspectos de nuestra vida. ACCIONA, a través de sus centros de I+D+i, trabaja en varias líneas de investigación en nanomateriales, desarrollando nuevas aplicaciones y resolviendo problemas del día a día.

Un ejemplo de nanotecnología en las obras de ACCIONA es la modificación de materiales destinada a eliminar el goteo de resina, que resulta ser un obstáculo en el refuerzo de estructuras. "El procedimiento se realiza mediante nanopartículas de arcillas", añade Javier Grávalos. Además, ACCIONA "mejora la resistencia del hormigón de un edificio sin aumentar el contenido de cemento, con la aplicación de nanomateriales", afirma. Éstos hacen que las estructuras sean más duraderas.

Precisamente el hormigón, que está presente en muchas de las construcciones que nos rodean, presenta ciertas dificultades en su manejo. El año pasado, Acciona debía construir una cúpula para albergar un tanque de gas licuado. Se requería que el hormigón tuviese unas propiedades muy específicas de resistencia mecánica, de porosidad, y de fluidez. Para lograrlo, se decidió emplear nanosílice. Este nanomaterial fue capaz de modificar las propiedades de fluidez, porosidad y resistencia del hormigón, y se pudo colocar en una estructura inclinada como es la cúpula. El nanomaterial disminuyó la porosidad del hormigón e hizo incrementar la seguridad del gas que contenía el tanque. Mejoró la resistencia del material, sin aplicar mayor cantidad de cemento. "Se solucionó un problema y, además, se redujeron los costes y las emisiones de CO2 asociadas", comenta Grávalos.

ACCIONA Agua también trabaja en el desarrollo de nuevas membranas a fin de obtener elementos más resistentes y duraderos en los procesos de ósmosis inversa (técnica empleada para conseguir agua potable de la salada). De esta forma, se logra una reducción de los costes asociados al mantenimiento y explotación de las instalaciones que emplean este tipo de proceso.

Futuras líneas de investigación

Una de las preocupaciones de los investigadores de ACCIONA es dar con una tecnología que permita la reparación automática de los materiales. Es decir, se persigue que las estructuras de un edificio se reparen solas al abrirse una grieta, que las pinturas de los automóviles recobren su aspecto original al sufrir un roce o que el metal se regenere después de un proceso de corrosión. "No parece real pero lo será, ya que la nanotecnología unida a la ciencia de materiales permitirá estos retos", señala Grávalos.

ACCIONA lidera en España el campo de los materiales autorreparables. Para el desarrollo de la nanotecnología se ha unido a un consorcio de otras 12 empresas y 21 centros de investigación y universidades en España. También se ha presentado a la convocatoria del programa CENIT 2010, impulsado por el Centro para el Desarrollo Tecnológico e Industrial (CDTI) de España. Éste persigue impulsar la colaboración en I+D+i entre las empresas, las universidades, los organismos y centros públicos de investigación. A este programa, Acciona ha presentado un proyecto relacionado con la tecnología de reparación autónoma e inteligente de los materiales, denominado Trainer.

La eficiencia energética es otro de los principales objetivos medioambientales de ACCIONA. "Trabajamos desde hace tres años en el desarrollo de un componente que regule la temperatura y controle el consumo de energía en los hogares", apunta Grávalos Se trata de unos materiales que absorben y ceden calor, sin consumo eléctrico, nivelando así el gasto, y cuya aplicación podrá verse demostrada en una vivienda real en el año 2013. "Sus propiedades y costes de producción se están mejorando gracias a las sinergias encontradas en la nanotecnología", concluye.

El centro de I+D de ACCIONA investiga en nanotecnologías desde hace cinco años. Esta compañía asegura que el desarrollo de estas iniciativas constituye "el motor del cambio para mejorar la calidad de vida de las personas y crea nuevos caminos hacia el desarrollo sostenible". El pasado año, la empresa constructora superó los 71 millones de euros en inversión en I+D+i, un 83% más que un año antes. Esta elevada cifra le ha permitido aumentar a cien el número de proyectos.

ACCIONA es la única compañía en España que cuenta con tres centros tecnológicos de primera línea. Más de 365 profesionales trabajan en sus tres principales campos de investigación de tecnología para la construcción: los nanomateriales, que permitan reducir el peso de las nuevas estructuras; la nanotecnología aplicada a los hormigones y asfaltos, y los materiales multifuncionales que contribuyen a mejorar la sostenibilidad.

La compañía ha construido en los últimos diez años 1.700 kilómetros de carreteras, 600 kilómetros de vías férreas y 50.000 viviendas. Además, trabaja para abastecer de agua a 50 millones de personas en el mundo. Su facturación ronda los 6.500 millones de euros anuales, y cuenta con una plantilla de 33.000 empleados en 30 países. A día de hoy, tiene 109 proyectos de construcción comprometidos.
 

Fuente:  Spain Tecnology, 3-2-2011

 

 

-Una luna de Saturno puede albergar un océano efervescente

Durante años, los investigadores se han preguntado si Encélado, una diminuta luna situada a las afueras de los anillos de Saturno, alberga un gran océano subterráneo. Nuevas pruebas parecen indicar que es muy posible que este mundo tenga las entrañas húmedas, pero no solo eso, sino que además el contenido de sus tripas es efervescente. Al parecer, según informa la NASA en su web, este mar estaría tan lleno de gas como un refresco de cola y podría reunir las condiciones para la vida microbiana.

Las sospechas de que Encélado tiene un océano comenzaron en 2005, cuando la sonda Cassini sobrevoló esta luna para obtener imágenes y datos más precisos sobre su superficie. «Los geofísicos esperaban que este pequeño mundo fuera un trozo de hielo frío, muerto y sin interés», recuerda Dennis Matson, del Laboratorio a Propulsión a Chorro de la NASA (JPL, por sus siglas en inglés). Pero no fue así. «Muchacho, ¡nos sorprendió!», admite. Lo que dejó sin aliento a los investigadores fue que la luna estaba repleta de penachos de vapor de agua, partículas de hielo y compuestos orgánicos que salían disparados de unas fisuras abiertas en su caparazón congelado. Mimas, una luna cercana aproximadamente del mismo tamaño, estaba tan desolada como los investigadores esperaban, pero no había dudas con Encélado. Este era un mundo no era nada aburrido.

Desde entonces, muchos investigadores han visto los chorros de hielo como la prueba de la existencia de una gran masa de agua subterránea. Unas balsas de agua líquida con temperaturas cercanas a los 32ºF podrían explicar los penachos de agua. Pero esta teoría no convencía a todos, porque, si se trataba de un océano, ¿dónde estaba la sal?

 

Penachos de gas saliendo del hielo

Origen volcánico

Los instrumentos de la Cassini habían detectado carbono, hidrógeno, oxígeno, nitrógeno y diversos hidrocarburos en los gases de los penachos, pero ninguno de los elementos de la sal que el agua del océano debería contener. En realidad, las sales de sodio y potasio, y los carbonatos estaban encerrados en las partículas de hielo de los penachos. Y la fuente de esas sustancias tenía que ser un océano.

Las últimas observaciones de la Cassini revelaron otro descubrimiento interesante. Las mediciones térmicas comprobaron que algunas fisuras tenían temperaturas altísimas (120º Fahrenheit). «Esta alta temperatura tiene que ser de origen volcánico. El calor debe de fluir desde el interior, suficiente para fundir parte del hielo subterráneo y crear unas balsas de agua», dice Matson. Pero, ¿cómo el contenido de un océano cubierto por una corteza de hielo de hasta decenas de kilómetros de espesor puede alcanzar la superficie? Matson contesta de forma muy gráfica con una pregunta: ¿Nunca te has mojado cuando has abierto la lata de un refresco?

El modelo que él y sus colegas proponen sugiere que los gases disueltos en las aguas profundas por debajo de la superficie forma burbujas. Puesto que la densidad de este agua efervescente es menor que la del hielo, el líquido asciende rápidamente a través del hielo hacia la superficie.

«Una gaseosa abierta»

«La mayor parte del agua se extiende hacia los lados y 'calienta' la capa de hielo, que tiene unos 300 pies de espesor», explica Matson. Pero parte del agua se acumula en cámaras subterráneas, bajo presión, y luego sale disparada a través de pequeños agujeros en el suelo, «como una gaseosa abierta escupe su contenido». Cuando el agua se enfría, se filtra hacia abajo para llenar el océano e iniciar el proceso una y otra vez.

Los científicos no tiene claro cómo esta pequeña roca llega a calentarse, aunque creen que puede tratarse de lo que se llama calentamiento por marea, la fuerza de atracción de Saturno, que incluso provoca que la forma de Encélado cambie ligeramente a medida que orbita. Estas fricciones internas animan la actividad volcánica, lo que aumenta el calor y derrite el hielo.

«Está claro ahora que, sea lo que sea lo que produce el calor, Encélado cumple con muchos requisitos para la vida», apunta Larryu Esposito, investigador de la Universidad de Colorado. «Sabemos que tiene un océano líquido, materia orgánica, y una fuente de energía. Y para colmo, sabemos de los organismos en la Tierra en ambientes similares». Un mundo que todavía puede dar muchas sorpresas.

Fuente: abc.es, 3-2-11

 

 

-Tecnología novedosa para la creación de nuevas células

Según la Organización Mundial de la Salud (OMS), las lesiones graves causadas por el fuego provocan más de 320.000 muertes al año. Los expertos creen que la mayoría de estas muertes podrían evitarse gracias a la cirugía. Pero la intervenciones quirúrgicas se complican cuando no queda suficiente piel en el paciente quemado para poder hacer injertos en las partes más dañadas de su cuerpo. La nueva piel se debe cultivar a partir de células cutáneas del propio paciente, un largo proceso que puede acarrear deshidratación e infección. Los científicos descubrieron que se pueden utilizar materiales poliméricos (sintéticos), conocidos por su amplia gama de propiedades y que se encuentran en plásticos, biopolímeros y proteínas, para hacer crecer células humanas y que éstas se multipliquen, pero con resultados poco eficaces.

 

Para dar con una solución se creó el proyecto ModPolEUV, que reunió a investigadores de Austria, República Checa y Polonia para desarrollar con éxito una forma nueva y sencilla de crear materiales nanoestructurados que facilitan el desarrollo de células humanas. ModPolEUV cuenta con el apoyo de EUREKA, la plataforma europea de investigación y desarrollo (I + D).

«Hace unos diez años, los científicos descubrieron la gran influencia que tenían las nanoestructuras sobre la manera en que se desarrollaba una línea de células», explicó el coordinador del proyecto, el profesor Johannes Heitz de la Universidad de Linz (Austria). «Fue el comienzo de un nuevo campo científico, a medio camino entre la medicina y la nanotecnología.»

La Universidad Militar de Tecnología de Varsovia (Polonia) dirigió el desarrollo de una nueva tecnología láser llamada EUV (ultravioleta extremo) que permitió crear superficies de polímeros nanoestructurados. En cuanto al socio de la República Checa, REFLEX, éste diseñó un espejo que forma un haz de luz EUV que, dirigido sobre una superficie, permite sintetizar los nuevos materiales poliméricos.

Gracias a esta técnica innovadora, los investigadores pueden garantizar un alto grado de precisión, de entre 10 y 20 nanómetros. Las mejores técnicas tradicionales pueden obtener un nivel de precisión máximo de 100 nanómetros.


«Una de las últimas teorías en el campo de cultivo de células es que cuanto menor sea la estructura, mayor será la posibilidad de manipular las células», afirmó el profesor Heitz. Una gran ventaja con la técnica UVE es que la estructura del material se conserva, un aspecto en el que suelen fallar los métodos convencionales.

«Si el material se va a utilizar para cultivar células humanas, es esencial que la estructura sea regular», explicó el profesor Henryk Fiederowicz de la Universidad Militar de Tecnología.

Cabe señalar que las nanoestructuras generadas con tecnología UVE pueden afectar el comportamiento de las células orgánicas. Según los miembros del equipo, dependiendo del tipo de superficie de polímero utilizado se pueden mejorar y acelerar los cultivos de otros tipos de células. El material que se utilice para cultivar células madre humanas determinará cómo dichas células se transformarán en otro tipo de células humanas. «El uso de un tipo de material polimérico u otro nos ayudará a cultivar diferentes tipos de células musculares, nerviosas, células adaptadas al corazón humano, los huesos o a cualquier otra parte del cuerpo humano», añadió el profesor Heitz.

Los socios entienden que esta nueva técnica se puede aplicar en muchos ámbitos diferentes, incluida la biotecnología, la microelectrónica y la óptica integrada. Si bien la tecnología de cultivo de células se encuentra todavía en fase de prueba, el equipo dice que los resultados son «hasta ahora, muy alentadores».

Fuente: CORDIS, 2-4-11

 

 

 

-Un genoma para conquistar el mundo
 

Investigadores de EEUU y Europa desvelan hoy los genomas completos de tres especies de hormigas, dos de ellas invasoras, que podrían ayudar a mantener a raya la expansión de estos insectos fuera de su hábitat y que explica su talento para la conquista.

Una de las especies secuenciadas es la hormiga argentina (Linepithema humile), considerada por algunos expertos como el insecto más invasivo del mundo. La especie ha conquistado todos los continentes excepto la Antártida y forma megacolonias que se extienden a lo largo de miles de kilómetros. La secuenciación de su genoma se publica hoy en PNAS junto a los de la hormiga de fuego (Solenopsis invicta), otra invasora originaria de Suramérica que se ha extendido por EEUU, Asia y Oceanía, y las hormigas rojas cosechadoras (Pogonomyrmex barbatus), cuyas poblaciones en el suroeste de EEUU están descendiendo debido al avance de las otras dos especies. En su Suramérica natal, las poblaciones de hormiga argentina pelean entre sí por el territorio. No sucede lo mismo fuera de su hábitat, pues todas las poblaciones que ahora se extienden desde EEUU a Japón pasando por Italia, Francia y España, no se atacan las unas a las otras, debido a su cercanía genética. A su paso, la especie barre la presencia de otras hormigas, poniendo en serio peligro las especies autóctonas.

Su genoma revela ahora que la especie tiene 367 genes para oler y 116 para el gusto, una gran ventaja comparada con otros insectos sociales como la abeja (174 y 10, respectivamente), según el trabajo, liderado por Neil Tsu-tsui, de la Universidad de California en Berkeley (EEUU). Los autores de los tres genomas apuntan que la casta de las hormigas (si serán reinas fértiles u obreras estériles) está gobernada por cambios químicos en su ADN que activan o desactivan determinados genes y que podrían ser claves para controlar su expansión si se logra controlarlos para reducir el número de reinas.

 

Hormiga argentina

Fuente: publico.es, 1-2-11