¿Por qué el leopardo tiene manchas y las cebras son
rayadas? Los patrones de color resultan fundamentales para los animales, ya
que les ayudan a camuflarse y despistar a los posibles depredadores en su
hábitat natural, pero hasta ahora su origen había resultado un misterio. Que
la evolución permitiera emparejar a criaturas moteadas con entornos llenos
de árboles y sombras y a los seres de un solo tono con paisajes más
uniformes parecía, además de una inspiración para los cuentos de
Kipling, un milagro de la evolución. Pero, por fin, existe una
explicación al enigma. La respuesta puede ser un gen llamado
Agouti, descubierto por científicos de la Universidad de Harvard en los
ratones ciervo (Peromyscus), el mamífero más extendido en Norteamérica.
La expresión de esta proteína específica, que se encuentra en todos los
vertebrados, puede
determinar el color de una gran variedad de especies desde el desarrollo del
embrión.
Durante la investigación, que aparece publicada en la
revista
«Science», los científicos estudiaron dos poblaciones salvajes de
ratones ciervo. Una de ellas, extendida por la Florida continental, tiene el
lomo oscuro y el vientre de color claro, mientras que la otra, que coloniza
las dunas de la costa, luce un pelaje más claro. El equipo, dirigido por
Marie Manceau, investigadora de Biología Evolutiva de Harvard, encontró que
la expresión del gen Agouti marcaba los patrones de color de los roedores
sólo doce días después de la concepción, mucho antes de que los
primeros pigmentos aparecieran en la piel.
Misma especie, ratón ciervo, el de la izquierda vive en la costa en zonas de
playa y el otro en el interior. Las diferencias de color son evidentes
Los cambios sutiles de la
actividad embrionaria de este gen pueden marcar una gran diferencia en la
distribución de los pigmentos por todo el cuerpo. «Durante la
embriogénesis -el proceso que conduce a la formación de un organismo
pluricelular-, Agoiti se expresa en el vientre, donde retrasa la maduración de
las células que eventualmente producen los pigmentos», explica Hopi E. Hoekstra,
otro de los autores de la investigación. «Esto lleva a un vientre más claro en
los adultos, que es el patrón de color más común en una amplia variedad de
vertebrados, desde los peces a los antílopes», añade.
Ratones cebra y ardillas listadas
Los investigadores creen que
incluso los pequeños cambios en la expresión genética de Agouti pueden
establecer un patrón de color completamente nuevo. En el ratón ciervo, la
selección natural ha producido cambios en la cantidad y el lugar de la expresión
de Agouti,
de forma que los animales puedan camuflarse con su entorno. Los ratones
de playa son claros como la arena y los de interior oscuros como los bosques.
«Es difícil no especular que
Agouti juega un papel en la generación de patrones más complejos como las
rayas o las manchas en una diversidad de vertebrados», apunta Hoekstra. Para
confirmar su hipótesis, los científicos analizarán las bases moleculares de
otros animales con patrones de color más complejos, como los
ratones cebra -unos animalitos originarios de África que se caracterizan
por sus bandas longitudinales-, las
ardillas listadas y, tal vez,
leopardos y cebras.
Fuentes: 28-2-11, abc.es
-Un proyecto pionero en la restauración forestal con
árboles autóctonos de Madrid
La ONU conmemora en 2011 el Año Internacional de los Bosques, y algunos han
decidido celebrarlo sembrando árboles. Es lo que vienen haciendo desde 2008 la
organización ecologista WWF y Toyota España, que participan en un proyecto de
mejora de los hábitats de la Sierra del Rincón, al noroeste de
la Comunidad de Madrid, un territorio de 15.000 hectáreas, declarado como
Reserva de la Biosfera y perteneciente a cinco municipios muy afectados por la
despoblación rural.
Esta semana se acaba de inaugurar oficialmente el vivero de producción de
planta autóctona construido por la organización ambiental en Montejo de la
Sierra (Madrid) con la cooperación del Ayuntamiento y se han presentado los
trabajos de restauración llevados a cabo en los últimos cuatro
años.
Se han sembrado unos 8.000 árboles y arbustos de
unas 20 especies autóctonas a lo largo de unas 13 hectáreas. La
idea era demostrar el tipo de mejoras que podían llevarse a cabo en los
montes de la Sierra del Rincón, que están marcados por una larga historia de
usos y abandono de actividades. La zona es rica en recursos forestales, con
amplias áreas de robledal natural, pinares de repoblación y algunos
bosquetes de hayas que son una joya botánica por encontrarse casi al límite
sur de su distribución en Europa.
Sin embargo, como explica Lourdes Hernández, la técnico
de WWF responsable del proyecto sobre el terreno, algunos de esos bosques
están envejecidos y carecen de regeneración debido a la ancestral presión
ganadera; otros, por el contrario, como los pinares jóvenes sembrados por la
Administración pública hace décadas, han carecido de manejo alguno y crecen
demasiado densos y uniformes. Esos pinares masificados
arden con más facilidad y albergan menos variedad de fauna y flora al ser
tan homogéneos. Por último, hay otras áreas cubiertas por matorral, que ha
rellenado el terreno de antiguos bosques que ardieron. Por otra parte,
algunas especies de árboles como el abedul, el tejo, el haya, el
arce de Montpellier o el serbal que tienen valor geobotánico y
estético pero nunca forman grandes masas sino que crecen de forma aislada,
han ido desapareciendo del paisaje.
Enrique Segovia y Katsuhito Ohno sembrando un árbol.
Jardineros de ecosistemas
Reconstituir el paisaje de estos montes con el mimo de un
jardinero y la visión de un restaurador de ecosistemas es lo que han hecho
WWF y sus colaboradores de Toyota. Los sembradores han sido cientos
de voluntarios, entre los que se encuentran empleados de Toyota
España y clientes de Toyota Prius que desde 2008 han acudido como
voluntarios a cavar agujeros y colocar plantones.
La empresa automovilística también ha suministrado los
180.000 euros destinados al proyecto. Y WWF ha puesto el conocimiento
técnico, tratando de darle más valor a esos bosques al introducir
más variedad de especies. Los cuatro años de trabajo han servido
para mejorar el avance de la sucesión natural de la vegetación, asegurar la
conectividad entre hábitats y potenciar la biodiversidad, dicen los técnicos
de WWF.
Como explica Enrique Segovia, Director de Conservación de
WWF, ahora esos montes son más variados y ricos y han ganado en capacidad de
resistencia a los cambios, algunos de los cuales están ya en marcha, como
los producidos por el cambio climático que traerá más olas de calor
y sequías, lluvias extremas y plagas forestales.
El portavoz ecologista lanza una idea atrevida: "Hablamos
siempre de proteger los bosques. Esa es la idea que le queda siempre a la
gente: proteger. Pero no basta con eso. De hecho, hay muchos bosques que ya
están protegidos, o lo están teóricamente sobre el papel. Y en realidad lo
que hace falta ahora es ir un paso adelante. Hay que restaurar los
bosques. Hay que mejorarlos ambientalmente y trabajar sobre ellos,
porque hay todo tipo de situaciones diferentes en nuestros montes y muchos
de ellos necesitan que el hombre los maneje con criterio ambiental porque
sin una gestión adecuada no mejoran, sino que se degradan".
Los montes están abandonados
Segovia no tiene reparos en romper ciertos tópicos y
defiende que muchos montes deberían ser explotados y convertirse en motor
económico y de empleo. "Un país como el nuestro no se puede permitir tener
abandonado el 50% de su territorio, que son los terrenos forestales, y a los
que sólo se dedica el 0,01 del PIB. Dejar los montes a su suerte no los
mejora".
El técnico explica que muchos montes que han llegado a
nuestros días por toda España no parten de un estado ideal sino que
provienen de fases de recuperación de un estado alterado. Algunos
son árboles que empiezan a colonizar terrenos agrícolas o ganaderos
abandonados desde hace décadas; otros son repoblaciones olvidadas o son el
fruto del paisaje tras los incendios. En todo caso, muchos necesitan la mano
del hombre para darles más calidad.
Por su parte, el presidente de Toyota España,
Katsuhito Ohno, que ha participado todos los años en las jornadas
de repoblación, se siente contento del resultado obtenido y liga esta
iniciativa ambiental con la filosofía de su compañía de producir vehículos,
como el Prius, que tienen la menor tada de emisiones de gases de efecto
invernadero del sector: "Queríamos participar en un proyecto de restauración
forestal de la mano de profesionales que aportaran la experiencia y la
visión a largo plazo indispensables. Esta visión a largo
plazo está en línea con nuestra filosofía de actuación. Trabajamos con un
enfoque integrado y con el objetivo de reducir el consumo de energía y las
emisiones en todas las áreas que abarca nuestro negocio".
Enrique Segovia concluye: "La implicación de empresas líder en proyectos
de conservación de la naturaleza es fundamental porque sirven de ejemplo
para que otras muchas entidades asuman su compromiso para
detener la creciente degradación ambiental e impulsen políticas de
responsabilidad social corporativa".
Fuente: elmundo.es, 27-2-2
-Google reforma su algortimo para castigar los
contenidos copiados
Google realiza periódicamente cambios en sus algoritmos para
el refinado de las búsquedas. "Cambios muy sutiles que muy poca gente advierte",
admite el buscador. Sin embargo, Google acaba de anunciar un cambio que,
prometen, va a tener una mayor repercusión. El retoque del algoritmo pretende
primar en la jerarquía de su listado de resultados los sitios con contenido
original y castigar a aquellos que viven de la copia o las llamadas granjas
de contenidos, sitios pensados únicamente para conseguir una buena posición
en el buscador a base de estrategias que no tienen nada que ver con la
elaboración de contenidos sólidos. Una buena ubicación en Google supone más
visitas y una mayor entrada de publicidad para el sitio.
Obviamente, Google no desvela en qué consisten los cambios.
Únicamente ha explicado que afectará al 11,8% de los resultados. De momento, se
introduce en Estados Unidos, pero su aplicación se extenderá al resto de países.
Según la empresa, este cambio está diseñado para penalizar
los sitios de baja calidad "que son de bajo valor añadido para los usuarios, que
copian contenidos de otros sitios web o sitios que no son muy útiles". Algunos
medios han mostrado su preocupación por el concepto de "utilidad" que pueda
aplicar el buscador. Google, asegura, favorecerá a las páginas que ofrezcan
"contenido original y con información sobre investigación, reportajes en
profundidad, análisis reflexivo..."
Una granja de contenidos es un sitio que ofrece una
enorme cantidad de artículos -Demand Media llega a publicar más de 4.000 diarios
y ayer su cotización en Bolsa cayó un 4%- sobre temas particularmente buscados
por los internautas y susceptibles de generar mucho tráfico. Artículos nada
elaborados, cuya única finalidad es conseguir posicionar al sitio en los
primeros lugares del buscador. Algunos de estas páginas dedicadas a la chatarra
informativa pagan 400 dólares (290 euros) por 200 artículos. Jason
Calacanis, fundador de Weblogs, afirmó ya en 2007 que los practicantes de estos
trucos debían mirarse al espejo y preguntarse si es eso lo que deseaban ofrecer
a sus clientes. Este tipo de sitios crean, aseguró, una verdadera polución en
Internet.
Las astucias empleadas por estos sitios son de muy distinto
tipo, desde el enmascaramiento de enlaces, saturación de palabras clave, textos
ocultos para el visitante que, sin embargo, detectan los buscadores,
aprovechamiento de errores ortográficos (por ejemplo, gogle.com)...
Con el objetivo de conseguir un "ecosistema web sano",
Google introdujo hace poco en su navegador Chrome una herramienta que
permite al internauta bloquear un sitio que haya aparecido en los resultados
del buscador y le parezca irrelevante para que no vuelva a aparecer en
futuras búsquedas. Google ha afirmado que el nuevo algoritmo no se basa en
la información recogida por esta herramienta de los enlaces desechados pero
que un 80% de los sitios que van a ser principalmente penalizados ya habían
sido bloqueados por los usuarios de esta opción del navegador.
Este cambio se produce a las pocas semanas de que Google
anunciara que Google Instant ya no refleja sitios que sean sospechosos de
vulnerar la propiedad intelectual. Esta medida no afecta a las búsquedas
tradicionales. El filtro se aplica a las sugerencias (las palabras que se
van completando cuando se teclea en la ventana de búsqueda) de enlaces.
Del algoritmo que regula las arañas del buscador se
conocen desde hace mucho tiempo algunos criterios como el de primar a los
sitios que reciben más enlaces de terceros, síntoma claro, en principio, de
su interés.
Search Engine Land cuenta que una web de contenidos de nula
profundidad como eHow, que estaba en el primer puesto cuando un internauta
buscaba cómo conseguir un embarazo rápido, ya ha desaparecido de este puesto de
honor.
Días atrás, Google penalizó a la tienda Overstock.com, que
había llegado a acuerdos con distintas universidades por los que ofrecía
descuentos del 10% a sus estudiantes a cambio de que las webs de los centros
educativos presentaran enlaces a su tienda.
El cambio anunciado por Google también responde a la
necesidad de prestigiar sus resultados de búsqueda. Al margen del éxito de los
enlaces prescritos por los amigos de las redes sociales que atinan más con los
intereses del internauta que los consulta, el propio sistema del buscador está
bajo sospecha. Un grupo de empresas ha denunciado ante la Unión Europea al
buscador porque, aseguran, manipula sus célebres algotirmos para perjudicar a
los sitios que pueden suponer una competencia y consideran que la compañía abusa
de su posición dominante en el sector de las búsquedas.
La Unión Europea, al anunciar la apertura de la
investigación, precisó que ello no suponía dar crédito a la denuncia hasta que
no se concluyera la misma. Google recibe mil millones de peticiones de búsqueda
al día.
La noticia de Google será bien recibida por los medios
dedicados seriamente a la información que están directamente perjudicados por
las prácticas de sitios fraudulentos en la jerarquía de resultados del buscador.
Fuente: elpais.com, 26-2-11
-El Discovery despega por última vez
El Discovery, la nave que más veces ha viajado al espacio, despegó
ayer por última vez en sus casi 27 años de historia. Cuando regrese el 7 de
marzo, el venerable carguero, que comenzó sus andanzas durante la Guerra Fría y
las ha acabado llevando al espacio a astronautas rusos y de otros países, será
recluido en un museo de Washington.
"Ninguna otra nave puede hacer lo que hace esta y seguramente
ninguna la iguale durante mucho tiempo", explicaba ayer Steve Swanson, un
astronauta de la NASA que viajó a bordo del Discovery en 2009, al
teléfono desde el Centro Espacial Kennedy, desde donde se realizó el
lanzamiento.
Tras los viajes del Endeavour, el próximo abril, y el Atlantis,
previsto para junio, los transbordadores de la NASA quedarán en dique seco para
siempre sin que tengan un sucesor made in USA.
"No hay dinero para
conservarlas y hay que seguir adelante", lamentaba ayer Swanson, que
personifica el sino del astronauta estadounidense del siglo XXI. Su próximo
viaje al espacio, fijado para 2014, lo realizará a bordo de una nave Soyuz
rusa diseñada en la extinta URSS.
El Discovery despegó ayer a las 22.50 hora
peninsular española entre los vítores del público que asiste a los despegues
como si fuera un ritual. "Es como si se parara el tiempo; empiezas a ver una
columna de humo y el estruendo del despegue te llega con retraso debido a la
distancia", rememora Juan Nebrera, consejero delegado de IberEspacio.
Nebrera vio despegar el Discovery en 1998, durante la misión que
llevó al espacio al español Pedro Duque. A bordo iba también John Glenn,
quien en 1962 se había convertido en el primer americano en orbitar la
Tierra, casi un año después, eso sí, que el ruso Yuri Gagarin, en un tiempo
en el que la carrera al espacio era más política que científica.
El despegue del Discovery marca el final de otra
época sin tantas carreras, pero con hitos como la edificación de la Estación
Espacial Internacional (ISS), a la que se dirige el Discovery.
Durante su reinado de 30 años, los transbordadores de la NASA también han
dejado dos históricos accidentes, el del Challenger (1986) y el
Columbia (2003), cuyo fantasma persigue
cada nuevo lanzamiento.
A pesar de ello, Swanson afirma que no tuvo miedo de que la nave estallase
por sí sola, sino debido a un fallo humano. "Lo único que piensas mientras
despegas es: no la cagues", confiesa.
El Discovery sale con cuatro meses de retraso. El pasado noviembre
se descubrieron varias grietas en los tanques de combustible que obligaron a
retirar la enorme nave de la plataforma de lanzamiento para repararla.
Horas antes de que el Discovery
saliera desde el Centro Espacial Kennedy, en Florida, el módulo de carga
europeo no tripulado ATV-2 se acoplaba con éxito a la ISS con más de cuatro
toneladas de material. Los seis tripulantes del Discovery llevan ahora
a la estación el último módulo Leonardo, también fabricado en Europa,
que llegará al espacio, según Ricardo Díaz Manchón, director de comunicación de
Thales Alenia España, que fabrica componentes del módulo. "Ha sido
imprescindible disponer de estas fabulosas naves, con las que se ha podido
construir la práctica totalidad de la ISS", señala. Una vez vaciado, el
Leonardo aportará 31 metros cúbicos más de espacio habitable a la ISS.
Si todo sale como lo ha planeado Barack Obama, en unos años a
la ISS se llegará en taxi espacial. El presidente ha decidido dejar en manos de
empresas privadas el transporte de astronautas a la estación. Entre las
candidatas hay grandes contratistas como Boeing o Lockheed Martin y otras
compañías con menos experiencia pero que están muy adelantadas en el desarrollo
de cohetes, como Space X. La era privada será mucho más variopinta que la
actual. Otra de las empresas que planea competir por contratos de la NASA es
Excalibur Almaz, que usará viejas cápsulas soviéticas para llevar astronautas.
Por primera vez, Europa competirá también en este mercado con el Liberty,
un cohete de 30 pisos de alto que mezcla los actuales tanques de combustible de
los shuttle con otra etapa del cohete europeo Ariane 5. La próxima meta
volante para estos nuevos taxistas llegará en marzo, cuando la NASA tiene
previsto otorgar 200 millones de dólares para transporte privado al espacio.
Hasta que los primeros taxis estén disponibles
no se les espera antes de 2016, EEUU y sus
socios en el espacio, entre ellos Europa, deberán viajar a la ISS a bordo
de naves Soyuz rusas con una impecable hoja de servicio. Al contrario que los
transbordadores, que son reutilizables como demuestran los 39 vuelos del
Discovery, las naves rusas son de un solo uso y cada billete en ellas,
incluido el de Swanson, cuesta más de 40 millones de euros.
Un año en el aire
De los tres transbordadores que quedan en activo, el
Discovery es el más veterano. Si completa esta misión con éxito, habrá
acumulado casi un año de vuelo durante el que ha recorrido suficientes
kilómetros como para dar la vuelta a la Tierra casi 6.000 veces.
Desde su primer vuelo en 1984, el Discovery ha
servido para casi todo. Comenzó poniendo en órbita satélites comerciales y
militares durante los últimos compases de la Guerra Fría. En 1988, fue el primer
transbordador de la NASA en volver al espacio después del accidente del
Challenger y lo mismo hizo en 2005, dos años
después de que el Columbia
volase por los aires con toda su tripulación a bordo.
El Discovery ha puesto en órbita el telescopio
espacial Hubble, ha vuelto para repararlo y además ha llevado al
espacio gran parte de la ISS, que gira a unos 360 kilómetros en torno a la
Tierra.
La nave deja EEUU en uno de los momentos más inciertos para
la NASA. La semana pasada, el Gobierno anunció que planea mantener el
presupuesto de su agencia espacial congelado hasta 2016. Uno de los pocos
capítulos que se han reforzado en el presupuesto para 2012 es el dedicado a
financiar las empresas privadas para llegar a la ISS.
Tras su regreso a casa, el Discovery será relevado
de servicio y preparado para su entrada en el Museo Nacional del Aire y el
Espacio, en Washington, donde acabará sus días como nave espacial para comenzar
su nueva vida de vieja gloria.
‘R2', el primer robot en el espacio
Entre el equipaje que el ‘Discovery' lleva a la ISS está
‘Robonaut 2', que será el primer robot humanoide en el espacio. El androide ha
sido desarrollado al alimón por la NASA y la General Motors, ambas interesadas
en tener un empleado dócil capaz de desarrollar labores repetitivas en la
estación espacial o en una cadena de montaje de la Tierra. Por ahora, ‘Robonaut
2' o ‘R2' sólo tiene cabeza, tronco y brazos, pero sus creadores quieren
mejorarlo para labores de exploración acoplado a vehículos con ruedas.
‘R2' ve gracias a cinco cámaras dentro de su casco, es capaz
de levantar nueve kilos con cada brazo y sus manos articuladas le permiten usar
las mismas herramientas que los astronautas de la ISS. El ingenio ha costado dos
millones de euros. El objetivo final de la NASA es saber si robots como ‘R2'
pueden encargarse de tareas de montaje o incluso de misiones en el exterior de
la ISS que sean demasiado peligrosas para los astronautas.
Fuente: publico.es, 25-2-11
-Revelada la estructura química de unos fósiles
Gracias a un potente microscopio, un equipo científico
británico-estadounidense ha logrado revelar la estructura química de fósiles de
gran antigüedad. Según sus descubrimientos, incluso los fósiles del Paleozoico
(el periodo que va desde hace 542 millones de años hasta hace 251 millones de
años) contienen quitina (un polisacárido) y proteína estructural. Se trata de
materias degradadas fácilmente por los microorganismos. Estos científicos opinan
que sus hallazgos, publicados en la revista Geology, pueden tener consecuencias
de gran calado para la comprensión del registro de fósiles orgánicos.
En el equipo participaron el profesor George Cody, del Laboratorio de Geofísica
del Instituto Carnegie de Ciencias, en Washington (Estados Unidos) y el profesor
Andrew C. Scott, del Departamento de Ciencias de la Tierra del Royal Holloway de
la Universidad de Londres (RHUL, Reino Unido).
La firma molecular más antigua de un complejo quitina-proteína se había
descubierto en fósiles cenozoicos de hace 25 millones de años, mientras que los
restos de proteína estructural más antiguos se habían hallado en fósiles
mesozoicos de 80 millones de años. Pero en el estudio referido se han encontrado
vestigios de un complejo quitina-proteína en fósiles de artrópodos del
Paleozoico, un hallazgo inimaginable hasta ahora.
Entre otras características comunes, los artrópodos poseen
cutículas en forma de exoesqueletos. Las porciones exteriores de estas
cutículas son de un compuesto de fibras de quitina integradas en una matriz
de proteínas. Puesto que la quitina y la proteína estructural se degradan
fácilmente por la acción de los microorganismos, se daba por hecho que sólo
se podrían hallar en fósiles más recientes. Pero el profesor Cody y su
equipo descubrieron lo erróneo de esta suposición cuando estudiaban los
restos fósiles de la cutícula de un escorpión de 310 millones de años
hallados en el estado de Illinois (Estados Unidos) y un euriptérido (un
artrópodo ya extinto similar al escorpión, posiblemente emparentado con el
cangrejo herradura o limulo) de 417 millones de años encontrado en Ontario
(Canadá).
Haciendo uso de un sofisticado instrumento analítico alojado en las
instalaciones de la Advanced Light Source («Fuente de luz avanzada»), en los
Estados Unidos, los investigadores midieron los espectros de absorción de
rayos X de baja energía por parte del carbono, el nitrógeno y el oxígeno
contenidos en los fósiles. Estas mediciones se tomaron con una resolución
del orden de 25 nanómetros. Los autores mostraron que la mayor parte del
carbono, el nitrógeno y oxígeno hallados en los fósiles paleozoicos provenía
de un complejo proteína-quitina.
«Este estudio demuestra la existencia de cutícula de artrópodo fosilizada en
forma de un compuesto de ceras a escala nanométrica y un complejo
proteína-quitina degradado pero aún rico en nitrógeno», escriben los autores.
Naturalmente, la materia proteína-quitina hallada estaba algo degradada, lo que
los autores atribuyen a procesos químicos o, en parte, a la acción de bacterias.
«No hay duda de que la macromolécula del fósil difiere considerablemente del
compuesto quitina-proteína inicial de la cutícula moderna», señalan los autores.
«Estas diferencias se pueden achacar a una degradación bacteriana extensa pero
incompleta y, posiblemente, a la posterior alteración diagenética», añaden.
«La degradación extensa de los enlaces glucosídicos, estéricos y amídicos
probablemente destruyó gran parte del complejo quitina-proteína y liberó ácidos
grasos», mientras que «la deshidratación de la quitina dio lugar a carbono
insaturado, lo que incrementa la intensidad de la absorción en la región
aromática u olefínica.»
El profesor Scott opina que este trabajo puede servir para «conocer mejor el
proceso de fosilización, y esta nueva técnica permite sacar a relucir la
naturaleza química del fósil sin destruirlo por completo».
El complejo proteína-quitina vestigial podría desempeñar una «función
determinante en la conservación de fósiles orgánicos al proporcionar un sustrato
protegido contra la degradación total por un recubrimiento de sustancias cerosas
que impide la desecación de los artrópodos», indicó.
Fuente: CORDIS, 24-2-11
-El cactus que caminaba
Medía unos seis centímetros de largo, tenía el cuerpo blando como
un gusano, diez pares de espinas robustas y probablemente apéndices articulados.
Esa extraña criatura que se parecía más a una planta que a un animal pudo ser
hace 500 millones de años el antepasado de los
artrópodos modernos -animales con patas articuladas, como las arañas y los
crustáceos-, el grupo biológico que ha tenido más éxito en el mundo animal. Los
científicos han bautizado a esta
forma de vida desconocida hasta ahora como el
«cactus caminante», por su apariencia vegetal y los fuertes miembros
sobre los que conseguía desplazarse. Su descripción aparece detallada por
primera vez en la revista «Nature».
Su origen es todavía un misterio. Un equipo internacional de
investigadores, en su mayoría expertos de universidades chinas, encontraron
los fósiles de tres especímenes completos y otros treinta parciales de esta
criatura, de nombre científico
Diania cactiformis, en el sudoeste de China. Nunca habían visto nada
semejante. Los investigadores sugieren que puede ser el pariente más cercano
de los artrópodos, una gran familia a la que hoy pertenecen más de un millón
de especies, en su mayoría insectos.
Este
«cactus rampante» compartía muchas de sus características con los
lobopodios, un grupo de organismos parecidos a gusanos con patas que
florecieron en el
Cámbrico, la época de la Tierra en la que se produjo la gran explosión
de la vida y, repentinamente, se distinguieron organismos pluricelulares
complejos. Sin embargo, esta especie poseía algo distinto a sus congéneres
que la convierten en algo único:
sólidos apéndices con elementos articulados. Estos apéndices la
hacían más parecida a los artrópodos modernos que cualquier otro ser de la
época registrado hasta ahora. En su descripción, los científicos citan un
cuerpo blando de seis centímetros compuesto por nueve fragmentos, ausencia
de boca, diez pares de espinas robustas y lo más llamativo, unas patas
rígidas que parecen articuladas.
Los investigadores creen que
es probable que las extremidades de esta criatura se endurecieran antes que
el cuerpo, una forma de evolución que, de momento, no se puede
extrapolar a todos los artrópodos.
Fuente: abc.es,
23-2-11
-Crónica del fin de un imperio
La caída del imperio de los incas tras la conquista de los
colonizadores españoles en el s. XVI sigue siendo un capítulo lleno de
interrogantes para los historiadores. Los libros los escriben los vencedores así
que como en tantas otras ocasiones, el relato que nos ha llegado es, en el mejor
de los casos, sesgado. Lo comprobó el antropólogo y explorador
Kim
MacQuarrie durante el periodo en que convivió con una tribu peruana del
Amazonas recientemente descubierta.
Tras investigar la conquista de este próspero imperio,
que se extendió a lo largo del territorio que hoy ocupa Perú, MacQuarrie
decidió escribir un relato novelado sobre este sangriento
episodio histórico y sobre las luchas por el poder entre los propios
indígenas.
'Los últimos días de los incas', publicado por
La Esfera de los Libros,
saldrá a la venta el lunes 21 de febrero.
Y es que la muerte en 1528 del emperador inca, Huayna
Cápac, que contrajo la viruela que los europeos habían introducido en
América, desató una devastadora guerra civil en la que se
enfrentaron dos de sus hijos. Atahualpa no dudó en asesinar a su hermano
Huáscar para convertirse en emperador. En los años siguientes, miles
de indígenas murieron a manos de los conquistadores liderados por
Francisco Pizarro, al que se unió más tarde Diego de Almagro.
"Los miembros de esta tribu me contaron historias sobre
los contactos que habían tenido sus antepasados con los incas hace 500 años.
Sin embargo, no sabían por qué había desaparecido su civilización", explica
el autor a ELMUNDO.es. Solían intercambiar bienes -como monos, loros y carne
de tapir (un mamífero del tamaño de un jabalí)- a cambio de ropa y
herramientas de metal de los incas. "Más tarde, recorrí el camino hacia la
antigua ciudad de Vilcabamba, en la que el joven emperador Manco Inca
dirigió una guerra de guerrillas contra los españoles. A medida que
iba averiguando más datos sobre esta rebelión, más me fascinaba la historia.
Los incas casi lograron dar la vuelta a la conquista. Estuvieron muy, muy
cerca [de vencer a los españoles]", asegura.
Ejecución del emperador Atahualpa en 1533, vista por el artista nativo del
s.XVI Poma de Ayala
Animado por el éxito de Hernán Cortes que, en 1521, se hizo
con el control del imperio azteca en México -la otra gran civilización americana
de la época-, Francisco Pizarro se lanzó a la conquista de los incas.
En el libro, aparece retratado como un líder militar
analfabeto, estratega, diplomático, ambicioso empresario, terrorista y, tras la
captura del emperador inca, Atahualpa, como raptor. "Pizarro era también
un cristiano de gran devoción. A sus 54 años, creía firmemente en la
Divina Providencia...La propia captura de Atahualpa [después del primer
enfrentamiento con los incas] y el hecho de que hubieran muerto tantos incas a
manos de tan pocos españoles era prueba de ello. Después de todo, el
emperador indígena y sus súbditos eran 'infieles' cuya alma estaba destinada a
arder en el infierno si no se convertían. A pesar del derramamiento de
sangre, Pizarro estaba convencido de que, al final, él y sus conquistadores
conducirían a la gran masa de infieles hacia el sagrado redil del Señor, aunque
fuera con las espadas ensangrentadas".
En el libro se relatan las estrategias que pusieron en marcha
ambas partes. A la hora de negociar con Atahualpa, "Pizarro jugó con la baza de
que éste ignoraba las sangrientas atrocidades cometidas por los españoles en el
Caribe, en México o en Centroamérica, y que tampoco había oído hablar de Colón,
de la trata de esclavos, ni del asesinato de Moctezuma, el emperador azteca".
Según MacQuarrie, la parte de la conquista menos conocida es
"la enorme rebelión que ocurrió tres años después de que Pizarro
capturara a Atahualpa, un movimiento que continuó durante los 37 años
que siguieron a la conquista y que casi logró expulsar a los conquistadores. Los
incas, que previamente habían dejado las armas, desarrollaron y pusieron en
práctica una guerra de guerrillas muy sofisticada, la primera que conocemos en
América Latina a gran escala. Ellos la inventaron", explica el autor, que en la
actualidad se encuentra en Bolivia siguiendo los pasos del Che Guevara, el
protagonista de su próximo libro.
La búsqueda de un retiro cómodo
Según se narra en el libro, "en cierto sentido, la conquista
del Nuevo Mundo fue la historia de un grupo de hombres que intentaron zafarse de
uno de los principios básicos en la vida de cualquier ser humano, la necesidad
de trabajar para vivir. Al ir a Perú, o a cualquier parte de las Américas,
los españoles no buscaban tierras fértiles para cultivar, sino dejar de
tener que realizar trabajo físico. Para ello, debían encontrar
comunidades lo suficientemente grandes a las que obligar a ejercer las
laboriosas tareas para proveerse de todo lo esencial para vivir: alimentos,
refugio, ropa y, a poder ser, riqueza efectiva. En aquel momento la
conquista tenía poco que ver con la aventura, y era un asunto de
gente que haría cualquier cosa por evitar trabajar para vivir.
Si se reduce a lo esencial, podría decirse que la conquista de Perú fue la
búsqueda de un retiro cómodo".
Desde el punto de vista armamentístico, los incas eran muy
inferiores. Sus armas no tenían comparación con las de los españoles,
que disponían además de caballos y de la experiencia acumulada durante 30 años
sometiendo a pueblos indígenas. La plaga de lo que seguramente fue
viruela europea se convirtió en otra arma poderosa en el arsenal de los
conquistadores.
Magistral capacidad de organización
Y es que, al igual que los romanos, el talento de los incas
estaba en su magistral capacidad de organización. Una etnia que nunca llegó a
superar las cien mil armas logró regular la actividad de diez millones de
personas que hablaban 700 lenguas distintas y estaban
repartidas en una extensión de 4.000 kilómetros en uno de los territorios más
accidentados del planeta.
Durante su investigación, lo que más impresionó a MacQuarrie
fue la manera en la que la civilización inca sintetizó miles de años de
evolución cultural: "Los incas, como los romanos, tomaban lo mejor de
las culturas que conquistaban y sintetizaban sus conocimientos para
crear finalmente el imperio nativo más grande que había existido en América.
Así, aprendieron de los pueblos conquistados la artesanía para pulir piedras, la
construcción de carreteras, la formación de ejércitos, la planificación de las
ciudades o la recaudación de impuestos. Eran muy, muy sofisticados
y maestros en los Andes, una de las zonas geográficamente más escarpadas de la
Tierra. ¿Quién sabe de qué manera habría evolucionado si los europeos no
hubieran llegado?".
Fuente: elmundo.es, 22-2-11
-Conectar a millones con
un viejo satélite sin uso
El propietario del satélite de comunicaciones más capaz del
mundo acaba de quebrar. Estamos recogiendo donativos para comprarlo. Y poder
moverlo. Para conectar a millones de personas que convertirán el acceso en una
oportunidad". Así resume la web buy-thissatellite.org (Compre este satélite)
lo que esa página define como "la gran idea". Tan sencilla en su concepción como
complicada en su ejecución, a juzgar por la selva de obstáculos que el padre de
la propuesta y su equipo de colaboradores deberán vencer.
El principio que inspira el plan está escrito en el nombre de
la organización que lo promueve: A Human Right(AHR) (Un derecho humano). Este no
es otro que el de acceso a internet, hoy un privilegio del que sólo disfruta el
28,7% de la humanidad, según la web de esta ONG. La banda ancha es un lujo
reservado al 4,6%. AHR se ha propuesto el ambicioso objetivo
de extender el acceso básico al 95% de la
población del planeta. Suena inalcanzable, pero al menos la magnitud del
plan está a la altura de sus metas.
Una imagen de la preparación del TerreStar-1' antes de
su lanzamiento. - TERRESTAR
Nada menos que comprar la mayor nave estelar de
comunicaciones que recorre el cielo, un gigante que, dicen sus dueños, posee
el récord Guinness al satélite más pesado, con siete toneladas y una altura
de cinco pisos.
El TerreStar-1 se lanzó en julio de 2009 a la
órbita geoestacionaria, una cáscara intangible situada a 36.000 kilómetros
sobre la Tierra donde los satélites sincronizan su órbita con la rotación
terrestre, conservando su posición respecto a la superficie. La misión
original del aparato es suministrar
servicios IP de voz y datos a los usuarios de EEUU que utilicen terminales
GENUS, teléfonos inteligentes de TerreStar que en condiciones
normales chupan la señal de los repetidores terrestres, pero que en ausencia
de cobertura miran al cielo en busca del coloso espacial.
Las cosas no han funcionado como TerreStar esperaba. En
octubre pasado, la compañía se declaró en quiebra con la intención de
reestructurarse y reforzar su posición. AHR ha aprovechado la circunstancia
para fijar sus ojos en este satélite, comprarlo, moverlo desde su slot
actual de la órbita geoestacionaria (sobre EEUU) a otro disponible sobre el
tercer mundo, probablemente Asia, y ponerlo a funcionar para que provea
conexión a todo el que disponga de "ordenador y un módem satélite", precisa
Kosta Grammatis, el fundador de AHR y alma del proyecto.
"Estamos trabajando para bajar el coste de
los módems y con grupos como Un Ordenador por Niño [el proyecto de
portátiles baratos liderado por Nicholas Negroponte] para producir hardware
barato", relata.
La primera fase del proyecto, para la que la ONG espera recaudar 150.000
dólares, consistirá en elaborar el plan de negocio, organizarse legalmente y
someter a la consideración de TerreStar una oferta de compra del satélite,
que deberá escalar a la órbita de las decenas de millones de dólares.
"Contactamos con TerreStar antes de lanzar la campaña para preguntar
cuestiones específicas sobre la viabilidad técnica de la idea. TerreStar
afronta retos crecientes y aunque no han decidido liquidar, hay
oportunidades para llevar a la compañía en una nueva dirección. Esa es
nuestra meta", explica Grammatis.
Cebo para inversores
Este joven ingeniero con amplia experiencia en satélites no
espera más altruismo que el de sus donantes anónimos. Para las empresas,
guarda en la manga un cebo con el que espera atrapar a los inversores:
mientras que el acceso básico se regalará, el de banda ancha se facilitará a
los proveedores de servicios de internet (ISP) para que lo revendan a sus
clientes. Grammatis espera así matar dos pájaros de un tiro: rentabilizar el
servicio de valor añadido y lograr que los ISP no lo vean como un competidor,
sino como un colaborador. "Con el plan de
negocio esperamos atraer a los inversores", confía el ingeniero. "Ya se
nos han acercado varios interesados", confirma.
Grammatis es consciente del largo camino a recorrer, pero
tiene reservado un plan B. "Hay numerosos satélites infrautilizados en órbita
y estamos proponiendo a sus dueños que nos dejen utilizar esa fracción libre.
Poniendo a trabajar muchos satélites podríamos cubrir el planeta, mientras que
TerreStar-1 sólo cubriría un continente". El camino se está
recorriendo. Las donaciones ascienden ya a más de 46.000 dólares, 2.000 de
ellos aportados durante la elaboración de este artículo. Grammatis está seguro
de que su mensaje calará, ahora más que nunca, con casos como el reciente
apagón de internet tras las revueltas en Egipto. Ningún dictador apagará su
satélite. "Bloquear internet es un crimen contra la humanidad", advierte.
Fuente: publico.es, 21-2-11
-Los simios más promiscuos producen más esperma que otros
primates
Los simios más promiscuos son también los que más
esperma producen. Así, los chimpancés producen 200 veces más semen que los
gorilas (los primates vivos de mayor tamaño) y 14 veces más que los
orangutanes. Lo ha averiguado un grupo de investigadores japoneses, que
acaba de publicar sus conclusiones en la revista 'American Journal of
Primatology'.
Dos jóvenes chimpancés. | Delphine Bruyere.
Los
científicos ya sabían que las especies cuyos machos tienen relaciones
sexuales con un mayor número de hembras tienen también los
testículos más grandes. Ahora, han demostrado que también
producen más esperma.
Competencia entre chimpancés
Según la
BBC, una de las teorías que se barajaban para explicar el gran
tamaño de los testículos de los chimpancés era que en esta especie es
habitual que varios machos copulen con una sola hembra, lo que les
llevaría a producir más esperma para competir entre ellos y asegurarse
de que su ADN será el que sea transmitido.
Para llevar a cabo este estudio, los investigadores
estudiaron el comportamiento sexual de chimpancés, orangutanes
y gorilas en varios zoológicos de Japón e Indonesia. En estas
tres especies de simios, los científicos han demostrado que el
tamaño de los testículos es proporcional a su producción de esperma.
Según explicó a la BBC el investigador Hideko Fujii-Hanamoto, su
estudio respalda las teorías que sugieren que la producción de esperma
está directamente vinculada a la competición por reproducirse y al
comportamiento sexual.
Gorilas
Varios estudios anteriores sugerían que los testículos
de las especies polígamas, como los gorilas (en los que el macho alfa
puede copular con todas las hembras de su comunidad) son más pequeños ya
que no tienen competencia de otros gorilas. Por el contrario, los
chimpancés deben competir entre ellos para copular con una hembra.
Según los investigadores, esta competitividad sería el factor determinante
que explicaría por qué producen más esperma y tienen los testículos más
grandes. Los científicos que llevaron a cabo el estudio subrayaron las
dificultades para medir la producción de esperma en simios ya que resulta
muy difícil recoger semen de estos animales, incluso si viven en un zoo.
Fuente: elmundo.es, 20-2-11
-Realidad virtual para eliminar el miedo
Barbara Rothbaum concluye su charla con una curiosa proyección en la pantalla.
En ella, se ve la representación virtual de una audiencia, similar a la real,
tirando papeles y abucheando a un supuesto orador. "Espero que no hagáis esto
conmigo", bromeó la psicóloga y profesora de la Facultad de Medicina de la
Universidad de Emory (EEUU) a los 500 psiquiatras asistentes al
XVI Symposium Internacional Avances en Psiquiatría celebrado
recientemente en Madrid.
La imagen es una de las utilizadas en los programas de
realidad virtual que desarrolla la empresa Virtually Better, que Rothbaum
cofundó en 1995 y que, desde entonces, ha provisto de software a algunos
de los psicólogos y psiquiatras que se preparan para ser terapeutas
virtuales. Los escenarios que desarrollan los ingenieros de esta compañía
sirven para tratar diversos trastornos de ansiedad.
El primer estudio
que demostró la utilidad de la realidad virtual se realizó con una fobia
muy común: el miedo a las alturas. En estos programas se expone a un
paciente -equipado con unas gafas y un casco con auriculares- a sus miedos
introduciéndole en un escenario generado
por ordenador. El trabajo, firmado por Rothbaum en The American
Journal of Psychiatry en 1995, demostró que, a las ocho semanas, los
pacientes "mejoraban significativamente".
Miedo a volar y a la guerra
El último estudio de esta psicóloga, que se ha publicado este mes en
Journal of Traumatic Stress, demuestra la misma utilidad 25 años después pero,
en este caso, para soldados del Ejército de EEUU en activo con trastorno de
estrés postraumático.
La terapia ha demostrado ser efectiva para infinidad de tipos de ansiedad:
el miedo a volar, la abstinencia al tabaco y otras drogas, los nervios de los
niños cuando tienen que someterse a tratamientos médicos, la fobia social y el
temor a hablar en público. Incluso han
recreado la inundación de Nueva Orleans provocada por el huracán Katrina.
Las investigaciones no paran, relata la experta estadounidense, que explica
entusiasmada su último proyecto. "Hemos descubierto que un viejo fármaco para
la tuberculosis, la D-cicloserina, actúa en las sustancias químicas que se
generan cuando tenemos miedo, si se administra antes de una sesión de realidad
virtual, y mejora su efecto", señala. Puesto que la dosis es mínima, una
décima parte de la usada para la tuberculosis, y los pacientes no muestran
efectos secundarios, Rothbaum espera que
pronto concluyan los estudios, cuyos datos preliminares han sido
positivos, y se pueda pedir a las autoridades que lo autoricen para mejorar su
tratamiento, que es utilizado en la actualidad por miles de psicólogos y
psiquiatras en todo el mundo.
El Departamento de Psicología Básica, Clínica y Psicobiología de la
Universidad Jaume I, en Castellón, es pionero en el uso de este tipo de
tratamientos en España. "El primer artículo lo publicamos en 1997", explica la
profesora Azucena García. Sus aplicaciones de realidad virtual las crea Previ,
una empresa que ha surgido de la Universidad constituida por ingenieros de la
Politécnica de Valencia. Trabajan también una técnica aún más novedosa, la
realidad aumentada, que consiste en introducir
elementos virtuales en el mundo real, de tal forma que el paciente ve
lo que proyecta el ordenador como un complemento a la realidad. Con esta
terapia, los levantinos tratan fobias específicas y muy comunes: a las arañas
y a las cucarachas. El precio de la sesión, "alrededor de 40 euros", señala
García, y gratuito si los afectados forman parte de un estudio.
Sin miedo a las cucarachas
Una de esas participantes fue la funcionaria Lara Iniesta que, hasta hace
dos años, se levantaba de una terraza y dejaba su copa a medias si veía una
cucaracha, algo muy habitual en los veranos de su ciudad. Así, no dudó en
tomar parte en un ensayo de este tipo. "No fue
sólo realidad aumentada; primero, me instalaron en el móvil un juego en
el que iban apareciendo cucarachas muy reales que tenías que matar - incluso
sonaba el ruido real-; después, empezaron las sesiones, que se alternaban
entre reales y virtuales", explica. La primera prueba de fuego fue decidir si
quería entrar a una habitación con un terrario con una cucaracha. "Dije que
no", recuerda. Tras dos meses de terapia, lo hizo y, hoy, Lara puede convivir
con estos animales sin miedo ni ansiedad, "ni necesidad de matarlas", subraya.
Esta joven confirma lo que también resalta Barbara Rothbaum: que la terapia
con realidad virtual va acompañada de psicoterapia regular. "Primero te hacen
ver la ilógica de las fobias; por ejemplo, cuando yo decía que me daban asco
las antenas de las cucarachas, la psicóloga me
señalaba que eran como las de las gambas", comenta Iniesta, una
paciente satisfecha.
Rothbaum, sin embargo, es realista y reconoce que, en muchos casos, los
pacientes sienten menos miedo pero tampoco disfrutan de sus antiguas fobias.
Lo único que preocupa a esta experta es que el abaratamiento de la tecnología
haga que pueda caer en malas manos. "Nosotros enseñamos a utilizarla, pero
está ahí y se puede emplear mal", apunta. Las
consecuencias: exponer de forma demasiado abrupta al paciente a sus
miedos y conseguir que éste interrumpa la sesión en un estado máximo de
ansiedad. "La terapia de realidad virtual mal hecha es igual que la
psicoterapia mal hecha", concluye.
Nos han pedido crear programas de sexo"
Barbara Rothbaum. Psicóloga y fundadora de la empresa Virtually Better
La directora del Programa de Recuperación de Traumas y Ansiedad de la
Universidad de Emory (EEUU), Barbara Rothbaum, recuerda divertida que uno
de los primeros trabajos que su hijo, “un loco de la informática”, llevó a
cabo cuando fue becario en la empresa que cofundó en 1995 fue diseñar una
“casa de crack” virtual, donde se veía cómo se fabricaba esta droga y se
podía comprar y vender. La compañía en cuestión es Virtually Better, que
desarrolla entornos virtuales para el tratamiento de todo tipo de
trastornos de ansiedad.
Cuando los pacientes se someten a
terapia con realidad virtual, ¿no se dan cuenta de que es falso?
A los 30 segundos de ponerse las gafas y el casco, para ellos lo que
están viendo en pantalla es real.
¿Los pacientes reciben alguna
preparación?
Para algunos trastornos, sí. Por ejemplo, la gente que tiene fobia a
hablar en público está continuamente pensando que lo está haciendo fatal,
aunque hable muy bien. Por eso, antes de ponerles en la realidad virtual,
les enseñamos a evaluar sus pensamientos de forma lógica en sesiones
regulares de terapia cognitivo conductual.
Usted es fundadora de una empresa de
realidad virtual. Si las sesiones con esta terapia cuestan lo mismo que
con la convencional, ¿cómo consiguen hacer dinero?
Yo, por conflicto de interés, ya no trabajo en Virtually Better. Pero
la empresa no hace dinero con las terapias, sino con el desarrollo y venta
de ambientes de realidad virtual.
¿Desarrollan cualquier escenario que
les pidan?
No. Por ejemplo, nos han pedido muchas veces realidades virtuales
relativas al sexo y siempre decimos que no. Nosotros buscamos tratar
enfermedades y mejorar las opciones existentes.
¿No hay peligro de que un paciente se
quede atrapado en la realidad virtual?
Podría ocurrir con pacientes psicóticos, que tienen problemas para
diferenciar la fantasía de la realidad. Por eso, no la usamos con estos
enfermos.
Fuente: publico.es, 19-2-11
-El Parkinson se debe a los genes no al entorno
Un estudio realizado a escala paneuropea ha revelado
cinco nuevas variantes genéticas responsables de la enfermedad de
Parkinson. Esta investigación fue financiada en parte por la iniciativa
NEURON («Red europea de financiación para investigación en
neurociencias»), una acción concertada financiada con 2,7 millones de
euros por el plan ERA-NET del Sexto Programa Marco (6PM) de la Unión
Europea. En NEURON participaron científicos de Austria, Finlandia,
Francia, Alemania, Israel, Italia, Luxemburgo, Polonia, Rumanía, España,
Suecia y Reino Unido. La investigación se ha publicado recientemente
mediante un artículo en la revista The Lancet.
En la comunidad científica el sentir general era que la enfermedad de
Parkinson se debía totalmente a factores ambientales. Sin embargo, desde
2007 hasta ahora se habían descubierto seis variantes genéticas o «loci»
que agravan el riesgo de desarrollar esta enfermedad. En el estudio
referido se han descubierto otros cinco loci, lo que invita a deducir que
la clave fundamental de esta patología se encuentra en factores genéticos,
y no ambientales, como se pensaba anteriormente.
«Este trabajo ofrece indicios de que la variación genética común desempeña una
función importante en la causa del Parkinson», indican los autores. «Hemos
confirmado un fuerte componente genético en la enfermedad de Parkinson; hasta
hace poco se pensaba que ésta era causada exclusivamente por factores
ambientales.» Concluyen que «la identificación de más variantes de riesgo de
la enfermedad de Parkinson, unas comunes y otras raras, probablemente nos
impulse a recalcular al alza el componente genético de la causa de esta
patología».
El equipo científico llegó a esta conclusión tras llevar a cabo lo que
describen como el análisis genético de mayor envergadura que se haya realizado
acerca del Parkinson. El trabajo consistió en un metaanálisis de cinco
estudios de asociación de genoma completo (GWAS) de Estados Unidos y Europa,
abarcando así cerca de 7,7 millones de variantes genéticas posibles. Se
constató que variantes genéticas identificadas previamente en los genes de la
MAPT (proteína Tau asociada a microtúbulos) y la SNCA (alfa-sininucleína
[componente no A4 de la precursora amiloide]) son las responsables en su mayor
parte del riesgo genético calculado.
Los investigadores señalan que el 20% de los pacientes que presentan el mayor
número de variantes de riesgo en los 11 loci identificados tenían 2,5 veces
más probabilidades de desarrollar Parkinson que el 20% que poseía el menor
número de factores de riesgo genético. Aunque esto plantea un riesgo genético
sustancialmente más alto que en los estudios anteriores, los autores matizan
que estos perfiles de riesgo aún no poseen validez clínica. Pese a ello
recalcan que estos datos sí que ponen de relieve genes nuevos en los que
centrar los futuros estudios, y consideran que sus hallazgos constituyen un
punto de partida para próximas investigaciones sobre la fisiopatología de esta
enfermedad discapacitante.
En un editorial al respecto, los doctores Christine Klein y Andreas Ziegler de
la Universidad de Lübeck (Alemania) señalan: «Desde la perspectiva clínica, la
cuestión más candente es si estos hallazgos repercutirán en la atención
sanitaria prestada a los pacientes.» En su opinión, «no hay una respuesta
sencilla» a esta pregunta, e instan a ser cautos al realizar cribajes de casos
posibles de Parkinson basándose en las afirmaciones de este trabajo.
«El diagnóstico genético de la enfermedad de Parkinson monogénica puede
resultar de utilidad para reducir al mínimo los procedimientos diagnósticos,
esclarecer las opciones terapéuticas y orientar la planificación familiar,
pero actualmente la validez clínica de los SNP (polimorfismos de nucleótido
simple) es como mínimo cuestionable», aseveran.
Sin embargo, reconocen que «el descubrimiento y la confirmación realizados por
este consorcio acerca de SNP potencialmente causantes de esta enfermedad se
presentan muy prometedores de cara a establecer hipótesis de causalidad», y
añaden que «este estudio, que constituye un hito, sirve otro propósito
importante, puesto que constituye una reflexión exhaustiva sobre el estado de
la técnica en lo que se refiere al uso clínico de datos de GWAS para combatir
la enfermedad de Parkinson».
Los doctores Klein y Ziegler concluyen así: «Pese a mantener ciertas reservas
para no exagerar el valor de estos hallazgos asociativos de cara a la medicina
personalizada, esta confluencia de índices científicos nuevos y avances
técnicos impresionantes da razones para ser optimistas y confiar en que estos
adelantos reporten beneficios directos para nuestros pacientes.»
Fuente: CORDIS, 18-2-11
-Ordenador 1- Humanos 0
No pudo ser. Ninguno de los dos cerebros humanos que aportan
las preguntas a las respuestas que se dan en el concurso Jeopardy -así es
el formato, a los concursantes se les da pistas en forma de respuestas y deben
dar sus respuestas en forma de una pregunta- pudo con Watson, el ordenador
diseñado especialmente por IBM para competir en el programa de la televisin
estadounidense.
Watson se comió a Ken Jennings y Brad Rutter y, gracias a
que por su sistema corre electricidad y no sangre, no presumió de su xito,
que fue apabullante, ni escupió sus restos en señal de total superioridad.
El ordenador de IBM conseguía un total de 77.147 dólares que fue acumulando
a lo largo de los tres días que el programa de ABC ha dedicado al reto de la
máquina contra el hombre. Mucho más del doble de lo que consiguió Jennings,
el contrincante número uno, que sumó un total de 24.000- o Rutter,
contrincante número dos -21.600-. Las dos personas de carne y hueso que
asumieron el desafío eran viejos conocidos de Jeopardy. Jennings ganó
en el pasado 74 programas seguidos y 2,5 millones de dólares. Rutter es el
concursante que mayor cantidad de dinero ha obtenido en Jeopardy:
3.255.102 dólares.
Por haber derrotado ampliamente a sus mortales
contrincantes, Watson fue premiado en la noche del miércoles con un total de
un millón de dólares, que IBM dedicar a obras de caridad. El segundo puesto
de esta edición especial estaba dotado con 300.000 y el tercero con 200.000
dólares. "Lo cierto es que deseaba ganar con todas mis fuerzas porque era el
equivalente a salvar la dignidad de la especie", bromeó Jennings después de
que concluyera el programa, que fue grabado en enero en la sede de IBM en
Yorktown Heights (Nueva York). Alex Trebek, presentador del programa creado
en los años sesenta, comenzaba la emisión de ayer admitiendo la virtud más
obvia de Watson: es rápido.
Los dos concursantes humanos aplauden admirados a Watson tras una de sus
respuestas.- AP
Cierto. En el segundo día de programa quedó probada la
superioridad con la que el ordenador era capaz de pulsar el botón reclamando
para sí la respuesta a la pregunta que se solicitaba. Lo hacía en milésimas de
segundos frente al mayor tiempo, mínimo pero mayor, que tardaban los dos
concursantes en reaccionar. La rapidez le permitió tener más oportunidades
aunque tuviera fallos tan garrafales como la mala respuesta que dio al final del
programa de la segunda jornada cuando contestó Toronto a un enunciado que
reclamaba una ciudad de Estados Unidos.
Entonces surgió la esperanza. Watson no era capaz de ganar, a
pesar de los años de trabajo invertidos por los especialistas y científicos de
IBM y a pesar de que tenía acceso a bases de datos equivalentes a un millón de
libros o 200 millones de páginas de información para dar sus respuestas, porque
no tenía la capacidad del ser humano para captar dobles sentidos o juegos de
palabras. Error. Watson no piensa pero su diseo es elaboradísimo, se nutre de 90
servidores que le hacen capaz de aprender sobre la marcha de sus errores y así
poder mejorar su capacidad de responder de manera precisa. Dicho de otra manera,
IBM ha perseguido el desarrollo de la inteligencia artificial.
Watson bautizado en honor del fundador de IBM, Thomas J.
Watson, no es Deep Blue, la famosa super computadora que en 1997 derrotó al que
entonces era el campeón mundial de ajedrez Gary Kasparov. El triunfo del
ordenador de IBM en un concurso es la prueba más espectacular del avance de la
ciberinteligencia desde la victoria de otro computador contra el ajedrecista
ruso. Incluso la robótica voz ha sido muy mejorada. Deep Blue manejaba datos
precisos de lógica matemática y cálculo para sus movimientos de piezas. Watson
es la prueba de que la compañía IBM ha dado un paso de gigante en un mundo en el
que los ordenadores inteligentes son capaces de entender y responder a los
humanos -esperemos que no reemplazarlos-.
¿El futuro está aquí? El HAL de 2001: Una Odisea en el
Espacio; todas las versiones de Terminator; ¿Las máquinas ganando
terreno al hombre? ¿Hasta en la vulgar diversión de responder a las triviales
preguntas de historia, literatura, arte, cultura, ciencia, deporte, geografía?
Ganando mucho dinero? Juzguen ustedes mismos:
http://www.jeopardy.com/minisites/watson/
Fuente: elpais.com, 17-2-11
-El plan contra la polución estará antes de
verano
Tras varios episodios de reproches entre administraciones, y algunas escenas
de toreo de responsabilidades, la nube de contaminación que ha castigado a las
ciudades españolas tiene el primer gran acuerdo en su contra. La ministra de
Medio Ambiente, Rosa Aguilar, logró ayer que todas las administraciones se
levantaran de la mesa con la vista puesta en una hoja de ruta común para
enfrentarse a los males de la contaminación ambiental antes del verano.
De este modo, en el mes de julio el Consejo de Ministros
tendría listo para su aprobación el Plan Nacional por la Calidad del Aire
según la agenda consensuada por el Ministerio, las comunidades autónomas y
la Federación Española de Municipios y Provincias (FEMP).
Durante la reunión que mantuvieron ayer representantes de
las tres administraciones se decidió repartir los esfuerzos en tres planes
paralelos que hagan frente al trío de sustancias contaminantes más dañinas:
partículas en suspensión PM10, dióxido de nitrógeno (NO2) y ozono. Aguilar
resumió que se pretende ir "primero a lo
fundamental, a lo que contamina más".
Para afianzar la columna vertebral del Plan Nacional
sobre estas tres vértebras, el director general de Calidad y Evaluación
Ambiental, Jesús Huertas García, se reunirá la semana que viene con
representantes de las autonomías para iniciar la primera fase de la hoja de
ruta: análisis y diagnóstico de la situación real de estas sustancias
contaminantes en los cielos españoles.
Con el resultado de ese examen en la mano, se constituirá
un grupo de trabajo para establecer las
medidas necesarias para combatir la polución.
La ministra de Medio Ambiente, Rosa Aguilar, antes de
la reunión de ayer.Gabriel pecot
Fin del trabajo en mayo
"El tráfico es un
elemento clave, esencial y fundamental" de la contaminación de las ciudades
españolas, señaló la ministra tras el encuentro con los consejeros
autonómicos. Aguilar se remitió al mes de mayo, que será cuando el grupo de
trabajo finalice su tarea, para conocer en detalle qué decisiones afectarán
directamente al parque automovilístico.
Según el "cronograma
aprobado" que presentó la ministra, en junio se abrirá un periodo de
participación pública para aportar soluciones. Aguilar reconoció que uno de
los puntos será el de la fiscalidad, con el objetivo de "ver qué
posibilidades" hay de mejorar la calidad del aire al incidir en impuestos como
los de "matriculación, circulación y carburantes".
La agenda acordada ayer surge después de que las
principales ciudades españolas hayan vivido en los últimos días altos niveles
de concentración de partículas contaminantes. El Fiscal de Medio Ambiente,
Antonio Vercher, está investigando si grandes
urbes como Barcelona, Valencia y Sevilla están maquillando sus cifras de
polución, después de atacar a Madrid por trasladar las estaciones de
medición de polución a zonas verdes.
Por otra parte, el Parlamento Europeo aprobó ayer nuevos
límites para las emisiones de CO2 de furgonetas y camionetas. La nueva norma,
que entrará en vigor progresivamente desde 2017, obligará a los fabricantes a
producir vehículos más limpios para reducir la polución y contribuir a la
lucha contra el cambio climático, pero fue recibida con frialdad por las
organizaciones ecologistas, que recordaron que los límites de la propuesta
inicial eran más estrictos, informa Daniel Basteiro desde
Bruselas.
Fuente: publico.es, 16-7-11
-Malas
noticias para un fármaco estrella contra el cáncer
Hace pocas semanas, EEUU decidió prohibir el uso de
bevacizumab (más conocido por su nombre comercial Avastin) para el
tratamiento del cáncer de mama. Una de las razones alegadas es que sus
beneficios no parecen ser superiores a sus riesgos. Ahora, los resultados de
una revisión ahondan en el tema de su seguridad al detectar un pequeño
aumento de la mortalidad que invita a reconsiderar en qué situaciones debe
usarse este fármaco 'superventas'.
El trabajo, publicado en la revista
'Journal
of the American Medical Association', analiza los datos de 16
ensayos clínicos en los que se comparó el uso combinado de bevacizumab más
quimioterapia o terapia biológica frente a estos dos tratamientos por
separado en pacientes con distintos tipos de cáncer (colon, riñón, próstata,
pulmón, mama y páncreas). Su conclusión es que "añadir este fármaco a la
terapia antineoplásica se asocia con un aumento significativo del
riesgo de sufrir reacciones adversas fatales", apunta el trabajo.
Basándose en la información de más de 10.000 pacientes,
los autores concluyeron que aquellos tratados con Avastin tenían un
riesgo 1,5 veces superior de sufrir un efecto secundario letal en
comparación con los demás. Aunque se trata de una probabilidad pequeña
(2,5%), los autores sugieren que el tratamiento con este fármaco se "debe
reconsiderar" y "es importante para los médicos y los pacientes que
entiendan y reconozcan los riesgos".
Algo que, según Ricardo Cubedo, oncólogo del Hospital
Puerta de Hierro de Majadahonda (Madrid), ya se había observado. "Sabemos
que Avastin tiene toxicidad y que hay que tener cuidado con las
perforaciones [gastrointestinales] y las hemorragias", explica a ELMUNDO.es.
El problema con este fármaco, según los expertos consultados por este medio,
es otro.
Resultados inconsistentes
La historia de Avastin, un anticuerpo monoclonal que
inhibe el desarrollo de nuevos vasos sanguíneos, fenómeno del que
depende el crecimiento de tumores y metástasis, está llena de altibajos. A
pesar de los buenos augurios iniciales, "el desarrollo clínico de
bevacizumab incluye éxitos y fracasos decepcionantes", apunta Daniel Hayes,
reputado oncólogo de la Universidad de Michigan (EEUU), en un editorial
acerca de este estudio. La euforia inicial se ha ido disipando
debido principalmente a las sospechas acerca de sus efectos adversos letales
y a que Avastin no aumenta la supervivencia global de los pacientes.
"La inconsistencia de los resultados despierta cuestiones
importantes: ¿Tiene bevacizumab beneficios específicos contra el cáncer?",
se pregunta Hayes. La práctica clínica y el análisis detallado de la
respuesta al fármaco sugieren que "funciona bien, pero sólo en
pacientes seleccionados", señala este experto. Emilio Alba,
presidente de la Sociedad Española de Oncología Médica (SEOM), coincide en
que "en algunos pacientes funciona muy bien pero en otros no tiene ningún
efecto".
Administrarlo o no
A pesar de esto, Avastin es el fármaco de su familia más
utilizado en España y uno de los más empleados en EEUU. Pero es que
averiguar qué personas se beneficiarían del tratamiento con Avastin pasa por
realizar estudios biológicos que determinen qué biomarcadores
predicen este efecto positivo y cuales indican el futuro fracaso.
"Habría que hacerlo -subraya Cubedo-; pero, ¿quién lo hace?".
Por un lado, las farmacéuticas "no tienen ningún
incentivo para llevar a cabo estas investigaciones", señala este oncólogo.
Por otro, "cuestan demasiado dinero para que las hagan otras
instituciones". Mientras tanto, bevacizumab se sigue administrando
o se prohíbe para ciertos tumores, en función de las decisiones de las
diferentes agencias reguladoras (Reino Unido, por ejemplo, ya le impuso
serias restricciones).
¿Cuál es la acertada? Para Hayes, los beneficios de su
uso generalizado "podrían no estar justificados" dados los "modestos"
beneficios detectados y al enorme coste de este fármaco (unos 30.000
euros por paciente).
Fuente:
elmundo.es, 15-2-11
-Muy
lejos del robot que podría pensar por sí mismo
¿Cuándo realizaremos
preguntas directas a los buscadores?
Google está invirtiendo toneladas de dinero en la
comprensión artificial del lenguaje natural, consciente de que el primer
buscador que sepa responder a la frase "¿dónde voy a cenar esta noche?" será
el dueño del mercado. "Esta tecnología ha avanzado mucho", asegura Javier
Arias, de Google. "La inteligencia se aplica a diferentes servicios como, por
ejemplo, que el buscador te ofrezca un mapa al preguntar por dos
localizaciones diferentes", añade. Pero Google depende de qué información
quiera compartir el usuario para personalizar las búsquedas. "Si compartes con
el buscador qué tipo de comida te gusta, este te dirá dónde cenar", explica.
¿Cuándo llegará la
traducción automática perfecta?
Nadie se arriesga a responder a esta pregunta. Arias
explica que, en el caso del traductor de Google, "ya no se traduce palabra por
palabra, si no por el sentido general de la frase. Además, el sistema aprende,
y las mejoras se incorporan".
¿Qué ocurre con la imagen y
el audio?
La ciencia está comenzando a avanzar en la inteligencia
artificial de comprensión de textos, pero en audio y vídeo apenas se ha
comenzado a trabajar. Los resultados de los primeros programas comerciales
para convertir conversaciones en textos, y para identificar rostros o
monumentos en imágenes, son por ahora muy decepcionantes.
¿De qué depende la
evolución de la inteligencia artificial?
Los expertos creen que se trata, en buena parte, de una
cuestión de músculo: la investigación avanzará en paralelo con la potencia de
procesamiento y de cálculo, la capacidad de memoria de las máquinas y los
avances en algoritmos distribuidos, que trabajan en los ordenadores conectados
en red.
¿Cómo se mide si un ordenador es
inteligente?
La prueba más conocida es el llamado "test de Turing".
Propuesto en 1950, su funcionamiento es muy sencillo: un juez habla, a través
de un ordenador, con un humano y una máquina, y debe descubrir cuál es cuál.
Ninguna máquina ha logrado superar aún el test de Turing, aunque otros
expertos han propuesto más pruebas. José Hernández-Orallo y su equipo, por
ejemplo, están investigado un test universal, con el objetivo de evaluar
sistemas de inteligencia artificial de cualquier velocidad y nivel de
inteligencia, y sin utilizar tareas predeterminadas.
¿Aprenderán los
ordenadores?
Miquel Barceló es contundente: "No tengo ninguna duda. No
sé cuándo sucederá, pero sucederá". Muchos ya aprenden de algunos de sus
errores pero se trata, sobre todo, de máquinas dedicadas, es decir,
especializadas en una determinada tarea. Más compleja será la creación de
ordenadores de propósito general, es decir, robots como los imaginados por la
ciencia-ficción que sean capaces de pensar por sí mismos y tomar decisiones.
"No estamos ni siquiera remotamente cerca de eso", dice, contundente, Selmer
Bringsjord. Juan Manuel Rebes sí cree que los ordenadores "se repararán a sí
mismos" en un plazo no muy lejano.
¿Qué ocurrirá si las
máquinas comienzan a ‘pensar'?
La Universidad de Oxford acaba de lanzar una carrera mixta
de Filosofía e Informática para formar profesionales que puedan entender la
complejidad técnica, ética y moral de crear un ordenador inteligente. Selmer
Bringsjord, que enseña Filosofía y Lógica, se confiesa muy "preocupado" por el
escaso interés que existe en estudiar las implicaciones que tiene desarrollar
una máquina que, por ejemplo, "pueda volar y quizá decida disparar por sí
misma".
Fuente: 14-2-11
-Hola Alien, ¿sabes sumar?
Nuestro planeta lleva cien años filtrando señales al
espacio en forma de series de televisión, conversaciones de móvil,
comunicaciones militares y programas de radio. Si hay extraterrestres
buscando señales, ya nos deberían haber descubierto y, si están interesados
en aniquilarnos, ya lo habrían hecho". Así de seguro se muestra Jacob Haqq-Misra,
un investigador de la Universidad Estatal de Pensilvania (EEUU), cuando
defiende la necesidad de mandar mensajes a posibles civilizaciones
alienígenas. Como para todo debe haber un orden, este experto en condiciones
habitables de otros planetas acaba de
proponer un nuevo código para hablar con aliensjunto a otros dos investigadores de EEUU y Francia.
Desde que tuvo la inteligencia y la tecnología para
enviar su primer mensaje de radio interplanetario en 1974, la humanidad
ha intentado contactar con inteligencias extraterrestres en un puñado de
ocasiones. Se han enviado números, monigotes antropomorfos y hasta
chistes acuñados por el grupo cómico Monty Python. Debido a la distancia
de ida y vuelta a la constelación de Hércules, a 25.000 años luz,
la respuesta al mensaje de 1974 no
llegará hasta dentro de unos 50.000 años.
Los mensajes retransmitidos de forma inconsciente
podrían llegar antes. Si los alienígenas han llegado a un nivel de
desarrollo similar al nuestro y tienen antenas lo suficientemente
grandes, a estas alturas estarán recibiendo
los primeros programas de televisión grabados en la Tierra en la
década de 1950. En el caso de EEUU sería una serie llamada I love
Lucy y en el de España un partido
entre el Madrid y el Racing de Santander narrado por Matías Prats.
"Por supuesto no podrán entenderlos como hacemos nosotros, pero sabrán
que la señal ha sido fabricada, sabrán que estamos aquí", explica Haqq-Misra.
En un estudio que se publicará en Space Policy,
el experto aboga por un nuevo protocolo para crear mensajes "menos
antropocéntricos" y más inteligibles para mentes no humanas.
Nada de emociones
El equipo aún no ha determinado las reglas exactas para
elaborar los mensajes, y de hecho quieren que participe el mayor número de
personas en decidir cómo abordar el próximo intento de comunicación. Su
objetivo es crear una web que comenzará a funcionar este verano donde podrán
consultarse las directrices publicadas en su estudio para que la gente pueda
proponer mensajes y sistemas de
codificación.
De establecerse el contacto, los comienzos serían áridos,
según Haqq-Misra. "Nuestro mensaje debería
ser muy matemático, comenzando con las definiciones de la suma, la
resta y la multiplicación para después describir la estructura del átomo y
la tabla periódica, porque sería muy complicado transmitir emociones humanas
o ideas como el arte, el amor o la música", propone. Si hay alguien ahí
fuera, de vuelta recibiríamos "leyes de la física y la química según las ven
ellos", se atreve a aventurar Haqq-Misra.
Fuente: publico.es, 13-2-11
-Comienzan las pruebas de "Orion"
Cápsula Orión/NASA
El primer prototipo de la cápsula espacial tripulada
'Orión' ha emprendido su primer viaje, por el momento puramente
terrestre, de Nueva Orleans a Denver y bajo la más estricta supervisión
de los ingenieros de la
NASA.
Antes de salir al espacio, aún tendrá que pasar muchas pruebas aquí en
nuestro planeta.
La cápsula 'Orión' salió este jueves de la planta de
montaje de Michoud (Nueva Orleans) con destino a las instalaciones de la
empresa aeroespacial Lockheed Martin. En su nuevo emplazamiento, este
nuevo vehículo de la agencia espacial estadounidense tendrá que pasar
varias pruebas tanto en agua como en tierra.
En el futuro, la cápsula servirá para
transportar astronautas tras la jubilación de los
transbordadores, pero antes de emprender ese viaje está previsto que
el módulo 'Orión' realice su primer vuelo no tripulado en
2013, según dirigentes de Lockheed Martin.
Nuevos vehículos espaciales
El traslado de la cápsula es un paso más en la
consecución del objetivo anunciado por el presidente Barack Obama
para enviar al espacio una misión con astronautas en 2016.
Las próximas pruebas de la 'Orión' estudiarán cómo responde la nave
a los retos de una misión espacial de gran envergadura como el
ascenso, lanzamientos abortados, operaciones en órbita, trayectoria
de regreso a gran velocidad, despliegue de paracaídas y amerizajes
bajo diferentes condiciones.
Los vehículos 'Orión' tienen un diámetro de
aproximadamente cinco metros en su punto más ancho y se diseñaron para
alojar a cuatro astronautas. Además, a diferencia de los
transbordadores de la NASA, no necesitan pistas de aterrizaje cuando llegan
a su destino, sino que amerizan como ya hicieron otras naves como 'Mercury',
'Gemini' o 'Apollo'.
Cambio de planes
En principio, las cápsulas se pensaron para ir colocadas
en la parte superior del cohete 'Ares I', que las lanzaría al espacio. Los
módulos como el 'Orión' estaban llamadas a sustituir a los
transbordadores espaciales, al borde de la jubilación tras 30 años
de diligente servicio. La idea era que estos módulos espaciales sirviesen
para llevar y recoger astronautas de la Estación Espacial Internacional.
Sin embargo, el año pasado, Obama canceló el
Proyecto Constelación impulsado por su predecesor, George W. Bush y con
él, los planes previstos para la cápsula Orión. El nuevo presidente de EEUU
impulsó entonces un nuevo programa que favorece la exploración de
Marte y de los asteroides. De hecho, la empresa Lockheed Martin ya
ha estudiado cómo conectar varias cápsulas 'Orion' para que viajen juntas en
una misión tripulada a un asteroide. Los dirigentes de la compañía llaman a
este proyecto 'Plymouth Rock'.
Uno de los principales objetivos del nuevo plan de la NASA con la llegada
de Obama a la Casa Blanca es enviar astronautas a visitar un
asteroide hacia el año 2025.
Pruebas en tierra para viajes al espacio
La cápsula 'Orión' de Denver tendrá que demostrar que es lo
suficientemente segura como para llevar a astronautas a misiones
espaciales interplanetarias. Para ello, la NASA también ensayará
los amerizajes de la nave en el Centro de Investigación Langley, en
Virginia. En mayo de 2010, la agencia espacial estadounidense ya comprobó el
sistema para abortar el lanzamiento del módulo 'Orión' -una
torre de lanzamiento propulsada por un cohete diseñada para que la cápsula
se separe de su cohete durante un lanzamiento de emergencia-. El pasado mes
de julio, el diseño de la nave 'Orión' pasó satisfactoriamente la Fase I de
los requisitos que la NASA exige a todos los vehículos
espaciales que van a transportar astronautas.
Fuente: elmundo.es, 12-2-11
-El cerebro hace "zooms" simultáneos para
ver
Una persona charla con dos amigos en un bar repleto
de gente que habla a gritos. A pesar de ello, puede entender a sus
interlocutores porque su cerebro se concentra en las voces que le
interesan y baja el volumen del ruido de fondo. De forma similar, la
corteza cerebral usa diferentes tipos de zoom para percibir la
forma, color y movimiento de los objetos.
Así lo ha demostrado un equipo de investigadores de
la Universidad de A Coruña en un estudio que ha logrado desactivar la
corteza del cerebro en gatos. "En los mamíferos, este
área es el gran filtro de información
entre el mundo exterior y el cerebro", explica Xurxo Mariño, uno
de los autores del trabajo, publicado en PLoS ONE. La
desactivación se ha logrado con estimulación magnética transcraneal (TMS),
que apaga zonas del cerebro temporalmente y cuyos efectos desaparecen
después de un tiempo.
El estudio demuestra que la corteza desactivada es
incapaz de procesar toda la información que le llega, por lo que la
visualización de las imágenes se distorsiona, ofreciendo claves de cómo
ve el cerebro. Una de las respuestas es que lo hace por canales
distintos y paralelos que permiten aumentar el detalle sobre la forma,
color y movimiento de un objeto a la vez.
Fuente: publico.es, 11-2-11
-La
estrategia de las pulgas para dar grandes saltos
Son diminutas -apenas pesan 0,7 miligramos- pero
cuando saltan son capaces de alcanzar los dos metros en un segundo.
Las pulgas tienen una asombrosa habilidad para saltar que desde hace
décadas ha intrigado a los entomólogos.
Un estudio publicado esta semana en
'The Journal of
Experimental Biology' revela cómo lo consiguen y rebate los
resultados obtenidos en investigaciones anteriores. Según el nuevo
trabajo, las pulgas se impulsan con sus pies, en concreto con el
tarso. Desde aquí proyectan la energía almacenada en su
tórax y logran dar sorprendentes saltos.
En 1967, Henry Bennet-Clark descubrió que las
pulgas almacenan la energía necesaria para catapultarse en el
aire en una zona de su tórax compuesta por resilina (la proteína
que permite a los insectos ser flexibles). Sin embargo, no
estaba claro de qué manera lograban impulsarse. En los años
siguientes, tanto Bennet-Clark como Miriam Rothschild formularon
varias hipótesis sobre cómo lo lograban pero no disponían de
equipos de grabación de alta velocidad para comprobarlo.
Los investigadores, liderados por los
científicos de la Universidad de Cambridge Malcolm Burrows y
Gregory Sutton, analizaron el comportamiento de 10 ejemplares.
En total, consiguieron filmar 51 saltos. Según
explican, la tarea no fue sencilla ya que habitualmente graban
con la misma técnica a langostas, mucho más grandes que las
pulgas. Sin embargo, pronto vieron que los insectos se quedaban
totalmente quietos en la oscuridad y sólo saltaban cuando se
encendían las luces, lo que facilitó su trabajo.
Propulsión desde el tarso
Mientras que Rothschild había planteado que
las pulgas se propulsaban con el trocánter (la segunda de las
cinco partes de que constan las patas de los insectos y que está
articulada con la cadera y el fémur), el nuevo estudio ha
descubierto que estos insectos transmiten la fuerza desde el
tórax a las patas y se impulsan utilizando el tarso (la pieza
más externa de la pata), consiguiendo saltar a una
altura de hasta 1,9 metros por segundo.
En la mayor parte de los saltos, el tarso y
el trocánter estaban en contacto con el suelo durante el
'despegue'. Sólo en el 10% de los saltos filmados el tarso era
la única parte de la pata que tocaba el suelo. Es decir, si en
estas ocasiones no necesitaban usar el trocánter, probablemente
esta parte de la pata no era imprescindible para saltar o bien,
las pulgas tienen dos mecanismos para impulsarse.
Para averiguarlo, siguieron recopilando
pruebas. Las grabaciones mostraron que durante el
'despegue' los insectos siguen acelerando, incluso
cuando no utilizan el trocánter. Además, el análisis de la pata
mediante un microscopio electrónico reveló que tanto la tibia
como el tarso estaban equipados con elementos de agarre mientras
que el trocánter era liso, de modo que no podría conseguir un
buen agarre para lograr impulso.
Después, desarrollaron dos modelos
matemáticos que reproducían la trayectoria de la pulga
basándose en las teorías de Rothschild (propulsión desde el
trocánter) y Bennet-Clark (desde el tarso). Al comparar los
resultados con las grabaciones el segundo modelo fue el que
coincidió a la perfección con la trayectoria del insecto y su
aceleración, y pudo confirmar cómo las pulgas han conseguido ser
grandes saltarinas.
Fotogramas del salto de una pulga
Fuente: elmundo.es, 10-2-11
-Estrella a la fuga
Durante décadas, los astrónomos vienen utilizando la
brillante emisión de la estrella Zeta Ophiuchi (ζ Oph) para estudiar,
mediante las absorciones producidas en su vecindad, la composición química
del gas que la rodea. Esta misma estrella, que se mueve a una velocidad de
unos 85.000 kilómetros por hora, también es un prototipo de las denominadas
"estrellas fugitivas". Una imagen de gran campo tomada recientemente por el
telescopio espacial
WISE de la NASA revela ahora el gigantesco frente de choque, en forma de
"arco de proa", que se crea según la estrella se mueve a tan vertiginosa
velocidad.
La estrella fugitiva Zeta Ophiuchi
(en el centro de la imagen). | NASA/WISE, Caltech/UCLA
En una nube
Observada en el visible, la estrella Zeta Oph parece
una estrella rojiza y anodina. Nada más lejos de la realidad. Estudios
en otras longitudes de onda han revelado que esta es una de las
estrellas más masivas y energéticas de nuestro entorno. Situada a 460
años-luz de distancia, 20 veces más masiva que el Sol, 500 veces más
voluminosa, y 68.000 veces más luminosa, Zeta Oph es una estrella
azulada y sumamente brillante que al estar embebida en una nube difusa
nos aparece oscurecida y enrojecida por el material polvoriento que la
rodea.
De hecho, la intensísima radiación de esta estrella
ofrece una oportunidad única para estudiar el medio interestelar. Por
ello, durante más de cuatro décadas, Zeta Oph ha sido utilizada por los
astrónomos para determinar la composición química de la nube de gas y
polvo que la rodea. Este material, al absorber selectivamente la
radiación estelar, produce unas marcas características en el espectro
electromagnético que se observa en la dirección de la estrella. La
identificación de tales absorciones, que son como las huellas digitales
de los diferentes compuestos químicos, revela así la composición química
de la nube que envuelve a nuestra estrella.
La gran masa de Zeta Oph la hace evolucionar a toda
prisa. Las fuerzas gravitatorias en su interior son tan enormes que la
energía nuclear se produce de manera desbocada. Se estima que su edad es
de 4 millones de años, y que tan solo vivirá otros cuatro millones más
antes de estallar en forma de supernova. Una vida muy corta si la
comparamos, por ejemplo, con la vida del Sol. El Sol también parece
encontrarse a la mitad de su vida, pero ya tiene 4.600 millones de años
de edad, unas 1.000 veces más que la edad de Zeta Oph.
Como un proyectil
Pero, además de por su gran masa, Zeta Oph también es
extraordinaria por otro motivo: su vertiginosa velocidad. La velocidad de la
estrella, que se mueve hacia la parte superior de la imagen que encabeza
este artículo, supera los 85.000 kilómetros por hora. Y es que Zeta Oph
pertenece a una clase de estrellas extremadamente veloces conocidas como
"estrellas fugitivas".
Se piensa que Zeta Oph formó parte de un sistema binario
en el pasado y que su compañera en tal sistema era aún más masiva que ella.
La mayor masa de su pareja la hizo explotar antes en forma de supernova
lanzando al espacio la mayor parte de su materia. Como resultado de esta
fenomenal explosión, Zeta Oph salió disparada como un proyectil por el
espacio. Estudiando la trayectoria de la estrella, resulta que aquella
explosión debió suceder hace medio millón de años y que el residuo dejado
por su compañera puede identificarse como una estrella de neutrones o púlsar
(el denominado PSR J1932+1059
Esta explicación para el origen de la alta velocidad de Zeta Oph, parece
ser aplicable a muchas de las estrellas fugitivas entre las que se
encuentran Mu Columbae y AE Aurigae. La identificación de las estrellas
fugitivas y la explicación de su origen fueron obras del astrónomo holandés
Adriaan Blaauw (1914-2010).
Arco de proa
La imagen que encabeza este artículo es una combinación
de varias observaciones infrarrojas. Zeta Oph aparece claramente en el
centro rodeada por las nubes interestelares (representadas en color verde)
que apenas resultan visibles en el óptico. Las nubes más cercanas a la
estrella están sometidas al efecto de la radiación estelar y son, por tanto,
más calientes y excepcionalmente brillantes en el infrarrojo (en tonos
rojizos en la imagen).
Pero la característica más sorprendente de la imagen es
el enorme arco (en amarillo), de unos 5 años-luz de tamaño, en la parte
superior de Zeta Oph. Este es un espectacular efecto de las ondas de choque
generadas por el movimiento tan veloz de la estrella (que viaja desde el
lado inferior al superior). Según se mueve la estrella, el potente viento
que emana de su superficie empuja, comprime y calienta el material
interestelar que encuentra a su paso. Como el movimiento es altamente
supersónico se genera un frente de choque que tiene la forma característica
de arco de proa. Este frente de choque es similar en algunos aspectos, al
que generan los aviones cuando vuelan a velocidades supersónicas en nuestra
atmósfera, o al que se produce en el agua delante de la proa de un barco en
movimiento.
En el óptico esta región no resultaba particularmente
atractiva, pero una mirada en el infrarrojo nos desvela detalles muy
novedosos. Naturalmente el material del frente de choque está sometido a
condiciones físicas extremas de densidad y temperatura, que deben influir
dramáticamente en su composición química. El estudio de tal material es pues
del mayor interés y será objetivo prioritario en estudios futuros.
También interesante
La imagen tomada por WISE es capaz de revelar el arco
de proa gracias a su gran campo de visión (una extensión del orden de
grado y medio, unas 3 veces el diámetro angular de la Luna). Los colores
utilizados representan las radiaciones en diferentes longitudes de onda
infrarrojas: los azules representan la radiación a 3,4 y 4,6 micras, los
verdes la de 12 micras y los rojos la de 22 micras.
Adriaan Blaauw, el descubridor de las estrellas
fugitivas, es considerado el forjador de la Astronomía europea
contemporánea y uno de los astrónomos más influyentes del siglo XX. La
muerte le sorprendió en plena actividad, a los 96 años de edad, el 1 de
diciembre de 2010. El Mundo publicó su obituario el 7 de diciembre.
La constelación de Ofiuco saltó recientemente a la
actualidad como supuesto "descubrimiento" de un nuevo signo en el Zodíaco.
El asunto ha sido explicado con mucho acierto y amenidad por Javier
Armentia en su blog
Cosmos.
Fuente: elmundo.es, 9-2-11
-El
deshielo acelera la "caza" del mamut
La leyenda dice que los cazadores que encuentran un mamut en
Siberia se comen su carne congelada o se la echan a los perros mientras ellos
arrancan los valiosos colmillos del animal extinto. En otras ocasiones, hacen
cosas aún más raras.
"Una vez usé un secador de pelo para descongelar parte de la
carne", explica a Público Dick Mol, uno de los hombres que extrajeron
del suelo helado de Siberia al llamado mamut de Jarkov en 1998.
"Era una mezcla de humedad, orina y heces única
en el mundo; fue la primera vez que olí un animal extinto", asegura Mol,
investigador del Museo de Historia Natural de Rotterdam y uno de los mayores
expertos mundiales en la vida, muerte y extinción del mamut lanudo hace unos
10.000 años.
Cada primavera, las llanuras de Siberia se convierten en un
western. Grupos de científicos, cazadores locales y tratantes de marfil
llegados de Moscú se disputan o colaboran por un botín descomunal. Se trata de
los cadáveres de hasta 150 millones de mamuts lanudos que aún permanecen bajo el
permafrost, el subsuelo helado de la península de Taimyr y la República de Sajá,
dos territorios rusos con una extensión siete veces mayor que la Península
Ibérica .
La tundra funciona como una máquina del tiempo. Sus
temperaturas bajo cero hacen que los mamuts enterrados conserven piel y pelo
sobre los huesos y hasta su última comida en las entrañas.
Por razones que algunos expertos atribuyen al
calentamiento global, el permafrost se derrite cada vez más rápido,
destapando un mayor número de fósiles y convirtiendo las praderas heladas de
Siberia en una tierra de oportunidades.
Con el deshielo y antes de que el corto verano convierta
la tundra en un cenagal intransitable, los científicos desem-barcan en
Siberia para una nueva temporada de caza. Disponen de unas semanas
para localizar el mayor número de restos. Compiten con cazadores locales que
rastrean la tundra durante todo el año y cuyo principal objetivo es el
marfil de mamut, con colmillos de hasta tres metros y 90 kilos.
"Si es marfil de primera
calidad, su precio es de 1.000 euros el kilo", explica Bernard
Buigues, un explorador francés que viaja a Siberia varias veces al año y que
dirige el proyecto Mammuthus. Su objetivo es rastrear Siberia en busca de
fósiles hasta 2014 para que estos no acaben troceados, enviados a tratantes
de Moscú y San Petersburgo y vendidos a China, el mayor consumidor de marfil
de mamut, o en páginas web.
Este mercado ha florecido en parte por la prohibición
internacional del comercio de marfil de elefante en 1989. Desde entonces han
aumentado las exportaciones desde Rusia hasta llegar a la cifra oficial de
60 toneladas al año. "El marfil de mamut no está protegido por ninguna ley,
es como un mineral más de los que hay en Siberia", lamenta Buigues. "Lo
único que necesitas es una licencia para extraer tanto marfil como quieras",
señala el explorador, que advierte que las exportaciones de Rusia llegan a
las 80 toneladas anuales contando el mercado negro. Los colmillos más
vistosos acabarán vendidos a museos o a coleccionistas privados, según
Buigues. Los menos valiosos y los huesos serán troceados y usados en Rusia y
China para hacer figuras de todos los tamaños y formas.
Bernard Buigues observa
los colmillos de un mamut hallados en Siberia en 1999.AP
Uno de los ases de este negocio es Fyodor Shidlovskiy.
Antiguo piloto de avión en Sajá, Shidlovskiy viaja a Siberia cada año en busca
de fósiles. También regenta el Ice Age Museum de Moscú, donde se pueden ver
mamuts y rinocerontes lanudos disecados, comprar
figuritas de marfil e incluso encargar tallas personalizadas.
Los siberianos llevan usando el marfil de mamut desde el
Paleolítico. A veces los colmillos se hallan a simple vista, sobresaliendo de la
tierra como si fueran troncos en una tierra donde no hay árboles, explica Mol.
"Si los colmillos están enteros nos cuentan la vida completa del animal",
detalla. La composición química y el ritmo de crecimiento muestran de dónde
llegó el animal, si tuvo hijos y en qué época del año murió, es decir, son un
tesoro para comprender Quién o qué mató a los mamuts, el nombre de un
proyecto de investigación que Mol y otros expertos inauguraron tras el hallazgo
del mamut de Jarkov.
"En estas tierras todo funciona aún según la ley del Lejano
Oeste", lamenta Régis Debruyne, investigador del Museo Nacional de Historia
Natural de Francia. "Cuando encuentran un mamut, los cazadores limpian los
restos con agua a presión para arrancarlos de la
tierra y lo echan todo a perder", comenta. Debruyne es experto en extraer
y analizar el ADN de mamuts y otros de los enormes animales que poblaron Siberia.
Esta primavera acompañará a Buigues a una nueva expedición para extraer nuevos
restos que están por identificar. El objetivo es localizar y acumular cuantos
más restos mejor.
Si los restos de los mamuts no se retiran a tiempo, se
corrompen, pierden toda su información sobre el animal y su hábitat útil para
los científicos y también acaban por ser inservibles para el comercio. Según el
proyecto Mammuthus, el 70% de los fósiles se pierde para siempre. Los cazadores
comerciales logran un 25%, y los científicos, un 5%. La organización está
promoviendo la colaboración con la población local para que este Lejano Oeste
sea más parecido a una tierra prometida en la que unos puedan hacer ciencia y
otros sacar dinero extra.
"En varias ocasiones han sido los habitantes los que nos han
traído muestras", reconoce Mol, que comenzó a rastrear Siberia en 1997. Como
recompensa de pasar semanas durmiendo en una tienda a temperaturas bajo cero ha
podido quedarse con recuerdos, como el trozo de espalda de mamut que tiene en el
congelador de su casa. "Aún puedo tener aquel olor único si lo descongelo",
concluye.
La nevera rusa
Mamut de Adams
Fue el primer ejemplar casi completo rescatado por investigadores
europeos en Siberia, en 1799 . Aún tenía piel y carne pegada a los huesos,
aunque había sido parcialmente devorado por otros animales.
‘Berezovka'
Fue hallado en lo que hoy es la República de Sajá en 1901. Sus
descubridores rescataron de su boca los restos aún medio masticados de las
hojas que estaba comiendo antes de caer muerto.
‘Yukagir'
Hallado en 2002, este adulto murió hace unos 18.000 años y tal vez estaba
enfermo. Sus entrañas conservaban una última comida con abundante ‘salix',
del que se extrae un componente de la aspirina.
‘Lyuba'
En 2007, un cazador de renos del noroeste de Siberia encontró un mamut de
seis meses que murió hace 40.000 años y que es uno de los mejor conservados.
Le puso el nombre de su mujer.
Fuente: publico.es, 8-2-11
-ZX Spectrum, los videojuegos regresan al pasado
La compañía
Elite ha
anunciado que trabaja en un nuevo modelo de Spectrum que
presentará en 2012. La empresa ha asegurado que la alta demanda
de sus juegos adaptados a dispositivos de móviles ha animado a la compañía
a revivir al mítico dispositivo. En 2012 Spectrum cumple 30 años y Elite
confía en su éxito entre los jugadores de mediana edad más
nostálgicos.
El nuevo Spectrum consistirá en un teclado que cargará
los juegos, muy similar al antiguo modelo. Por el momento no se ha
precisado si se podrá conectar a la televisión, si contará con una
pantalla integrada y si se utilizará en conexión con dispositivos móviles.
En caso de conexión con teléfonos inteligentes de última generación, los
fabricantes han señalado que el nuevo modelo de Spectrum contará con
Bluetooth.
Desde Elite se ha asegurado que al lanzamiento del
nuevo Spectrum le acompañará un variado catálogo de juegos.
Los usuarios podrán disfrutar de los títulos clásicos y nuevos productos
diseñados y adaptados en la actualidad. Los más nostálgicos tendrán la
oportunidad de disfrutar una vez más con uno de los dispositivos que ha
marcado la historia del mundo de los videojuegos.
La compañía Elite es la principal fabricante y
desarrolladora de los juegos clásicos del Spectrum. Los
usuarios de teléfonos inteligentes como el iPhone han adquirido muchos
títulos de juegos o emuladores relacionados con el Spectrum.
Según los datos del diario
The Telegraph, el 67% de los usuarios de móviles de última
generación asegura jugar a juegos en sus terminales.
Fuente: publico.es, 7-2-11
-Las raíces de la Península Ibérica tienen 290 años
La Península Ibérica ha sufrido muchos vaivenes a lo largo de
su historia geológica. Un equipo de investigadores españoles acaba de revelar
que hace entre 310 y 290 millones de años, hubo una serie de
movimientos en las placas tectónicas que cambiaron el panorama del exterior y el
interior del territorio.
En aquella era, el Carbonífero, la península ocupaba
el centro de lo que era el gran continente de Pangea, el
único que existía en el planeta. Los movimientos tectónicos
destruyeron el manto litosférico, que está situado entre 30 y 150
kilómetros de profundidad, y propiciaron la formación de uno nuevo, que es
el que hoy existe.
El trabajo, en el que los científicos han invertido más
de dos años, confirma la tesis que mantenía uno de los investigadores,
Gabriel Gutiérrez Alonso, de la Universidad de Salamanca, puesto que revela
como se formó la cadena montañosa conocida como Arco
Ibero-armoricano. También explica el origen de la gran cantidad de
rocas volcánicas, de granitos y de mineralizaciones asociadas que son la
base de la minería metálica del noroeste de la península Ibérica.
Para desarrollar esta investigación, los geólogos
muestrearon rocas volcánicas que podían haber tenido su origen en ese manto
antes y después de los 310 y 290 millones de años, y que afloran en algunos
puntos de la geografía ibérica. "Sabemos que ese es el momento en el que
sucedió el proceso de transformación, tanto en la superficie como en el
interior terrestre", ha señalado Gutiérrez Alonso.
Los muestreos probaban que el manto anterior al
actual se formó hace unos 1.000 millones de años, mientras que el que
existe ahora es de hace unos 290 millones y reemplazó casi totalmente al
anterior.
Según sus conclusiones, primero se fue doblando la
capa superficial de la corteza (la litosfera), que cambió la forma de la
cadena Arco ibero-armoricano: de alargada pasó a tener forma de
herradura. Con estos movimientos, la litosfera se hizo más
gruesa y, al pesar más, acabó rompiendo el manto que tenía debajo. Fue
reemplazado por materiales del interior de la Tierra, que al enfriarse
constituyeron la litosfera actual.
Durante los próximos dos años, este grupo de
investigadores, del que forman parte científicos de la Universidad de
Salamanca, la Universidad Complutense, la STFX de Canadá y la Bryn Mawr
de Filadelfia, continuará probando este modelo con
modelizaciones analógicas y estudios isotópicos.
Fuente:
elmundo.es, 6-2-11
Gráfico sobre la formación de la
Península Ibérica. |Divulga
-EEUU y Europa batallan por el gemelo de la Tierra
Un exoplaneta apodado Zarmina y supuesto gemelo de la Tierra ha desatado una
guerra científica difícil de zanjar. Según un nuevo estudio realizado en EEUU y
en el que ha participado una astrónoma española, este planeta es habitable y
recibe una radiación de su estrella casi igual que la que la Tierra recibe del
Sol. Para otro experto que ha repasado las observaciones que se han hecho de
este cuerpo, llamado oficialmente Gliese 581 g, hay un 99,99% de posibilidades
de que el planeta no exista.
"Los europeos dicen que no está ahí y los estadounidenses que
sí, nosotros hemos considerado ambas opciones", confiesa a este diario Mercedes
López-Morales, investigadora del Instituto de Ciencias del Espacio (IEEC-CSIC) y
coautora de un trabajo que ha recalculado el tamaño de Gliese 581, la estrella
que calienta a Zarmina, si es que existe.
Mundo invisible
En septiembre, un equipo liderado por el astrónomo
estadounidense Steven Vogt proclamó el descubrimiento de Gliese 581 g, el
planeta más parecido a la Tierra. El investigador llegó a decir que en su
Zarmina, con una masa unas tres veces la de la Tierra y un radio 1,5 veces
mayor, había un 100% de posibilidades de que hubiera vida.
Unas semanas después, otro equipo europeo apeaba a Vogt
del caballo. De acuerdo con las nuevas observaciones del cazador de
exoplanetas más preciso del mundo, el telescopio HARPS, en Chile, el planeta
no existe. Desde entonces, Zarmina habita en un limbo del que será difícil
sacarle hasta dentro de dos años, cuando haya observaciones suficientes. El
hecho sigue alimentando el morbo de que la vida esté brotando en un mundo a
20 años luz de la Tierra.
Los nuevos cálculos del equipo de López-Morales, hechos
con el telescopio CHARA, cerca de Los Ángeles, indican que Gliese 581 es un
poco más grande y fría de lo que se pensaba. Eso redefine dónde se encuentra
la zona habitable en la que puede haber agua líquida y, por tanto, vida. El
nuevo cálculo, que será publicado en Astrophysical Journal Letters,
dejaría a Gliese 581 g en medio de la zona habitable, con unas temperaturas
que oscilarían entre los 51 y los 9 grados bajo cero. El truco está en que,
si como se piensa, el planeta tiene atmósfera capaz de hacer efecto
invernadero, la temperatura máxima llegaría hasta los 21 grados. "Sería como
estar en Canarias", fantasea López-Morales.
Representación artística de Gliese 581
Si está ahí, Zarmina es más una melliza que una gemela. Sus
años duran 10 veces menos (36 días), y su estrella emite 100 veces menos luz que
nuestro Sol, lo que hace que reciba una radiación casi idéntica que la que
recibe nuestro planeta, según López-Morales. Pero según una revisión estadística
del astrónomo Phillip Gregory, de la Universidad de la Columbia Británica
(Canadá), las observaciones de los dos telescopios que han usado los rivales de
EEUU y Europa, el Keck de Hawai y el HARPS en Chile, el planeta g no existe.
Tampoco el f, que también fue anunciado por Vogt.
"Si está ahí, el Gliese 581 g es el lugar perfecto para ir de
vacaciones", opina Ignasi Ribas, un experto en exoplanetas del IEEC-CSIC que no
ha participado en ninguno de los dos estudios. Ribas se inclina por que Zarmina
sea sólo un espejismo. "El equipo de EEUU calculó órbitas totalmente circulares
para los planetas de Gliese 581, pero cuando se usan otras elípticas, más
parecidas a lo que vemos en otros sistemas solares, Gliese 581 g desaparece",
explica Ribas.
"No voy a admitir todavía que [Zarmina] es un planeta
muerto", explica Sarah Seager, experta en exoplanetas del Instituto Tecnológico
de Massachusetts. Vogt y el resto de su equipo siguen defendiendo la existencia
de su planeta y ya están recabando nuevos datos. "Claramente se necesitan más
observaciones para que podamos llegar a un consenso", opina Seager.
Lo mismo cree la propia López-Morales, que advierte de que
aunque el sistema Gliese 581 está siendo "bombardeado con observaciones" por
muchos grupos, se necesitarán al menos dos años para confirmar o descartar a
Zarmina. "La otra opción es comenzar a mandar señales de radio hasta que nos
contesten", concluye la investigadora.
Fuente: publico.es, 5-2-11
-"2012" la película más absurda
En términos estrictamente científicos -y puede que también cinéfilos- '2012'
es la película más absurda de la historia del cine. Así al menos lo creen en la
NASA, cuyos expertos han repasado el género de la ciencia ficción buscando los
argumentos menos afortunados.
Varios miembros de la Agencia Espacial Estadounidense se reunieron en
California para charlar sobre las películas de ciencia ficción que más se
aproximan a la realidad y también sobre las que tienen unas tramas más absurdas
o descabelladas.
Y si bien encontraron argumentos plausibles, como el de la mítica 'Blade
Runner' de Ridley Scott o el de la menos conocida 'Gattaca'
-la película de Andrew Niccol protagonizada por Ethan Hawke, Uma Thurman y Jude
Law-, la mayoría de cintas analizadas desde el punto de vista estrictamente
científico no salen muy bien paradas. También recibieron los parabienes de los
expertos el clásico 'Metrópolis' y la primera entrega de
'Parque Jurásico'.
Harrison Ford en una escena de "Blade Runner"
En términos estrictamente científicos -y puede que
también cinéfilos- '2012' es la película más absurda de la historia
del cine. Así al menos lo creen en la NASA, cuyos expertos han
repasado el género de la ciencia ficción buscando los argumentos
menos afortunados.
Varios miembros de la Agencia Espacial
Estadounidense se reunieron en California para charlar sobre las
películas de ciencia ficción que más se aproximan a la realidad y
también sobre las que tienen unas tramas más absurdas o
descabelladas.
Y si bien encontraron argumentos plausibles, como el de la mítica
'Blade Runner' de Ridley Scott o el de la menos
conocida 'Gattaca' -la película de Andrew Niccol
protagonizada por Ethan Hawke, Uma Thurman y Jude Law-, la mayoría
de cintas analizadas desde el punto de vista estrictamente
científico no salen muy bien paradas. También recibieron los
parabienes de los expertos el clásico 'Metrópolis'
y la primera entrega de 'Parque Jurásico'.
'2012', apocalíptica y rocambolesca
La que cuenta con el dudoso honor de tener el argumento más absurdo y
rocambolesco es el de '2012', la cinta apocalíptica de Roland Emmerich a la
que, al margen de sus variopintos gazapos científicos, los chicos de la NASA
culpan de alentar en la población la idea de que el mundo se acaba
el año que viene. Un miedo que logró recaudar más de 800 millones
de dólares en taquilla el pasado año.
En el segundo lugar del ranking de las cintas más absurdas está
'El Núcleo', otra cinta sobre el fin de la vida en el planeta esta
vez no provocado por una profecía maya sino por el colapso del centro de la
Tierra. Aaron Eckhart y Hilary Swank protagonizaron este despropósito
estrenado en 2003.
El tercer escalón del podio es para una cinta mucho más conocida:
'Armaggedon'. Y es que, desde que se estrenó, al menos una vez al
año podemos ver por televisión a Bruce Willis y compañía salvando el mundo
del letal impacto de un asteroide a golpe de perforación y explosión. Un
proceder nada científico a pesar de que expertos de la NASA aconsejaron a
Michael Bay a la hora de elaborar el guión, aunque parece que el director de
'Transformers' no les hizo mucho caso.
Otros títulos que merecen ser reconocidos como barrabasadas científicas
por la agencia espacial estadounidense son 'Volcano'
(1997), cinta protagonizada por Tommy Lee Jones; 'Reacción en
cadena' (1996), con Keanu Reeves, Morgan Freeman y Rachel Weisz; o
'El Sexto Día' (2000) con el 'siempre riguroso' Arnold
Schwarzenegger.
Fuente: elmundo.es, 4-2-11
-"Mars
500" ya está en la órbita de Marte
La primera
simulación en tiempo real de un viaje tripulado a Marte se aproxima a su
momento álgido: la ‘nave’ llegó el martes a la ‘órbita’ de Marte, tras 244
de ‘viaje’ interplanetario. Tres miembros de la tripulación ‘aterrizarán’ en
Marte el próximo día 12 y realizarán tres excursiones sobre un escenario que
reproduce la superficie marciana.
El programa internacional Mars500 es un estudio pionero de los complejos
aspectos técnicos y psicológicos de los viajes espaciales de larga duración.
Esta simulación lleva en marcha más de ocho meses, durante los que los seis
miembros de la tripulación han permanecido aislados en el interior de unos
módulos que imitan una nave espacial, en las instalaciones del Instituto
IBMP de Moscú.
La tripulación, formada por tres rusos, dos europeos y un chino, vive y
trabaja en el interior de estos módulos imitando al detalle la rutina a
bordo de una nave espacial. Su actividad diaria, estructurada en semanas de
siete días con dos días de descanso, sigue una programación similar a la de
los astronautas que se encuentran en la Estación Espacial Internacional. Las
horas de trabajo durante el ‘vuelo’ se dividen entre tareas de mantenimiento
de la nave, experimentos científicos y ejercicio físico.
“Mars500 es un
experimento visionario”, comenta Simonetta Di Pippo, Directora de Vuelos
Tripulados de la ESA. “Europa se está preparando para dar un gran paso en la
exploración del espacio, nuestra ciencia y tecnología se fortalecen día a
día.”
“Mars500 es tan sólo una simulación, de la que sin duda aprenderemos mucho,
pero ya estamos trabajando para que algún día se convierta en realidad.”
Diego Urbina, uno de los componentes de Mars500 delante de una simulación.
ESA
En órbita virtual a Marte
De acuerdo con el guión de la simulación, la nave entró en órbita a Marte el
pasado martes. La fase de aproximación comenzó el pasado día 24 de diciembre,
cuando la tripulación modificó la trayectoria interplanetaria para acercarse en
espiral a una órbita circular entorno al Planeta Rojo. La tripulación ya
ha abierto la escotilla que comunica la nave principal con el módulo de
aterrizaje que, según el guión, fue lanzado de forma independiente.
Durante los próximos días, la tripulación transferirá equipos y suministros
entre las dos naves y se prepararán para desatracar el módulo de aterrizaje y
‘posarse’ sobre la superficie marciana.
La tripulación se dividirá ahora en dos equipos: Alexandr
Smoleevskiy (Rusia), Diego Urbina (Italia) y Wang Yue (China) ‘aterrizarán’ en
Marte mientras sus compañeros Romain Charles (Francia), Sukhrob Kamolov y Alexey
Sitev (ambos de Rusia) les esperarán en ‘órbita’. La escotilla entre las
dos naves se cerrará el día 8 de febrero. Está previsto que el módulo de
aterrizaje se ‘pose’ sobre la superficie simulada de Marte el próximo día 12.
Actividades Extra-Vehiculares
La primera excursión sobre el escenario que reproduce la superficie de Marte,
instalado en el interior de una gran bóveda adyacente a los otros módulos de
Mars500, tendrá lugar el próximo día 14 de febrero. Alexandr Smoleevskiy y Diego
Urbina se pondrán los trajes rusos Orlan modificados y abandonarán el módulo a
través de una esclusa presurizada.
La segunda salida se realizará el día 18, de la mano de
Smoleevskiy y Wang Yue. La tercera y última tendrá lugar el día 22, en la que
Smoleevskiy y Urbina caminarán juntos de nuevo sobre la superficie marciana.
El día 23 de febrero el módulo de aterrizaje ‘despegará’ de la superficie de
Marte, reuniéndose con la nave principal al día siguiente. Sin embargo,
los tres miembros de su tripulación tendrán que permanecer tres días en
cuarentena antes de poder abrir la escotilla el día 27 de febrero y reunirse con
sus compañeros de expedición.
Todavía quedan más de 200 días para su regreso
El día 28 de febrero la tripulación comenzará a cargar el módulo de aterrizaje
con deshechos y equipos que ya no volverán a necesitar, antes de ‘abandonarlo’
en órbita a Marte. El día 2 de marzo encenderán los motores virtuales de la nave
principal, poniendo rumbo a casa. A partir de ese momento, la tripulación
comenzará una nueva fase rutinaria de ‘viaje interplanetario’ que los traerá de
‘vuelta’ a la Tierra en noviembre de 2011.
Fuente: ESA, 4-2-11
-Grandes avances a pequeña escala
Es un cambio en la
manera de pensar y en la forma científica de ver el mundo. Investigar a nano
escala es trabajar a una medida similar a la que resultaría de la comparación
del planeta tierra con una moneda de céntimo de euro. Significa manipular
partículas del tamaño de una millonésima parte de un metro, lo que permite
trabajar la materia a escala nanométrica, es decir, átomo a átomo. A minúsculas
dimensiones, la materia se ve alterada, y cambian sus propiedades. La gravedad
deja de tener importancia y las fuerzas electrostáticas toman relevancia.
Lo nano tiene y tendrá mucho que aportar. Al modificarse las propiedades de los
materiales, se abre un mundo nuevo de aplicaciones en muchos terrenos: desde la
medicina pasando por la alimentación, el textil y como no, la vivienda.
En la industria de la construcción, ACCIONA destaca en
España como una de las pioneras de lo minúsculo. Como muestra, logra
modificar las fachadas de los edificios para que se mantengan limpias por sí
mismas. Para ello, proporciona propiedades fotocatalíticas a los materiales
que forman dichas fachadas. De este modo, tienen la capacidad de destruir la
suciedad de origen orgánico a través del fenómeno de la fotocatálisis. Este
proceso responde a una reacción fotoquímica que involucra la absorción de
luz ultravioleta por parte de un catalizador, en este caso, un material
semiconductor. Para llevar a cabo la fotocatálisis es necesaria la
activación de este semiconductor a través de la radiación solar.
Mediante esta tecnología, también es posible generar un importante efecto
descontaminante, con eficacia superior al 60% en eliminación de compuestos
volátiles orgánicos, y otros compuestos nocivos procedentes del transporte
como son los Nox.
Esta técnica da como resultado unas fachadas con propiedades autolimpiables
y descontaminantes. "Con ello, se ahorran costes y peligros derivados de la
limpieza de superficies y se preserva el medio ambiente de sustancias
químicas y tóxicas, que actualmente se usan en la construcción", sostiene
Javier Grávalos, jefe de área de materiales de Acciona I+D+i.
Otra ventaja de la fotocatálisis es que permite instalaciones sencillas y no
produce ningún tipo de corrosión ni deterioro de las mismas, ya que el
sistema no emplea el uso de agentes químicos. Este mismo efecto será
aplicable en un futuro próximo a las superficies en el interior de las
viviendas y oficinas, ya que "estamos investigando en que se pueda
conseguirse a través de la luz artificial" señala Grávalos.
La nanotecnología es un campo de investigación con un enorme potencial y, según
la opinión de muchos expertos, cambiará muchos aspectos de nuestra vida.
ACCIONA, a través de sus centros de I+D+i, trabaja en varias líneas de
investigación en nanomateriales, desarrollando nuevas aplicaciones y resolviendo
problemas del día a día.
Un ejemplo de nanotecnología en las obras de ACCIONA es la modificación de
materiales destinada a eliminar el goteo de resina, que resulta ser un obstáculo
en el refuerzo de estructuras. "El procedimiento se realiza mediante
nanopartículas de arcillas", añade Javier Grávalos. Además, ACCIONA "mejora la
resistencia del hormigón de un edificio sin aumentar el contenido de cemento,
con la aplicación de nanomateriales", afirma. Éstos hacen que las estructuras
sean más duraderas.
Precisamente el hormigón, que está presente en muchas de las construcciones que
nos rodean, presenta ciertas dificultades en su manejo. El año pasado, Acciona
debía construir una cúpula para albergar un tanque de gas licuado. Se requería
que el hormigón tuviese unas propiedades muy específicas de resistencia
mecánica, de porosidad, y de fluidez. Para lograrlo, se decidió emplear
nanosílice. Este nanomaterial fue capaz de modificar las propiedades de fluidez,
porosidad y resistencia del hormigón, y se pudo colocar en una estructura
inclinada como es la cúpula. El nanomaterial disminuyó la porosidad del hormigón
e hizo incrementar la seguridad del gas que contenía el tanque. Mejoró la
resistencia del material, sin aplicar mayor cantidad de cemento. "Se solucionó
un problema y, además, se redujeron los costes y las emisiones de CO2
asociadas", comenta Grávalos.
ACCIONA Agua también trabaja en el desarrollo de nuevas membranas a fin de
obtener elementos más resistentes y duraderos en los procesos de ósmosis inversa
(técnica empleada para conseguir agua potable de la salada). De esta forma, se
logra una reducción de los costes asociados al mantenimiento y explotación de
las instalaciones que emplean este tipo de proceso.
Futuras líneas de investigación
Una de las preocupaciones de los investigadores de ACCIONA es dar con una
tecnología que permita la reparación automática de los materiales. Es decir, se
persigue que las estructuras de un edificio se reparen solas al abrirse una
grieta, que las pinturas de los automóviles recobren su aspecto original al
sufrir un roce o que el metal se regenere después de un proceso de corrosión.
"No parece real pero lo será, ya que la nanotecnología unida a la ciencia de
materiales permitirá estos retos", señala Grávalos.
ACCIONA lidera en España el campo de los materiales autorreparables. Para el
desarrollo de la nanotecnología se ha unido a un consorcio de otras 12 empresas
y 21 centros de investigación y universidades en España. También se ha
presentado a la convocatoria del programa CENIT 2010, impulsado por el Centro
para el Desarrollo Tecnológico e Industrial (CDTI) de España. Éste persigue
impulsar la colaboración en I+D+i entre las empresas, las universidades, los
organismos y centros públicos de investigación. A este programa, Acciona ha
presentado un proyecto relacionado con la tecnología de reparación autónoma e
inteligente de los materiales, denominado Trainer.
La eficiencia energética es otro de los principales objetivos medioambientales
de ACCIONA. "Trabajamos desde hace tres años en el desarrollo de un componente
que regule la temperatura y controle el consumo de energía en los hogares",
apunta Grávalos Se trata de unos materiales que absorben y ceden calor, sin
consumo eléctrico, nivelando así el gasto, y cuya aplicación podrá verse
demostrada en una vivienda real en el año 2013. "Sus propiedades y costes de
producción se están mejorando gracias a las sinergias encontradas en la
nanotecnología", concluye.
El centro de I+D de ACCIONA investiga en nanotecnologías desde hace cinco años.
Esta compañía asegura que el desarrollo de estas iniciativas constituye "el
motor del cambio para mejorar la calidad de vida de las personas y crea nuevos
caminos hacia el desarrollo sostenible". El pasado año, la empresa constructora
superó los 71 millones de euros en inversión en I+D+i, un 83% más que un año
antes. Esta elevada cifra le ha permitido aumentar a cien el número de
proyectos.
ACCIONA es la única compañía en España que cuenta con tres centros tecnológicos
de primera línea. Más de 365 profesionales trabajan en sus tres principales
campos de investigación de tecnología para la construcción: los nanomateriales,
que permitan reducir el peso de las nuevas estructuras; la nanotecnología
aplicada a los hormigones y asfaltos, y los materiales multifuncionales que
contribuyen a mejorar la sostenibilidad.
La compañía ha construido en los últimos diez años 1.700 kilómetros de
carreteras, 600 kilómetros de vías férreas y 50.000 viviendas. Además, trabaja
para abastecer de agua a 50 millones de personas en el mundo. Su facturación
ronda los 6.500 millones de euros anuales, y cuenta con una plantilla de 33.000
empleados en 30 países. A día de hoy, tiene 109 proyectos de construcción
comprometidos.
Fuente: Spain
Tecnology, 3-2-2011
-Una luna de Saturno puede albergar un
océano efervescente
Durante años, los investigadores
se han preguntado si
Encélado, una diminuta luna situada a las afueras de los anillos de
Saturno, alberga
un gran océano subterráneo. Nuevas pruebas parecen indicar que es muy
posible que este mundo tenga las entrañas húmedas, pero no solo eso, sino que
además el contenido de sus tripas es
efervescente. Al parecer, según informa la NASA en su web, este mar
estaría
tan lleno de gas como un refresco de cola y podría reunir
las condiciones para la vida microbiana.
Las sospechas de que
Encélado tiene un océano comenzaron en 2005, cuando la sonda
Cassini sobrevoló esta luna para obtener imágenes y datos más precisos
sobre su superficie. «Los geofísicos esperaban que este pequeño mundo
fuera un trozo de hielo frío, muerto y sin interés», recuerda Dennis
Matson, del
Laboratorio a Propulsión a Chorro de la NASA (JPL, por sus siglas en
inglés). Pero no fue así. «Muchacho, ¡nos sorprendió!», admite. Lo que
dejó sin aliento a los investigadores fue que la luna estaba repleta de
penachos de vapor de agua, partículas de hielo y compuestos orgánicos que
salían disparados de unas fisuras abiertas en su caparazón
congelado. Mimas, una luna cercana aproximadamente del mismo tamaño,
estaba tan desolada como los investigadores esperaban, pero no había dudas
con Encélado. Este era un mundo no era nada aburrido.
Desde entonces, muchos
investigadores han visto los chorros de hielo como la prueba de
la existencia de una gran masa de agua subterránea. Unas balsas de
agua líquida con temperaturas cercanas a los 32ºF podrían explicar los
penachos de agua. Pero esta teoría no convencía a todos, porque, si se
trataba de un océano, ¿dónde estaba la sal?
Penachos de gas saliendo del hielo
Origen volcánico
Los instrumentos de la
Cassini habían detectado
carbono, hidrógeno, oxígeno, nitrógeno y diversos hidrocarburos en los
gases de los penachos, pero ninguno de los elementos de la sal que el agua del
océano debería contener. En realidad, las
sales de sodio y potasio, y los carbonatos estaban encerrados en las
partículas de hielo de los penachos. Y la fuente de esas sustancias tenía que
ser un océano.
Las últimas observaciones
de la Cassini revelaron otro descubrimiento interesante. Las mediciones
térmicas comprobaron que algunas fisuras tenían temperaturas altísimas (120º
Fahrenheit). «Esta alta temperatura tiene que ser de origen volcánico. El
calor debe de fluir desde el interior, suficiente para fundir parte del hielo
subterráneo y crear unas balsas de agua», dice Matson. Pero, ¿cómo el
contenido de un océano cubierto por una corteza de hielo de hasta decenas de
kilómetros de espesor puede alcanzar la superficie? Matson contesta de forma
muy gráfica con una pregunta: ¿Nunca te has mojado cuando has abierto la lata
de un refresco?
El modelo que él y sus colegas proponen sugiere
que los gases disueltos en las aguas profundas por debajo de la superficie
forma burbujas. Puesto que la densidad de este agua efervescente es menor que
la del hielo, el líquido asciende rápidamente a través del hielo hacia la
superficie.
«Una gaseosa abierta»
«La mayor parte del agua se extiende hacia los
lados y 'calienta' la capa de hielo, que tiene unos 300 pies de espesor»,
explica Matson. Pero parte del agua se acumula en cámaras subterráneas, bajo
presión, y luego sale disparada a través de pequeños agujeros en el suelo,
«como una gaseosa abierta escupe su contenido». Cuando el agua se enfría, se
filtra hacia abajo para llenar el océano e iniciar el proceso una y otra vez.
Los científicos no tiene claro cómo esta pequeña
roca llega a calentarse, aunque creen que puede tratarse de lo que se llama
calentamiento por marea, la fuerza de atracción de Saturno, que incluso
provoca que la forma de Encélado cambie ligeramente a medida que orbita. Estas
fricciones internas animan la actividad volcánica, lo que aumenta el calor y
derrite el hielo.
«Está claro ahora que, sea lo que sea lo que
produce el calor, Encélado cumple con muchos requisitos para la vida», apunta
Larryu Esposito, investigador de la Universidad de Colorado. «Sabemos que
tiene un océano líquido, materia orgánica, y una fuente de energía. Y para
colmo, sabemos de los
organismos en la Tierra en ambientes similares». Un mundo que todavía
puede dar muchas sorpresas.
Fuente: abc.es, 3-2-11
-Tecnología novedosa para la creación de nuevas células
Según la Organización Mundial de la Salud (OMS), las lesiones
graves causadas por el fuego provocan más de 320.000 muertes al año. Los
expertos creen que la mayoría de estas muertes podrían evitarse gracias a la
cirugía. Pero la intervenciones quirúrgicas se complican cuando no queda
suficiente piel en el paciente quemado para poder hacer injertos en las partes
más dañadas de su cuerpo. La nueva piel se debe cultivar a partir de células
cutáneas del propio paciente, un largo proceso que puede acarrear deshidratación
e infección. Los científicos descubrieron que se pueden utilizar materiales
poliméricos (sintéticos), conocidos por su amplia gama de propiedades y que se
encuentran en plásticos, biopolímeros y proteínas, para hacer crecer células
humanas y que éstas se multipliquen, pero con resultados poco eficaces.
Para dar con una solución se creó el proyecto ModPolEUV,
que reunió a investigadores de Austria, República Checa y Polonia para
desarrollar con éxito una forma nueva y sencilla de crear materiales
nanoestructurados que facilitan el desarrollo de células humanas. ModPolEUV
cuenta con el apoyo de EUREKA, la plataforma europea de investigación y
desarrollo (I + D).
«Hace unos diez años, los científicos descubrieron la gran influencia que
tenían las nanoestructuras sobre la manera en que se desarrollaba una línea
de células», explicó el coordinador del proyecto, el profesor Johannes Heitz
de la Universidad de Linz (Austria). «Fue el comienzo de un nuevo campo
científico, a medio camino entre la medicina y la nanotecnología.»
La Universidad Militar de Tecnología de Varsovia (Polonia) dirigió el
desarrollo de una nueva tecnología láser llamada EUV (ultravioleta extremo)
que permitió crear superficies de polímeros nanoestructurados. En cuanto al
socio de la República Checa, REFLEX, éste diseñó un espejo que forma un haz
de luz EUV que, dirigido sobre una superficie, permite sintetizar los nuevos
materiales poliméricos.
Gracias a esta técnica innovadora, los investigadores pueden garantizar un
alto grado de precisión, de entre 10 y 20 nanómetros. Las mejores técnicas
tradicionales pueden obtener un nivel de precisión máximo de 100 nanómetros.
«Una de las últimas teorías en el campo de cultivo de células es que cuanto
menor sea la estructura, mayor será la posibilidad de manipular las células»,
afirmó el profesor Heitz. Una gran ventaja con la técnica UVE es que la
estructura del material se conserva, un aspecto en el que suelen fallar los
métodos convencionales.
«Si el material se va a utilizar para cultivar células humanas, es esencial que
la estructura sea regular», explicó el profesor Henryk Fiederowicz de la
Universidad Militar de Tecnología.
Cabe señalar que las nanoestructuras generadas con tecnología UVE pueden afectar
el comportamiento de las células orgánicas. Según los miembros del equipo,
dependiendo del tipo de superficie de polímero utilizado se pueden mejorar y
acelerar los cultivos de otros tipos de células. El material que se utilice para
cultivar células madre humanas determinará cómo dichas células se transformarán
en otro tipo de células humanas. «El uso de un tipo de material polimérico u
otro nos ayudará a cultivar diferentes tipos de células musculares, nerviosas,
células adaptadas al corazón humano, los huesos o a cualquier otra parte del
cuerpo humano», añadió el profesor Heitz.
Los socios entienden que esta nueva técnica se puede aplicar en muchos ámbitos
diferentes, incluida la biotecnología, la microelectrónica y la óptica
integrada. Si bien la tecnología de cultivo de células se encuentra todavía en
fase de prueba, el equipo dice que los resultados son «hasta ahora, muy
alentadores».
Fuente: CORDIS, 2-4-11
-Un
genoma para conquistar el mundo
Investigadores de EEUU y Europa desvelan hoy los genomas completos de tres
especies de hormigas, dos de ellas invasoras, que podrían ayudar a mantener a
raya la expansión de estos insectos fuera de su hábitat y que explica su
talento para la conquista.
Una de las especies secuenciadas es la hormiga
argentina (Linepithema humile), considerada por algunos expertos
como el insecto más invasivo del mundo. La especie ha conquistado todos
los continentes excepto la Antártida y forma megacolonias que se extienden
a lo largo de miles de kilómetros. La secuenciación de su genoma se
publica hoy en PNAS junto a los de la hormiga de fuego (Solenopsis
invicta), otra invasora originaria de
Suramérica que se ha extendido por EEUU, Asia y Oceanía, y las
hormigas rojas cosechadoras (Pogonomyrmex barbatus), cuyas
poblaciones en el suroeste de EEUU están descendiendo debido al avance de
las otras dos especies. En su Suramérica natal, las poblaciones de hormiga
argentina pelean entre sí por el territorio. No sucede lo mismo fuera de
su hábitat, pues todas las poblaciones que ahora se extienden desde EEUU a
Japón pasando por Italia, Francia y España, no se atacan las unas a las
otras, debido a su cercanía genética. A su paso, la especie barre la
presencia de otras hormigas, poniendo en serio peligro las especies
autóctonas.
Su genoma revela ahora
que la especie tiene 367 genes para oler y 116 para el gusto, una
gran ventaja comparada con otros insectos sociales como la abeja (174 y
10, respectivamente), según el trabajo, liderado por Neil Tsu-tsui, de la
Universidad de California en Berkeley (EEUU). Los autores de los tres
genomas apuntan que la casta de las hormigas (si serán reinas fértiles u
obreras estériles) está gobernada por cambios químicos en su ADN que
activan o desactivan determinados genes y que podrían ser claves para
controlar su expansión si se logra controlarlos para reducir el número de
reinas.