Inicio

 

Ya puedes DESCARGAR todos nuestros PROGRAMAS DE RADIO "EL ALEPH" en la Sección NOSOTROS-PROGRAMACIÓN--

 

NOTICIAS CIENTÍFICAS


NOTICIAS DE ULTIMA HORA

--Nuevas Noticias Próximamente--

NOTICIAS EXTENDIDAS

Octubre 2007

TITULARES DE LAS NOTICIAS DEL MES

 

Las especies se extinguen 100 veces más rápido de lo natural

Defectos en el universo primitivo

Un panel instalado recientemente en la Estación Espacial se rompe

NEC lanza el superordenador por vectores más rápido del mundo

El cáncer podría tener el mismo origen metabólico que la diabetes o la obesidad

Podría existir más de un universo

Descubierto el animal más viejo del mundo

Nuevo récord de impulso en los motores iónicos

Dos astronautas del Discovery realizan su primer paseo espacial

Descubren rastros de una antigua luna de Saturno en sus anillos

Un campus faraónico sobre el Mar Rojo

Los neandertales eran pelirrojos

El Airbus A380 hace su primer vuelo comercial

China lanza con éxito el satélite que abre su carrera para poner pie en  la Luna en 2020

La Estación Espacial Internacional tiene otra pieza

Viaje al centro de la Tierra

El mapa de nuestras diferencias genéticas

En el 2020 veremos el Ártico sin hielo

La revolución de la nanotecnología

La revolución de la nanotecnología

El "Eureka" de cinco magníficos

La pastilla antisida llega a Europa

Cambio de horario: más molesto que rentable

Por primera vez, una mujer al frente de la Estación Espacial Internacional

Científicos españoles descubren que el cuerpo carotídeo crea células madre convertibles en neuronas

La ley de biodiversidad se echa al mar

Descubren un agujero negro junto a una estrella

Animales en peligro de extinción

Estirpes de ratones noqueados para descifrar sus genes

Microsoft quiere patentar un lector de mentes

Descubren en la Patagonia argentina una nueva especie de dinosaurio herbívoro

El 90% del proceso tumoral ocurre sin que nos demos cuenta

Un lugar de Marte donde situar una nave terrestre

Un granjero creó minicerditos

A la búsqueda de vida extraterreste

La NASA celebra los diez años del lanzamiento de Cassini

Al Gore, Premio Nobel de la Paz

El investigador alemán Gerhard Ertl es el ganador del Premio Nobel de Química

Nuevas imágenes de Titán

El Nobel de Física premia a  los descubridores de la "magneto resistencia gigante"

El Nobel de Medicina va a parar a tres científicos estadounidenses

Craig Venter, el padre del genoma, anuncia que ha logrado sinterizar un cromosoma artificial

Hallan una estrella gemela al sol

Japón lanza un satélite a la Luna

Concedidos los Ig Nobel del año 2007

El agujero de la capa de ozono se reduce un 30% con respecto a 2006

Las células madre de las células óseas potencian la metástasis en el cáncer

Arranca la "guerra del Ártico"

Cuidado, astrónomos, con la energía oscura 

La ciencia que lee la mente

Los neardentales llegaron a Siberia

Alcatel Lucent inventa la TV inteligente de banda ancha

El fotón abre una nueva vía en el procesamiento de información

50 años del lanzamiento del Sputnik

 

Archivo

 


-Las especies se extinguen 100 veces más rápido de lo natural

En 1987, la ex primera ministra noruega Gro Harlem Brundtland lanzó la primera gran alerta ecologista. En el informe Nuestro futuro común concluía: "El coste de la pobreza, en sufrimiento humano, en el derroche de los recursos humanos y en la degradación ambiental se ha ignorado enormemente".

Han pasado 20 años, la población ha aumentado un 34% y la renta per cápita media ha ascendido en casi un 40%. Pero las cosas no parecen haber mejorado, según el IV Informe mundial sobre el medio ambiente elaborado por la Oficina de Naciones Unidas de la materia. El texto, de 572 páginas y elaborado con colaboración de 1.000 expertos, repasa los grandes problemas del medio ambiente. Estos son tres de los más importantes.

- Sexta extinción. "Las especies se están extinguiendo a unas tasas que son 100 veces más rápidas que las observadas a través de los registros fósiles, debido a los cambios de uso del suelo, la pérdida de hábitat, la sobreexplotación de los recursos y la expansión de especies invasoras". Desde los dinosaurios el mundo no ha vivido nada parecido. "Más del 30% de los anfibios, el 23% de los mamíferos y el 12% de las aves están amenazados", según la ONU.

A estos factores hay que añadir la pérdida de biodiversidad en los cultivos. "Sólo 30 tipos de cultivo proporcionan el 90% de las calorías del mundo y 14 especies animales constituyen el 905 de la actividad ganadera del mundo".

- Cambio climático. El cambio climático es uno de los grandes desafíos de la humanidad. Tanto, que para hacerle frente "las emisiones de gases de efecto invernadero deberían reducirse en un 50% para 2050 respecto al nivel de 1990". Según las Naciones Unidas esa es la reducción necesaria para que la subida media de la temperatura no supere los dos grados centígrados, el nivel a partir del cual "es posible que se produzca gran daño irreversible". Para ello, los países desarrollados deberían reducir sus emisiones entre el 60% y el 80% para 2050. "El objetivo no es presentar un escenario negro y pesimista, sino una llamada urgente para la acción", señala el estudio, aunque no lo parece.

- Sobreexplotación. El informe incide en una vieja preocupación ecologista: que el consumo masivo de recursos supera la producción de materias primas. Es decir, que la humanidad consume cada año más de lo que el planeta genera. Para ello, en los últimos años se ha desarrollado el concepto huella ecológica, que mide el consumo equivalente a la producción por la superficie terrestre. "La población del mundo ha alcanzado un estado en el que la cantidad de recursos necesaria para mantenerlo supera lo que hay disponible. La huella ecológica de la humanidad es de 21,9 hectáreas por persona, mientras que la capacidad biológica de la Tierra es, de media, de sólo 15,7 hectáreas por persona".

Un 60% de los ecosistemas están sobreexplotados, aunque el mayor abuso se da en la pesca. Según el estudio la pesca es un claro ejemplo. Actualmente se pesca a un ritmo casi cuatro veces mayor de lo que pueden soportar los océanos.
 

Fuente: El País Digital, 31 de Octubre de 2007

 

 

-Defectos en el universo primitivo

En el mapa del cielo que está haciendo el satélite WMAP se aprecia una gran mancha muy fría en la radiación más antigua que se puede ver. La descubrieron hace cuatro años unos físicos españoles y nadie encontró una buena explicación. Ellos, por supuesto, siguieron dándole vueltas al asunto, estudiando más datos y haciendo más análisis, y ahora creen que han logrado aclarar el origen de la mancha: se trata de la huella de algo llamado textura cósmica, una extraña burbuja de energía o, sencillamente, un defecto del universo primitivo.
 

"Aunque sea radical, la hipótesis de la textura es la explicación más plausible de las propuestas para la mancha", escriben estos investigadores en la revista Science, donde presentan su trabajo. Si están en lo cierto, debe haber más defectos cosmológicos en forma de manchas frías o calientes, la cuestión es descubrirlas.

Inmediatamente después de la explosión inicial, el universo ultracaliente y ultradenso empezó a enfriarse y a expandirse. Al ir cayendo la temperatura se produjeron transiciones de fase, algo fácil de comprender si se piensa en la congelación del agua líquida, cuando se convierte en hielo. Las transiciones de fase del universo primitivo son más exóticas, pero igual que en el cubito de hielo se forman irregularidades en el proceso de cristalización de líquido a sólido, en el cosmos pudieron formarse defectos en las transiciones de fase, aunque no se había detectado ninguno hasta ahora.

La idea se remonta a hace casi 30 años, cuando unos físicos de partículas teóricos conjeturaron que en las transiciones de fase del universo ultracaliente primitivo, a la vez que las fuerzas fundamentales dejaban de estar unificadas, cuando apenas habían transcurrido unas millonésimas de segundo desde el Big Bang, se podrían formar esos defectos. Pero no se detectó algo así en el cosmos.

Ahora, los investigadores del
Instituto de Física de Cantabria (IFCA) Marcos Cruz, Patricio Vielva y Enrique Martínez, junto con dos colegas británicos, han rescatado esa conjetura porque encaja muy bien con lo que ellos habían observado en el cielo: el defecto, la textura, dejaría una huella en forma de gran mancha de mayor o menor temperatura -en este caso menor- que la media de la radiación de fondo que mide WMAP.

El universo primitivo estaba demasiado caliente para que se formaran átomos y para que se emitieran los fotones de la luz. No fue hasta unos 380.000 años después de la explosión inicial cuando el cosmos, expandiéndose y enfriándose, alcanzó una temperatura suficientemente baja para que se unieran electrones y protones formando primeros átomos de hidrógeno y empezando los fotones de la luz a circular libremente. El cosmos, en ese momento, se hizo transparente. El símil de la piscina de agua hirviendo llena de burbujas que se enfría y, al alcanzar una temperatura inferior al punto de ebullición del agua, se hace transparente, es un símil útil.

Lo que el WMAP mide es la radiación del universo emitida en aquel momento, 380.000 años después de la explosión inicial o, lo que es lo mismo, hace 13.500 millones de años. Es la radiación -muy fría- más antigua que se puede ver, ya que antes el universo era opaco. Se descubrió en 1965.

"Esta radiación, que se observa ahora en todas las direcciones del cielo a una temperatura de unos 270 grados centígrados bajo cero, representa la mejor prueba de un pasado denso y caliente del universo en el que los átomos estaban divididos en sus componentes más elementales. Este escenario cosmológico es lo que denominamos comúnmente como Big Bang", explica Martínez.

Esa radiación de fondo, que parecía uniforme, resultó no serlo cuando se lograron desarrollar sensores suficientemente sensibles para detectar minúsculas variaciones de temperatura, pequeñas irregularidades que servirían para explicar por qué ahora la materia no está uniformemente repartida por el cosmos sino agrupada formando conjuntos de galaxias, galaxias, estrellas y planetas. Y WMAP, más sensible que su predecesor COBE, también de la
NASA, está haciendo un mapa de alta precisión de esas ligeras variaciones de temperatura.

"Hace unos cuatro años, un grupo de investigadores del IFCA descubrimos la presencia de una mancha muy fría y muy grande en el mapa de todo el cielo producido durante el primer año de funcionamiento de WMAP, algo que había pasado desapercibido para el propio equipo científico responsable del satélite", recuerda Martínez.

La mancha es realmente grande, unos 10 grados de diámetro -la Luna mide medio grado en el cielo- y su origen era un misterio. La explicación aparentemente más sencilla la propusieron unos científicos estadounidenses: es un gran vacío cósmico, una región del cielo donde no hay galaxias.

Pero a los físicos de Cantabria no les cuadraba este gran vacío con su mancha fría, que seguían estudiando. "Sería un vacío de proporciones descomunales (de varios cientos de millones de años luz de diámetro)", dicen, "y en total contradicción" con la teoría estándar del Big Bang. "La explicación de la mancha como un gran vacío no es otra cosa que solucionar un problema creando otro problema", afirma Martínez. Sin embargo, la hipótesis del defecto, de la textura cósmica, encaja mucho mejor con los datos de la mancha fría, dicen Cruz y sus colegas.

La idea es que en aquella remota transición de fase de la materia y radiación del universo primitivo (como en la cristalización imperfecta del cubito de hielo), se formarían unos objetos tridimensionales, como unas burbujas de energía, cuya huella sería identificable en la luz del universo cuando éste se hizo transparente. "Dentro de una de esas burbujas, los campos energéticos que forman la textura están enmarañados", explica Cruz. "Las texturas y otros defectos deberían ser detectables como variaciones de temperatura en la radiación de fondo cósmico de microondas [lo que detecta el WMAP]".

¿Por qué detecta el sensor del satélite la huella de esa burbuja de energía enmarañada? Porque la radiación, la luz fría del fondo de microondas, siente su efecto gravitatorio al pasar cerca, efecto que ve el satélite en forma de mancha fría, contesta Martínez. La teoría indica que se formarían no uno, sino muchos defectos, fríos y calientes; los científicos están buscándolos.

Los propios autores de la investigación publicada en Science, así como otros expertos, advierten de que la cuestión no está zanjada. "Aunque el origen de la mancha fría no está totalmente demostrado, este hallazgo podría aportar nuevos puntos de vista sobre la infancia del universo", dice Cruz.

Su colega Neil Turok, de la
Universidad de Cambridge (Reino Unido) añade: "Será muy interesante ver si esta explicación se confirma en los próximos años. Si es así, las implicaciones serán extraordinarias porque las propiedades del defecto proporcionarán una ventana absolutamente única abierta hacia la unificación de las partículas y las fuerzas", unificación que se rompería en aquella transición de fase a la vez que se formarían las texturas en el universo primitivo enfriándose.

"El futuro satélite Planck de la
ESA, que medirá el cielo de microondas con mayor precisión que WMAP y cuyo lanzamiento está previsto para julio de 2008, podrá confirmar la presencia de ésa y otras texturas en el universo", señala Vielva.

Fuente: elpais.com, 31 de Noviembre de 2007
 


 

-Un panel instalado recientemente en la Estación Espacial se rompe

El panel solar que estaba siendo desplegado de una viga, instalada recientemente, en la Estación Espacial Internacional (ISS) se rompió ayer, obligando a la NASA a suspender la operación y poniendo en duda los planes de expansión de la base orbital.

Parte del extenso panel con forma de ala se veía roto y arrugado en imágenes de televisión obtenidas desde el espacio.

Brecha abierta en el panel solar

La NASA había dicho que el despliegue del conjunto de paneles era crítico para proveer de electricidad a los laboratorios europeos y japoneses, cuya llegada a la estación comenzaría en diciembre, operación que se había retrasado ya después de que se hubiera averiado el mecanismo que hace rotar otro panel solar.

Los astronautas de la estación detuvieron el despliegue del panel cuando detectaron el daño, e indicaron que el brillo del sol les había impedido verlo con anterioridad.

"Parecía como si el daño hubiera aparecido repentinamente", dijo Pamela Melroy, comandante del transbordador espacial 'Discovery', que se encuentra acoplado en la ISS.

Los ingenieros de la NASA en la base de control de la misión en Houston dijeron a los astronautas que registren fotos del daño para estudiarlo en Tierra y les indicaron que replegaran parcialmente el panel para reducir la tensión en la rotura.

De momento, no se ha anunciado cual será el siguiente paso de la NASA, pero funcionarios dijeron el pasado lunes que si había problemas desplegando el panel, los astronautas que habían planeado revisar el mecanismo de rotación ya averiado deberían trabajar en el panel solar.

El contratiempo empaña lo que había sido un día exitoso para los astronautas, quienes instalaron previamente en la estación la viga de 17,5 toneladas en la cual estaba almacenado el panel.

Preocupación por falta de energía

La viga fue colocada con la ayuda de los caminantes espaciales Scott Parazynski y Douglas Wheelock, quienes guiaban el brazo robótico manejado por Daniel Tani y Stephanie Wilson.

El dispositivo había estado encima de la estación por siete años esperando ser ubicado en su posición permanente. "Se ve bien, hombre del espacio", decía uno de los caminantes espaciales mientras realizaban la tarea.

Una vez que la viga estuvo instalada, la mitad del conjunto de paneles solares, integrado por dos paneles separados y de 73 metros de longitud cuando está completamente extendido, fue desplegada sin dificultad. El problema ocurrió cuando la otra mitad estaba siendo extendida.

Este se suma a los problemas de energía de la estación, después de que la NASA desactivara el domingo uno de los dos ensamblajes rotarios de tres metros de la estación que permiten al conjunto de paneles apuntar hacia el Sol para producir electricidad.

El ensamblaje, instalado en junio, ha estado activo por dos meses. Tani encontró virutas de metal dentro del mecanismo el domingo durante una caminata espacial. La viruta indicó que las partes móviles de metal se están gastando, lo que hizo que la NASA extendiera en un día la estancia del transbordador 'Discovery' en la ISS para que Parazynski y Wheelock puedan inspeccionar de cerca el ensamblaje durante una caminata espacial de mañana y determinar qué reparación se necesita llevar a cabo.

Fuente: elmundo.es, 31 de Octubre de 2007

 

-NEC lanza el superordenador por vectores más rápido del mundo

La compañía japonesa NEC afirmó que ha lanzado el superordenador de vectores más rápido del mundo, el modelo SX-9, con una velocidad de procesamiento de datos de 839 TFLOPS, según informó la agencia de noticias Kyodo.

El ordenador de NEC, una computadora equipada de procesadores de vectores que podrá emplearse para propósitos científicos o técnicos, realizará 839 trillones de operaciones por segundo.

Este tipo de ordenadores se emplean en computación compleja y de gran escala para sistemas como la climatología, la aeronáutica o el estudio del espacio, además de simulaciones medioambientales o dinámicas de fluidos.

El modelo SX-9 ocupa un cuarto del espacio y consume un cuarto de la energía que los superordenadores convencionales.

NEC comenzará a exportar el producto en marzo, que se distribuirá por el sistema de 'leasing' (arrendamiento financiero con opción a compra) a cambio de casi tres millones de yenes la unidad (unos 26.270 dólares).

La empresa prevé vender 700 unidades en los próximos tres años.
 

Fuente: EFE, 30 de Octubre de 2007

 

 

-El cáncer podría tener el mismo origen metabólico que la diabetes o la obesidad

Hasta ahora se pensaba que las células tumorales consumían más energía que las sanas debido a que se dividen mucho más rápidamente. Sin embargo, una investigación española aporta nuevos datos que podrían darle la vuelta a la tortilla. Según publica esta semana la revista 'Nature Reviews Cancer', las alteraciones metabólicas no son una consecuencia del cáncer, sino que podrían ser la causa del tumor.
 

Como explica a elmundo.es Javier Menéndez, coordinador de la Unidad de Investigación Traslacional del Instituto Catalán de Oncología (ICO) en Girona y principal autor de esta investigación, este estudio aporta nuevos datos a un debate que se inició hace casi un siglo y que ha estado un poco olvidado por parte de la comunidad científica.

Las pruebas radiológicas, por ejemplo, emplean la glucosa para marcar las células cancerosas porque se sabe que éstas la consumen en grandes cantidades y permite 'verlas' con más facilidad. "Sin embargo, nadie ha pensado que, al contrario, esa alteración del metabolismo de los ácidos grasos pueda ser una causa y no una consecuencia".

En trabajos de laboratorio con células de mama sanas, el equipo de Menéndez ha logrado reconstruir el proceso tumoral, remontarse a la fase en la que las células empiezan a dividirse anómalamente. "En ese momento", explica el investigador, "las células malignas viven en unas condiciones de estrés ambiental, les falta oxígeno, el medio que les rodea es muy ácido...".

Convertir azúcar en ácidos grasos

En ese medio hostil, las células cancerosas son capaces de activar una enzima que les permite seguir siendo metabólicamente independientes. Es decir, seguir nutriéndose. Esa enzima es la sintasa de los ácidos grasos (SAG), una proteína capaz de convertir los azúcares de la dieta en ácidos grasos, en grasa endógena.

En las personas sanas, la mayoría de los tejidos prefieren utilizar los ácidos grasos que provienen directamente de la dieta (exógenos), y por tanto la actividad de la enzima SAG es muy baja. "Sólo en la lactancia se activa SAG de manera controlada porque el niño necesita ácidos grasos en esa etapa de su vida y la glándula mamaria se encarga de producirlos", añade Menéndez.

En sus trabajos con cultivos celulares, Menéndez y los suyos observaron que con sólo activar esa enzima en células sanas de la mama bastaban unas pocas horas para que se 'despertasen' una serie de genes claves en el proceso tumoral, como el conocido HER2. "Estamos muy lejos aún de disponer de fármacos muy específicos, capaces de actuar contra SAG cuando éste se descontrole", admite el investigador, "pero sí sabemos que en el caso del cáncer de mama hay algunos subtipos de tumores que son muy lipogénicos". Es decir, muy dependientes de los ácidos grasos y de esta vía metabólica.

Además, reconoce que uno de los puntos más interesantes de este trabajo es que abre la puerta a utilizar fármacos que ya están en el mercado, contra la obesidad o la diabetes tipo 2, para luchar contra el cáncer de mama en combinación con otros antitumorales. "Lo mires por donde lo mires", apunta, "los ácidos grasos tienen un papel clave en el origen del cáncer". Bien sean los de tipo exógeno, como ya se ha demostrado al relacionar una dieta rica en grasas con mayor riesgo tumoral; o bien los de tipo endógeno, como apunta este estudio.

De hecho, Javier Menéndez, que ya demostró el potencial anticancerígeno del aceite de oliva sospecha que las grasas 'buenas' de este ingrediente, en realidad funcionan engañando a SAG. Es decir, "el ácido oleico del aceite de oliva apaga esta factoría y les dice a las células malignas que no utilicen los ácidos grasos endógenos, sino esta grasa exógena, que es buena".

Fuente: elmundo.es, 29 de Octubre de 2007

 

 

-Podría existir más de un universo

Cosmólogos norteamericanos han detectado lo que podrían ser las huellas de otro universo que colisionó con el nuestro poco después del Big Bang. Estos investigadores señalan que la existencia de otros universos podría demostrarse gracias a la medición de la radiación de fondo de microondas, ya que, si en el inicio de nuestro universo, éste hubiera colisionado con otros universos, hipotéticamente tal choque quedaría registrado en la distribución de dicha radiación. Hasta ahora nadie ha intentado buscar dicha irregularidad, pero los autores de este estudio han encontrado al menos una llamativa asimetría anómala en el cosmos que, aunque no se atreven a afirmar que se trata de la huella de otro universo, consideran que esta hipótesis puede ser el comienzo de un largo proyecto de investigación

Si existen otros universos aparte del nuestro, éstos podrían ser detectables, predicen científicos en un nuevo estudio cuyos resultados han sido publicados en la revista Physical Review D. En este estudio, Matthew C. Johnson y sus colaboradores, Anthony Aguirre y Assaf Shomer, de la universidad de California en Santa Cruz, explican que han evaluado la posibilidad de que existan algunos efectos observables o “marcas” distinguibles que otros universos hubieran dejado en el nuestro, debido a colisiones entre ellos acaecidas en la época en que nuestro universo era aún muy reciente.

La idea de que existen otros universos es controvertida en la cosmología actual. Si realmente existieran, lo más probable es que no sean perceptibles y sería muy difícil probar su existencia. Lo que aporta el nuevo estudio es la hipótesis de que, si realmente existieron otros universos que colisionaron con el nuestro, hipotéticamente podríamos hoy detectar su presencia, lo que en opinión de los autores de este estudio constituye un trascendental descubrimiento.

Al mismo tiempo, estos investigadores reconocen que las consecuencias de esa eventual colisión entre universos continúan siendo una cuestión abierta, ya que, aunque se considera que si hubo colisión entre universos ambos habrían sido destruidos, lo que proponen estos científicos es una nueva aproximación.



Johnson ha declarado al respecto a la revista World Science que aún queda por definir qué tipo de secuelas habría que buscar para confirmar el choque entre los universos. Algunas teorías físicas señalan que realmente existen otros universos, llamados universos burbuja y que cada uno de ellos tiene sus propias características e incluso valores diferentes de las constantes físicas.

Demostrar la transmultiversalidad

Tras la idea de los universos burbuja subyace la hipótesis de que, aparentemente, el espacio entero contiene energía, la llamada
energía del vacío, que es una energía de fondo de origen puramente cuántico y responsable de efectos físicos mensurables, como el efecto Casimir (fuerza física ejercida entre objetos separados debido a la resonancia de los campos energéticos en el espacio entre los objetos).

Algunos cosmólogos han propuesto que, si se dan ciertas circunstancias, esta energía puede crecer de manera explosiva dando lugar a un nuevo universo –como ocurrió con el nuestro-. Esto podría estar sucediendo continuamente, generando muchos universos que coexistirían con el que conocemos de la misma forma que coexisten las burbujas en un baño espumoso.

Analizar la radiación del fondo cósmico

¿Pero cómo saberlo? Johnson y sus colegas creen que cualquier encuentro o colisión entre los universos habría producido efectos que se propagarían en ambas direcciones. Dichos efectos quizá dejaran huellas en la forma de material expelido, que podrían afectar a la distribución de la materia en cada universo afectado.

Si un tipo de colisión así hubiera acontecido recientemente, desde la perspectiva temporal de nuestro universo, resultaría indetectable dado que el universo es demasiado extenso como para que se vea notablemente afectado. Sin embargo, si los hechos ocurrieron hace mucho tiempo, es decir, cuando el universo era aún muy pequeño, la marca podría ser aún visible al haberse expandido.

Cuando el universo medía aproximadamente menos de una milésima parte de lo que mide actualmente, se cree que sufrió una transformación. Según se fue expandiendo, se enfrió lo suficiente como para que se formaran los átomos. Entonces se volvió transparente.

Antes de esto, el universo había consistido en una espesa niebla con pequeñas variaciones de densidad en diversos puntos. Las partes más densas siguieron aumentando y al unirse dieron lugar a las galaxias.

Investigaciones pendientes

Pero esta niebla es aún visible porque muchas de las ondas lumínicas que se produjeron en ese momento en ella nos llegan ahora y son observables en la forma de un débil resplandor que llena universo por completo.

Estas ondas han sido denominadas
radiación de fondo de microondas, que es una forma de radiación electromagnética considerada por muchos cosmólogos como la prueba principal del modelo cosmológico del Big Bang que diera lugar al universo. Esta radiación es asimismo considerada el borde de nuestro universo conocido.

Los astrónomos plantean que una colisión entre universos podría haber generado un patrón que habría reordenado las fluctuaciones de densidad en estas circunstancias y que, si pudiera registrarse dicha reordenación, aparecería como un área de irregularidad simétrica.

Hasta ahora nadie ha intentado buscar dicha irregularidad, pero los autores de este estudio han encontrado al menos una llamativa asimetría anómala en el cosmos que , aunque no se atreven a afirmar que se trata de la huella de otro universo, consideran que esta hipótesis puede ser el comienzo de un largo proyecto de investigación.

El caso es que las variaciones de temperatura en el fondo cósmico de microondas se cree que reflejan las variaciones de densidad en el universo primitivo, pero aún quedarían por hacer numerosas investigaciones para poder llegar a una respuestas.

Fuente: Tendencias21, 28 de Octubre de 2007
 

 

-Descubierto el animal más viejo del mundo

Una almeja islandesa podría ser el animal más longevo del mundo

Según un equipo de científicos de la Universidad de Bangor en el País de Gales, el molusco (una almeja de Islandia) tiene entre 405 y 410 años y podría ofrecer algunas claves para entender la longevidad. Los investigadores calcularon la edad de la almeja por los anillos que aparecen en su concha.

Según el Libro de Récords de Guinness, el animal más viejo que se había encontrado hasta la fecha era otra almeja de la misma variedad que encontraron en 1982, cuando tenía 220 años. Extraoficialmente, hace algún tiempo se descubrió que otra almeja que se conserva en un museo de Islandia tenía 374 años. Pero la almeja más reciente a la vez es la más antigua. La llaman Ming por la dinastía china que estaba en el poder cuando nació, y estaba en su infancia cuando Isabel I llegó al trono y cuando Shakespeare y Cervantes escribían sus obras.

 

Almeja Ming

El profesor Chris Richardson, de la escuela de Ciencias Oceanográficas de la Universidad de Bangor, dijo a la BBC que los incrementos de crecimiento de la almeja "ofrecen un registro de cómo ha variado la tasa de crecimiento del animal de un año a otro".

Los cambios, señaló el profesor dependen del clima, la temperatura del agua del mar y la alimentación del molusco.

Viendo a los animales "se puede reconstruir el ambiente en el que crecieron, porque son como grabadoras diminutas en el lecho del océano que integran señales sobre la temperatura y la alimentación en un período específico".

Según el profesor Richardson, el descubrimiento de Ming podría arrojar luz sobre las razones por las que hay animales que viven vidas extraordinariamente longevas.

"Lo que intriga al grupo de Bangor es cómo han logrado estos animales evitar la senectud", indicó el académico.

"Pensamos que una de las razones es que los animales tienen una tasa diferente de renovación celular que asociaríamos con otros que viven vidas mucho más cortas", señaló.

La universidad recibió fondos de la organización británica caritativa Help The Aged (Ayuda a los Ancianos) para su investigación.

Fuente: BBC Mundo, 28 de Octubre de 2007

 

-Nuevo récord de impulso en los motores iónicos

Un motor iónico ha batido el récord de empuje total en una prueba realizada por la NASA. El éxito en los test de prueba del motor podría ser utilizado en futuras misiones de la NASA. Los motores iónicos funcionan acelerando átomos cargados eléctricamente, es decir, iones, a través de un campo eléctrico, lo que empuja la nave espacial en la dirección opuesta

El impulso que proporcionan, en un instante dado es muy pequeño, aproximadamente igual a la fuerza necesaria para mantener una hoja de papel en contra de la gravedad de la Tierra. Pero pueden funcionar continuamente en el espacio durante años utilizando muy poco combustible. Así, en última instancia, proporcionar un impulso mucho mayor que un cohete químico.

Esquema de un motor iónico

Esta es la trayectoria de la sonda Dawn en su viaje hacia el cinturón de asteroides

Motor iónico en funcionamiento en los laboratrios de la NASA


La misión Dawn, que se inició el jueves, está equipada con la primera generación de los motores iónicos de la NASA, llamado NSTAR. Dawn posee tres motores NSTAR que le permitirá llegar al cinturón de asteroides y colocarse en órbita en torno a dos diferentes asteroides.

La agencia también ha realizado test sobre un motor iónico más avanzado, el llamado “NASA Evolutionary Xenon Thruster” (NEXT), que genera 2,5 veces más impulso que el motor NSTAR.

Ahora, NEXT ha roto un récord, proporcionando un mayor “cantidad total de impulso” que cualquier otro motor iónico anterior. El “total de impulso” es una medida de la aceleración que un motor le proporcionaría a una nave espacial. Es el resultado de multiplicar el empuje del motor por la cantidad de tiempo que puede estar encendido.

Record de combustible

El motor NEXT ya ha estado funcionando de continuo durante más de 12.000 horas (500 días), proporcionando más de 10 millones de Newton segundos de impulso, más de lo que cualquier otro motor iónico ha logrado.

Durante este tiempo, se ha suministrado más de 245 kilogramos de combustible en forma de gas xenón, una cifra récord para un motor de iones. La cantidad de combustible que se puede suministrar antes de que se desgaste el motor es fundamental, ya que los motores iónicos en las naves espaciales necesitan funcionar de continuo durante años.

Las estimaciones anteriores habían sugerido que NEXT podría consumir con seguridad 450 kilogramos de combustible en su vida. NSTAR está pensado sólo para 150 kilogramos de combustible, aunque un motor NSTAR consumió 235 kilogramos de combustible en una prueba anterior.

"Esta prueba valida la tecnología NEXT para una amplia gama de misiones de exploración del sistema solar de la NASA, así como potencial de empresas comerciales tierra-espacio", dice Mike Patterson investigador principal de NEXT, del Glenn Research Center de la NASA en Cleveland, Ohio, EE.UU.

NEXT podría realizar una misión a Titán, la luna de Saturno. Se requerirían alrededor de 20 kilovatios de potencia en caso de que la misión incluyera tanto un vehículo orbital como un aterrizador (lander). "Podemos hacer esto con una serie de tres impulsores, además de uno de repuesto," dijo Scott Glenn Benson director del proyecto NEXT a New Scientist.

La Guerra de las Galaxias

Aunque ambos NSTAR y NEXT usan gas xenón como propulsor, NEXT acelera iones de xenón de manera más eficiente, proporcionando hasta 236 milliNewtons de empuje en comparación con NSTAR que alcanza como máximo 92 mN. Los motores de iones usados en la nave espacial japonesa Hayabusa hacia el asteroide Itokawa proporcionaban 22 mN, mientras que los que utilizaron en la Agencia Espacial Europea para el SMART - 1, la sonda lunar, consiguieron los 70 mN.

NEXT también puede variar su empuje en una escala de 1 a 11, en comparación con NSTAR cuya escala es del 1 al 5. Esto significa que el regulador puede bajar a niveles inferiores, lo que le permite operar a una mayor distancia que NSTAR, ya que, viajar a más distancia del Sol supone recibir menos luz solar.

Aunque los motores de iones acaban de empezar a ser de uso regular en las sondas científicas, han sido ya muy descritos el la ciencia ficción durante muchos años. Marc Rayman ingeniero de la nave espacial Dawn del Laboratoriuo de Propulsión a Chorro de la NASA en Pasadena, California, EE.UU., recordó a los periodistas, en una reciente conferencia de prensa, que los motores iónicos son los utilizados en las películas de “la Guerra de las Galaxias”.
"Si recordamos los cazas TIE que Darth Vader y el Imperio del Mal utilizan para luchar contra la alianza rebelde, TIE es el acrónimo de “dos motores de iones” (Twin Ion Engines),” dijo. Y añadió "Bueno, Dawn utiliza mejores motores que los cazas TIE de Star Wars porque utilizan tres motores de iones."

Fuente: sondasespaciales.com, 26 de Octubre de 2007
 

 

-Dos astronautas del Discovery realizan su primer paseo espacial

Los astronautas estadounidenses Scott Parazynski y Douglas Wheelok, tripulantes del Discovery, han realizado el primer paseo espacial de la actual misión del transbordador, acoplado desde ayer a la Estación Espacial Internacional (ISS).

Los dos astronautas permanecieron fuera de la plataforma orbital cerca de seis horas y media, informó el representante de la NASA en el Centro de Control de Vuelos Espaciales de Rusia, Serguéi Puzanov, citado por la agencia Interfax.

Parazynski y Wheelok efectuaron los primeros trabajos para instalar en la ISS el módulo presurizado 'Harmony', de fabricación italiana, que llegó al laboratorio espacial en la bodega del transbordador, y un nueva antena.

El 'Harmony', que pesa casi 16 toneladas se ha instalado de manera provisional en un muelle del módulo estadounidense Unity.

Una vez que el transbordador se separe de la estación orbital, 'Harmony' será llevado hasta su posición permanente en el extremo del laboratorio estadounidense Destiny.

Allí, el Harmony servirá de eje para la instalación futura del módulo japonés Kibo y el módulo Columbus de la Agencia Espacial Europea.

La misión del 'Discovery', al mando de Pamela Melroy, ha sido planificada con una duración de 14 días e incluye cinco jornadas de labores en el espacio exterior.

El laboratorio europeo 'Columbus', un cilindro de 4,5 metros de diámetro por ocho de largo, tiene previsto viajar a bordo del transbordador 'Atlantis' en diciembre. Con un coste de 880 millones de euros, será la aportación europea más importante a la ISS, y podrá albergar simultáneamente a tres astronautas.

La Agencia Espacial Europea (ESA) acaba de anunciar que sus técnicos ya han cerrado la compuerta del 'Columbus', lo que significa que todo está listo en su interior y ya sólo queda esperar a que llegue su turno de subir a la órbita terrestre.

El módulo 'Harmony', o Nodo 2, será el pasillo que conecte a la parte estadounidense con las zonas europea y japonesa. Dado que éstos serán los dos únicos lugares de la ISS diseñados específicamente para la ciencia, y que la cooperación internacional es la principal razón de ser de la Estación, su importancia resulta evidente. Tal y como asegura su comandante, «es una misión guay [cool]».

Fuente: elmundo.es, 26 de Octubre de 2007

 

 

 

-Descubren rastros de una antigua luna de Saturno en sus anillos

 

Los anillos de Saturno están formados por infinidad de fragmentos de hielo y roca, algunos más pequeños que un grano de arena y otros del tamaño de una casa, pero los científicos aún no están de acuerdo sobre su procedencia.

Unos dicen que se formaron al mismo tiempo, y procedentes del mismo material, que dio origen al planeta. Otros aseguran que proceden de grandes lunas que, tras ser destruidas, dejaron orbitando sus restos alrededor de este gigante gaseoso. Los nuevos resultados de la sonda ‘Cassini’, de la NASA, apoyan esta última versión.

Al menos un antiguo satélite natural de Saturno, según publica en su última edición la revista ‘Nature’, ha contribuido a formar el más exterior de los siete anillos que adornan el planeta.

En realidad, la nave espacial no ha obtenido imágenes directas de estos fragmentos, sino de unas irregularidades ondulatorias –en otras palabras, unos agujeros en la estructura del anillo- que tienen forma de hélice y que serían, según los expertos, la estela dejada por los pedazos de luna rota a su paso por la órbita de Saturno. Estas rocas, a juzgar por la huella que dejan, tendrían un diámetro de unos 100 metros, tal y como predice la teoría de que proceden de una colisión y no comparten origen con Saturno.

«Probablemente hubo una gran luna, de al menos 32 kilómetros de diámetro o mayor, orbitando en aquel lugar», explica el astrónomo Miodrag Sremcevic, de la Universidad de Colorado en Boulder (EEUU).

«Esta luna tuvo el desafortunado destino de ser golpeada por un gran meteorito o cometa que la partió en pedazos. Y lo que vemos ahora son los cascotes de esa luna», señaló a la agencia Reuters este investigador, uno de los autores del estudio.

La luna rota habría sido un cuerpo gaseoso, como el propio Saturno, de un tamaño y características similares a los de la actual Pan, el más interior de los más de 30 satélites que posee este planeta. La colisión que la destruyó se produjo, según los científicos, hace alrededor de 100 millones de años. Es decir, mucho después de que se formara Saturno, que tiene unos 5.000 millones de años de edad

Fuente: elmundo.es, 26 de Octubre

 

-Un campus faraónico sobre el Mar Rojo

El objetivo de la King Abdullah University of Science and Technology (Kaust) es convertirse en uno de los mejores centros para realizar descubrimientos científicos y trabajar en el desarrollo humano en Arabia Saudita.

Fuentes de la Universidad aseguran que la intención de este proyecto es centrarse en las investigaciones que permitan aplicar la ciencia y la tecnología en temas que afectan a las necesidades humanas y al desarrollo social y económico. El modelo académico de la Kaust se ha estructurado en cuatro institutos de investigación, cada uno de ellos con centros dedicados a un conjunto específico de asuntos. Las cuatro áreas principales serán: recursos, energía y medio ambiente; biociencias y bioingenierías; ingeniería y ciencias de materiales; y matemáticas aplicadas y ciencias informáticas.



La Kaust va a ser un centro con ambiente verdaderamente internacional que contratará a los mejores catedráticos y alumnos para investigaciones. No ofrecerá puestos permanentes, y los contratos serán renovables o con una duración de entre dos y cinco años. El alumnado será diverso e internacional, formado por estudiantes con expediente académico brillante', comentan fuentes de la universidad.

El claustro de profesores comenzará a organizarse en 2008, pero la intención de los responsables del proyecto es contar con personalidades del mundo de la investigación de prestigio internacional. La inversión será multimillonaria y la universidad será dirigida y financiada, afirman fuentes de la entidad, 'por un consejo de administración independiente'.

En lo que respecta a los aspectos religiosos o a la cuestión de sexo, en un país cuyo sistema político es una monarquía autoritaria que se rige por la ley islámica, fuentes de la universidad sostienen que 'no será obligatorio practicar la religión islámica' y que el acceso a las mujeres 'estará permitido'. 'Los estudiantes que entren a formar parte de la Kaust se encontrarán en centro internacional donde lo único importante es su potencial y su expediente académico independientemente de su sexo y religión', apuntan las mismas fuentes.

El proyecto ha sido concebido por el Rey Abdullah, guardián de las dos santas mezquitas, quien eligió al Ministro de Petróleo Ali Ibrahim Al-Naimi para llevar la dirección del desarrollo de la universidad. 'La Kaust es la idea que ha perseguido durante décadas su Majestad el Rey Abdullah: crear una universidad de primera clase en Arabia Saudí, dedicada a reunir los mejores talentos para desvelar los grandes misterios científicos y tecnológicos para el progreso de toda la humanidad', afirmó el ministro.

El Presidente en funciones de la Kaust, Nadhmi Al-Nasr, destacó también que, mientras que la futura universidad se encuentra físicamente en Arabia Saudí y ofrece sus servicios a los ciudadanos del Reino, también nace con la intención de convertirse en una institución internacional.

Alianzas internacionales de calidad

Uno de los puntos fuertes de esta nueva universidad consistirá en las importantes alianzas con centros de prestigio internacionales. En los 12 meses que este proyecto ha estado en proceso de desarrollo, ya se han establecido alianzas con algunas instituciones investigadoras internacionales, incluyendo acuerdos formales con la
Woods Hole Oceanographic Institution en los EE UU, el Indian Institute of Technology de Bombay, India; el Institut Français du Pétrole en Francia, la National University de Singapur, y la American University en El Cairo. Estas relaciones se establecieron para potenciar la innovación y para reunir los mayores talentos del mundo en ciencia y tecnología. La universidad establecerá colaboraciones con dichas instituciones al igual que con empresas privadas del sector de la investigación científica y tecnológica.

Fuente: Cinco Días, 25 de Octubre de 2007

 

 

-Los neandertales eran pelirrojos

Los neandertales eran pelirrojos y de piel clara, como algunos humanos modernos que hoy habitan el hemisferio norte del planeta, según una investigación.

Este es el primer rasgo físico que se conoce de estos humanos, desaparecidos hace unos 25.000 años, que no se puede adivinar por los fósiles de sus huesos. Y se debe a una mutación genética en el gen MC1R, descubierta por el investigador español Carles Lalueza-Fox, de la Universidad de Barcelona.

Lalueza-Fox, que también participó en el hallazgo del gen FOXP2, que compartían con nosotros, explica que esta variación del MC1R no la tiene el 'Homo sapiens' moderno, que ha llegado al mismo resultado por otro camino genético, pero fruto de la misma evolución tras su llegada al hemisferio norte.

Los neandertales fueron pelirrojos. La evolución hizo que

 nosotros también desarrollásemos ese color de pelo

El hallazgo, publicado hoy en la revista 'Science' fue posible por la recuperación de este receptor 1 de la melanocortina de un fósil de hace 43.000 años procedente de la cueva de El Sidrón (Asturias) y otro de hace 50.000 años procedente de la cueva de Monte Lessini (Italia). "Hay dos pigmentos y el gen MC1R regula ambos interaccionando con una proteína. Si funciona de forma correcta, se sintetiza el castaño y si hay mutación, se sintetiza el rojizo", explica el investigador catalán.

Experimento con la piel

El siguiente paso fue comprobar que efectos podía tener esta mutación en el pelo y la piel de los neandertales, puesto que no existe igual en los humanos modernos. Para ello, en el Instituto Max Planck de Alemania, cultivaron células de la piel y las injertaron el gen mutado. "Enseguida se comprobó que comenzaba a sintetizarse la feomelanina, que es la proteína de los pelirrojos", comenta Lalueza-Fox.

Este fenómeno, explica, "cuadra totalmente con la lógica evolutiva". "Nuestros antepasados venían de África y conservaban el gen que les protegía de la radiación solar. Al salir hacia Europa, donde el sol no es tan intenso, ese control genético se relaja y, por selección natural, triunfó esta mutación", añade.

Curiosamente, fue algo que ocurrió, por primera vez, con los neandertales, hace medio millón de años. Posteriormente, los 'Homo sapiens' modernos, hace unos 40.000 años, volvieron a obtener el mismo aclaramiento de la piel y del pelo con otra mutación que daba el mismo resultado.

El investigador cree que localizó el MC1R por suerte. «Lo iba buscando, pero realmente no sabía lo que me iba a encontrar. No hay que olvidar que hay un millón de mutaciones genéticas entre nosotros y los neandertales, de los 3.000 millones de nucleótidos que tenemos. Este es la primera que se encuentra», explica.

A partir de ahora, pues, las imágenes de aquellos humanos del Paleolítico deberán representarlos con ojos claros y pecas, parecidos a los nórdicos europeos. «Desde luego, no se podrían morenos al tomar el Sol, como ocurre hoy con los pelirrojos», concluye el paleobiólogo.

Fuente: elmundo.es, 25 de Octubre de 2007

 

 

-El Airbus A380 hace su primer vuelo comercial

El avión más grande del mundo, el Airbus A380, efectuó este jueves su primer vuelo comercial, un vuelo de Singapore Airlines entre esta ciudad y Sydney que será diario y con una duración estimada de siete horas. Cientos de trabajadores y usuarios del aeropuerto asistieron al momento del despegue, acompañado, según las crónicas, con una enorme cantidad de fotografías y vídeos.

Entre el pasaje de este viaje inaugural, periodistas y, como Ernest Graaff, entusiastas de la aviación, capaces de pagar 28.000 euros por dos billetes de ida y vuelta en clase 'bussiness': "Soy un apasionado de los aviones y estoy emocionado por ser parte de la historia". Aunque Graaf ha escogido la opción más lujosa, el precio de los asientos para este primer vuelo del A380 oscilaban entre 390 y los 70.000 euros, la mayor parte destinada a proyectos benéficos.

Una cantidad entregada por los 471 pasajeros -afortunados- capaces de embarcar en este gigante de los cielos en el que incluso hay cabida para doce suites de lujo acondicionadas con camas, televisores con pantalla plana, una mesa de despacho y un sillón reclinable, por no mencionar el excelso catering disponible. En este primer vuelo hay 31 asistentes de vuelo, que servirán el menú preparado por reputados cocineros y champán para celebrar el evento.

En el segundo piso del aparato hay 60 sillones para 'bussiness' y parte de los 399 de clase turista en ambas alturas. No alcanzar los 500 es un gesto de Singapur Airlines para la comodidad de sus usuarios en estos viajes de larga distancia, ya que el A380 podría alcanzar los 800 asientos.

Hasta ahora, sólo una docena de ciudades -entre las que se cuentan Singapur, Londres, París, Nueva York, Los Ángeles y Tokio- puede permitirse acoger al gigante de Airbus, que mide 80 metros y tiene una altura 24,1 metros. El Aeropuerto Changi de Singapur emprendió hace tres años los trabajos de adaptación, que supusieron tener que ampliar las pistas de aterrizaje, las puertas de entrada a los hangares, e incluso hasta los vehículos para transportar el equipaje.

Un vuelo que llega con retraso

El A-380 fue entregado a Singapure Airlines el pasado 15 de octubre en París y voló hacia la ciudad-Estado dos días más tarde, donde fue recibido en la pista de aterrizaje por el primer ministro singapurés, Lee Hsien Loong, y los presidentes de SIA, Stephen Lee, y de Airbus, John Leahy.

El consorcio europeo Airbus tuvo problemas con la compatibilidad de algunos programas informáticos y con el sistema de cableado en el fuselaje, lo cual motivó que la aerolínea singapurés recibiera el avión con 18 meses de retraso.

Estos problemas en la fabricación, las pérdidas millonarias que han supuesto y el cambio de cinco presidentes de Airbus en los últimos meses han perjudicado a la imagen de la empresa, cuyo A-380 pronto encontrará un serio competidor en el Dreamliner 787 de
Boeing.

Airbus ha recibido hasta la fecha 189 pedidos del A380, procedentes de 16 clientes, y tras Singapur Airlines, que recibirá sus 19 aeronaves entre 2008 y 2010, se encuentran las aerolíneas
Emirates Airlines, Qantas o la española Marsans. España participa con un 10 por ciento en el desarrollo y construcción del A380, a través de la contribución de una decena de empresas.

La aportación industrial española se fija en la fabricación de las partes más importantes del avión, como el cono, las alas, el estabilizador de la cola y varios elementos de la panza, que se fabrican en las tres plantas que la división comercial de
EADS tiene en España: Getafe (Madrid), Illescas (Toledo) y Puerto Real (Cádiz).

Fuente: elmundo.es, 25 de Octubre de 2007

 


 

-China lanza con éxito el satélite que abre su carrera para poner pie en  la Luna en 2020

Con el lanzamiento de su primera sonda hacia el satélite lunar, China da un paso de gigante en la nueva carrera espacial por poner a un hombre en la Luna antes de 2020.

Chang I despegando

En un lanzamiento celebrado como un nuevo hito del programa espacial chino, el Chang'e I emprendió su periplo espacial desde la base espacial de Xichang, en el suroccidente del país al mediodía del 24 de octubre, hora española.

La parte científica de la misión tiene como objetivo obtener fotografías tridimensionales de la superficie lunar para poder analizar su composición y medir su grosor. «Aunque Estados Unidos ha lanzado satélites a la luna en varias ocasiones, nunca ha obtenido una fotografía a gran escala», señalaba a la prensa local Zhang Houying, experto de la Academia china de Ciencias.

La nave Chang'e I pretende repetir la hazaña de la diosa china del mismo nombre que, según la leyenda, bebió un elixir mágico que la elevó hasta la Luna, donde tiene un cráter bautizado en su honor. Repitiendo el recorrido de 380.000 kilómetros de la mujer de la Luna, la sonda empleará 173 horas para alcanzar la órbita deseada el 5 de noviembre. Si todo va bien y la aproximación es exitosa, la sonda debería transmitir la primera fotografía lunar a mediados de mes. Una hora después de su recepción en la Tierra y «sin retoques», la instantánea será distribuida a todo el mundo, según ha prometido el responsable científico del proyecto, Ouyang Ziyuan.

Para ello, el Chang'e I ha sido equipado con cámaras de alta definición y espectómetros de rayos X. Estos últimos se encargarán de realizar la clasificación espectral de 14 minerales, una pequeña porción del centenar que se han identificado en nuestro satélite. «Los recursos en la Luna están a disposición de cualquiera que pueda llegar, por eso la competición es feroz y muchos países quieren colocar una base allí», advertía Zhang.

En efecto, varias naciones, incluida China, pulen los planes para montar una presencia permanente en la Luna, pero ninguna de ellas antes de 2020. Hasta esa fecha, los esfuerzos se centran en mejorar la tecnología y los conocimientos sobre la Luna, con calendarios escalonados para alunizar y una competida carrera por ver qué pasaporte tendrá el próximo ser humano que pise la Luna. Por lo pronto, China lleva la delantera. El proyecto lunar del que forma parte el Chang'e I, iniciado en 2004 con un presupuesto que no se ha hecho público, es prioridad del Estado. Continuará con el alunizaje de un vehículo no tripulado, entre 2008 y 2010, y con los primeros taikonautas chinos caminando sobre la superficie lunar antes de 2020.

En la NASA, con un objetivo temporal idéntico, ya han reconocido que China podría ganar esta nueva maratón espacial. Y es que, desde que el líder comunista Mao Zedong se lamentó de que China no era capaz siquiera de lanzar una patata al cosmos, el programa espacial del país no ha parado de crecer. En 2003, China se convirtió en el tercer país -por detrás de la desaparecida URSS y de EEUU- que ha puesto en órbita a uno de sus ciudadanos.

Dado que el 95% de la tecnología espacial puede tener aplicaciones militares, hay países que ven con recelo el nuevo vigor de la industria espacial china. A principos de este año, China generó críticas en la comunidad internacional cuando destruyó una vieja sonda meteorológica con un misil antisatélites, en un tipo de prueba que hasta ahora sólo habían llevado a cabo, también, EEUU y la Unión Soviética.

Que el Chang'e I vaya a llevar al espacio el himno nacional y varias melodías revolucionarias es un signo más de que alimentar el orgullo nacional es un componente esencial, junto al científico, del programa espacial chino. La televisión transmitirá su lanzamiento, mientras 5.000 privilegiados tendrán la oportunidad de verlo en directo, por vez primera, en la base espacial de Xichang.

Fuente: elmundo.es, 24 de Octubre de 2007

 

 

-La Estación Espacial Internacional tiene otra pieza

Como estaba previsto, a las 17.38 hora española despegó ayer en Cabo Cañaveral el transbordador espacial Discovery. Rasgó envuelto en un trueno la capa de nubes que encapotaba el cielo de Florida y, un minuto después, ascendía a 6.000 kilómetros por hora rumbo a la órbita en que circunda la Tierra la Estación Espacial Internacional (ISS).

Momento del despegue

Dos minutos después del despegue, los dos cohetes de propulsión que le proporcionan el 80 por ciento del impulso necesario para vencer la gravedad terrestre, se separaron del transbordador y cayeron sobre el Atlántico, de donde serán recuperados para su reutilización... El Discovery debe acoplarse a la ISS el jueves, a las 13.35 horas española.

Sus siete tripulantes, dirigidos por una mujer, la comandante Pam Melroy, tienen una misión crucial para el desarrollo de la Estación Espacial: acoplar el módulo Harmony, catalogado como Nodo 2, indispensable para la futura instalación de los módulos-laboratorio Columbus, la joya de la
ESA, la Agencia Espacial Europea; y Kibo, que constituye la aportación estrella de la agencia japonesa al proyecto multinacional. Serán los dos únicos módulos de la ISS dedicados en exclusiva a la realización de experimentos científicos.

La Estación Espacial Internacional comenzó su andadura en 1998, cuando un cohete ruso Protón colocó en órbita el módulo Zarya, diseñado para dotar a la estación de la energía inicial necesaria para poner en marcha el proyecto. El final de su construcción por etapas está previsto para 2010, cuando sea acoplado el Módulo Portuario de Carga. Pero anticipar esto quizá sea quemar etapas, por cuanto que es posible que nuevos proyectos, nuevas piezas del «lego», se añadan a su construcción.

El módulo Harmony presenta el aspecto de un grueso tubo de aluminio presurizado, es de fabricación italiana y pesa 14,3 toneladas. Mide 4,5 metros de diámetro por casi 7 de longitud y su coste ha superado los 880 millones de euros. Se trata del primer módulo habitable que se agrega a la ISS desde la instalación del compartimiento acoplado ruso Pirs, en el año 2001; y es la aportación europea más importante a la estación hasta ahora. Su instalación será realizada durante la misión de diez días de los siete tripulantes del transbordador, ayudados por los tres tripulantes permanentes de la estación.

La segunda misión encargada a los diez astronautas será la reorientación del brazo robotizado -denominado P6 en la jerga de los expertos- de 16 toneladas y 20 metros de longitud que se acopló a la ISS en el año 2000. Una vez posicionado, el P6 desplegará la tercera placa solar de las cuatro previstas, lo que incrementará la producción eléctrica autónoma y renovable de la estación.

Cinco paseos espaciales

Para abordar estas complejas tareas en el exterior de la ISS, los astronautas efectuarán cinco paseos espaciales -salidas orbitales- con una duración prevista de 30 horas y media. Lo trabajos se llevarán a cabo en equipos de dos astronautas durante los diez días que la nave estará acoplada a la estación. La misión durará dos semanas si no surgen circunstancias imprevistas, como ocurriera con la anterior misión.

El lanzamiento del Discovery se ha producido en esta ocasión no sin cierta polémica entre los ingenieros y técnicos de la
NASA, ya que algunos de ellos habían mostrado su preocupación durante las últimas semanas por el descubrimiento de micro-fisuras de origen desconocido en tres de las 44 losetas térmicas que recubren el borde de ataque de las alas de la nave, por lo que solicitaron un aplazamiento de al menos dos meses en la misión.

El centro independiente de ingeniería y seguridad de la NASA había recomendado en un informe reemplazar estos paneles, lo que habría alterado considerablemente el calendario, ya de por sí muy ajustado, para culminar la construcción de la ISS, prevista para 2010, que es el plazo programado para retirar del servicio los tres transbordadores Discovery actualmente en activo.

Un italiano en la ISS

Paolo Nespoli despegó a primeras horas de esta tarde rumbo a la Estación Espacial Internacional a bordo del transbordador espacial Discovery de la NASA. En la zona de carga del transbordador se encuentra el módulo Node 2, el primero construido por Europa para su acoplamiento permanente a la estación.
 
El transbordador espacial Discovery despegó hoy desde el Centro Espacial Kennedy que la NASA posee en Cabo Cañaveral, Florida, a las 11.38 hora local (17.38 CEST) y se situó en la órbita terrestre tras casi 8 minutos de vuelo propulsado. Para su misión STS-120, la tercera que el transbordador lleva a cabo este año, el Discovery lleva a bordo siete tripulantes, entre ellos el astronauta de la ESA Paolo Nespoli, procedente de Italia.

El primer día en el espacio se dedicará a una serie de comprobaciones en vuelo para constatar que el Discovery no haya sufrido daños en el lanzamiento. A continuación, el orbitador maniobrará para ir al encuentro de la Estación Espacial Internacional (ISS). Está previsto que el acoplamiento se lleve a cabo el 25 de octubre a las 14.33 CEST.  
 

El objetivo de la misión STS-120, que durará 14 días , es el suministro y la instalación del Node 2, construido por Italia. El Node 2 es la primera elemento que se añade a la ISS en los últimos 6 años que agranda el espacio vital y de trabajo de la Estación La segunda tarea que llevará a cabo será la reubicación de la sección de soporte P6 de la ISS y el despliegue de sus paneles solares y del radiador de dispersión térmica.

Con la misión también se realizará el relevo de uno de los miembros de la tripulación de la Expedición ISS. El astronauta de la NASA Clayton Anderson, asignado a la estación desde su llegada en junio con la tripulación de la misión STS-117, será sustituido por el astronauta de la NASA Daniel Tani.

"Resulta siempre muy gratificante ver cómo se pone en marcha una misión después de observar el duro trabajo que requiere su preparación", comenta Daniel Sacotte, Director de Vuelos Tripulados, Microgravedad y Programas de Exploración de la ESA. "Esta es una misión de gran importancia para Europa, ya que suministra a la ISS el elemento Node 2, de construcción europea y que facilitará el acoplamiento del laboratorio Columbus de la ESA en la siguiente misión que se envíe a la Estación".
 

No es el primer italiano en viajar al espacio

Aunque este es el primer vuelo espacial de Paolo Nespoli, no se trata del primer italiano que visita la ISS desde el inicio de su construcción en 1998. Le han precedido sus compañeros astronautas de la ESA Umberto Guidoni (2001) y Roberto Vittori (2002 y 2005).
 

Nespoli, que ha recibido el nombre de Esperia, que los griegos de la antigüedad dieron a la península italiana, es fruto de las seis oportunidades de vuelo concedidas a la Agencia Espacial Italiana (ASI) por el suministro de tres contenedores de carga presurizados (Multi-Purpose Logistics Modules, o MPLM) a la NASA en función de un acuerdo bilateral. La estrecha colaboración entre la ESA y la ASI condujo a la designación de Nespoli, miembro del Cuerpo de Astronautas Europeos, para ocupar la plaza de vuelo de la ASI.

Durante la compleja misión de montaje, Nespoli tendrá un papel destacado como astronauta de actividad intravehicular (IVA) en tres de los cinco paseos espaciales, que incluyen la instalación de Node 2. Como astronauta IVA, Nespoli coordinará las actividades desde el interior de la ISS durante los paseos espaciales, además de participar en preparativos tales como la configuración y prueba de los trajes y herramientas espaciales. Ayudará a los astronautas a vestir el traje espacial para salir al exterior, así como en las tareas de despresurización y represurización de las esclusas de aire.

Nespoli también tendrá otras responsabilidades durante la misión Esperia, como llevar a cabo un programa conjunto de la ESA/ASI de experimentos sobre fisiología y biología humanas, junto con varias actividades educativas.
 
El módulo Node 2 facilitará la labor del Colombus

Node 2, o ‘Harmony’, que es el nombre que se le ha dado, es el segundo de tres elementos de interconexión de la Estación Espacial. Los nodos conectan los distintos módulos presurizados para permitir el paso de astronautas y equipos, además de proporcionarles importantes recursos, como energía eléctrica y control térmico y medioambiental.

El Harmony se acoplará temporalmente al muelle de Node 1 durante el primer paseo espacial, que se llevará a cabo el 26 de octubre. Una vez que el transbordador se separe de la Estación al finalizar la misión STS-120, el Node 2 se instalará en su ubicación definitiva, en el muelle delantero del laboratorio Destiny de EE.UU., para lo que se utilizará el brazo robótico de la Estación.

El módulo Node 2 fue desarrollado por la NASA mediante contrato con la industria europea, de la que Thales Alenia Space es el principal proveedor. La ESA suministra este elemento a la NASA, junto con el Node 3, como retribución por el lanzamiento del Columbus con el sistema STS.

"Italia se enorgullece del papel que desempeña en esta misión y, por encima de todo, de su participación en el programa de la ISS. Nos proporciona una gran satisfacción cooperar con la ESA en la gestión de esta misión", declaró Simonetta di Pippo, Directora de Observación del Universo de la ASI y coordinadora de la misión Esperia por parte de la ASI. "Deseamos a Paolo y a la tripulación de la STS-120 el mayor de los éxitos en su misión. Después de la instalación del MPLM, otro módulo construido por la industria italiana será una pieza clave del conjunto de la ISS, lo cual confirma la capacidad europea e italiana para sustentar los próximos pasos de la exploración espacial".


Un riesgo "asumible"

Finalmente, la Agencia Espacial estadounidense consideró que se trataba de «un riesgo menor y perfectamente asumible», por lo que la semana pasada dio luz verde al despegue del transbordador.

Además, poco antes del lanzamiento, se había hallado un trozo de hielo en el tanque externo de la nave. No obstante, fue luego reabsorbido por el calor ambiental y se autorizó el despegue. El hielo es un serio motivo de preocupación porque si se desprende durante el vuelo y golpea al transbordador, puede generar daños en el recubrimiento térmico.

Nadie olvida en la NASA que el impacto de un pedazo de espuma aislante -más ligera que el hielo-, desprendido del tanque externo, causó la desintegración del Columbia, y la muerte de sus siete tripulantes, cuando la nave reingresaba a la atmósfera en 2003 después de visitar la ISS.

La Estación Espacial Internacional es un proyecto presupuestado en unos 100.000 millones de dólares, que lleva nueve años en marcha y en el que participan un total de 16 países. La comunidad científica dedicada a la investigación espacial considera la ISS fundamental para la preparación de futuras misiones, principalmente rumbo a Marte, y a la Luna, donde Estados Unidos planea volver en el horizonte del año 2020.
 

Fuente: ABC, ESA, 24 de Octubre de 2007

 

 

-Viaje al centro de la Tierra

Un equipo internacional de expertos se ha embarcado en la iniciativa más ambiciosa hasta ahora en tecnología de exploración. Su fin es sondear la Tierra hasta profundidades nunca alcanzadas. Quieren conocer el origen y el futuro de nuestro planeta y la vida, saber por qué se producen seísmos y contribuir a su predicción, atravesando la corteza terrestre desde el lecho marino hasta llegar al manto, que forma el 80% de la Tierra.
 

El protagonista es el buque japonés de perforación submarina Chikyu, que pretende obtener datos sismológicos, volcánicos, geológicos, medioambientales y climatológicos en la falla de Nankai, 600 kilómetros al suroeste de Tokio, en el Pacífico.

La corteza está formada por unos 72 kilómetros de roca sólida bajo los continentes, pero su espesor es de menos de 8 kilómetros bajo los océanos y en la depresión de Nankai es relativamente fina, sólo 7 kilómetros. Allí se solapan dos grandes placas tectónicas y se origina el 90% de los terremotos que sufre Japón, que registra el 20 % de todos los superiores a 6 grados en la escala Richter.

Además de ofrecer pistas sobre acontecimientos del pasado, como el mortífero maremoto que golpeó en diciembre de 2004 los países ribereños del océano Indico, y sobre el origen y evolución de la vida en los últimos 4.600 millones de años, el experimento de perforación de la corteza terrestre en la depresión de Nankai permitirá conocer mejor la historia climática de la Tierra.

María José Jurado, del Departamento de Geofísica y Georiesgos del
Instituto de Ciencias de la Tierra Jaume Almera (CSIC), en Barcelona, es el único científico español de los 18 que integran la primera expedición a bordo del Chikyu, que partió el 21 de septiembre del puerto nipón de Shingu, como parte del experimento NanTroSEIZE, del Programa Integrado de Perforación Oceánica (IODP). En este programa participan Japón, EEUU, China, Corea del Sur y los países del Consorcio Europeo para Investigación Oceánica (ECORD). [El consejo de ECORD se reúne esta semana en Madrid. El Gobierno español, a través del Ministerio de Educación y Ciencia, aportará 350.000 euros al programa en 2008, un 40% más que el año anterior, precisamente con motivo del inicio de la actividad de Chikyu.]

"Mi grupo de trabajo establece la geología de lo que se ha perforado en el sondeo", explicó Jurado desde el Chikyu a este diario. "Otros se encargan de caracterizar las estructuras de deformación que se observan, de sus características -porosidad, presiones de fluidos- y de correlacionar esa información con los perfiles de sísmica de reflexión". Esta primera fase, "es muy gratificante porque se trata de un grupo excelente, no sólo científico sino también humano, y porque se intentan abordar objetivos que hasta hace poco quedaban fuera del alcance de la tecnología existente", concluye Jurado, quien sin embargo, también señala: "Estamos perforando en una zona que plantea problemas importantes por ser rocas muy deformadas, por lo que puede ser difícil alcanzar las profundidades previstas".

El padre de la iniciativa es Asahiko Taira, del Centro Japonés para la Exploración de las Profundidades de la Tierra, responsable de la operación del Chikyu. "Se me ocurrió esta idea en 1990, cuando pensé que si Rusia y EE UU investigaban el espacio exterior, Japón podría liderar la exploración del espacio interior, es decir, de las profundidades del mar", señaló Taira a este diario. Ahora que "esta expedición es realidad me siento más entusiasmado, pero más responsable por el apoyo popular e institucional de que goza, y porque genera muchas expectativas", aseguró.

El barco tiene por delante un largo trabajo. En la primera etapa, que concluye en febrero de 2008, se intentará perforar en seis sitios hasta 1,5 kilómetros de profundidad. En la segunda (en 2008 y 2009), se taladrará de 3 a 3,5 kilómetros bajo el lecho marino, con lo que se batirá una marca mundial, pues el pozo más profundo excavado hasta la fecha tiene 2,1 kilómetros. En la tercera (de 2009 a 2010) se intentará hacerlo de 5,5 a unos 6 kilómetros, para instalar un sistema de control en la falla sísmica, que permanecerá allí uno o dos años, mientras se completan los sensores del definitivo sistema de control, que se instalarán en la cuarta etapa (de 2010 a 2011).

Fuente: El País Digital, 24 de Octubre de 2007
 


 

-El mapa de nuestras diferencias genéticas

Aunque genéticamente somos un 99% iguales, una pequeña fracción de ADN nos hace diferentes. Una segunda versión del mapa de estas pequeñas variaciones ha sido publicada en la revista 'Nature'. La investigación, que ofrece resultados más detallados que los de la primera fase, puede servir para explicar la relación entre algunas enfermedades y la genética.
 

Conocer y comprender la pequeña fracción genética que varía de una persona a otra es importante para entender por qué unos individuos son más susceptibles a unas enfermedades, unos fármacos funcionan mejor en algunos pacientes o los motivos por los que una población reacciona a ciertos factores medioambientales y otra no.

En este trabajo están involucrados 200 científicos que conforman el
Consorcio Internacional HapMap, una sociedad pública y privada con patrocinio de agencias de Reino Unido, Canadá, China, Japón, Nigeria y Estados Unidos. Los artículos que publica 'Nature' corresponden a la segunda parte de la investigación que dio sus primeros resultados en 2005.

Los científicos explican que los análisis publicados ahora contienen dos veces más marcadores que los encontrados en la versión inicial, en concreto 2,1 millones, que sumados al millón anterior suponen 3,1 millones de variantes genéticas o polimorfismos de nucleótidos (cambios en las letras que constituyen la cadena de ADN). Cuantas más variaciones se registren en ese mapa, más precisas serán las investigaciones dirigidas a buscar una base genética en determinadas enfermedades.

De hecho, algunos resultados ya se han obtenido gracias a la información proporcionada por el HapMap. Este verano, el
Wellcome Trust Case Control Consortium encontró que más de 20 variantes genéticas estaban relacionadas con un mayor riesgo de sufrir una serie de patologías, como la artritis reumatoide, la diabetes tipo 1 y 2, la enfermedad celiaca o la coronaria.

La fase II del HapMap se realizó utilizando las mismas muestras de ADN estudiadas en la fase I, que procedían de la sangre de 270 voluntarios sanos de cuatro poblaciones geográficas distintas: Yoruba en Ibadan, Nigeria; Japonesa en Tokio; Han Chinese en Pekín; y residentes de Utah con ancestros del noreste y noroeste de Europa. Pero en esta ocasión se emplearon nuevas herramientas para llevar a cabo estos análisis y mejores métodos estadísticos.

Cambios relacionados con la supervivencia

El nuevo mapa ha permitido conocer las tasas de recombinación genética (redistribución de las moléculas de ADN) en el genoma humano. Así los investigadores han detectado que los mayores cambios se han encontrado entre los genes involucrados en la defensa del cuerpo y los que menos recombinaciones presentan son aquellas proteínas que se encargan del correcto plegamiento de otras proteínas. Por lo general, el mayor número de recombinaciones se da en el material genético involucrado con la estructura celular externa.

Estas diferencias podrían indicar, según los autores, que los cambios o recombinaciones en áreas del genoma que afectan a la respuesta frente a organismos infecciosos u otros factores ambientales se producen porque ofrecen una ventaja para la supervivencia.

Dentro de los planes de estos investigadores se encuentra la ampliación de estos análisis a otras siete poblaciones para ofrecer información de otras variaciones genéticas menos frecuentes como la de dos tribus de Kenya o la de residentes de Los Ángeles con ancestros mexicanos. "Los datos del proyecto HapMap ofrecerán un recurso inestimable para comprender la estructura de la variación genética humana y su relación con el fenotipo", concluyen los autores.

Fuente: elmundo.es, 24 de Octubre de 2007
 


 

-España consume y contamina tres veces por encima de su "capacidad biológica"

La capacidad de carga del planeta es un término que se acuñó a finales de los años 60 para definir el límite de un ecosistema natural para absorber impactos o soportar un determinado uso. De ella se deriva un indicador de carácter global, la llamada «huella ecológica», esto es, el territorio necesario para producir los recursos que el hombre necesita y para asimilar los residuos que genera. Y las hectáreas necesarias para mantener a un solo español ascienden ya a 6,40, superando la media de la Unión Europea, que es de 4,7 hectáreas por persona.
 

Estos números no dejarían de ser precisamente eso si no fuera porque la «biocapacidad» (la capacidad de carga) de nuestro territorio para abastecernos y para «absorber» nuestros residuos es sólo de 2,43 hectáreas por persona. Por tanto, estamos superando en un 260 por ciento el nivel considerado sostenible. Así lo explicó ayer el secretario general para el Territorio y la Biodiversidad, Antonio Serrano, en la presentación de los resultados preliminares del informe «El análisis de la huella ecológica en España», elaborado por el Ministerio de Medio Ambiente.

Grado de urbanización

Para calcular este indicador de la huella ecológica (cultivos, pastos, bosques o ecosistemas acuáticos necesarios para mantener a una población) se tienen en cuenta las hectáreas necesarias para proporcionar el alimento vegetal; la superficie necesaria para pastos que alimenten al ganado; la superficie marina necesaria para producir el pescado; las hectáreas de bosque necesarias para asumir el dióxido de carbono (CO2) que provoca nuestro consumo energético, y la cantidad de hectáreas utilizadas para urbanizar, generar infraestructuras y centros de trabajo. Por tanto, es lógico que la huella ecológica vaya ligada al grado de urbanización y que las regiones con más territorio y menos pobladas den como resultado un indicador, en apariencia, más sostenible. Por tanto, atendiendo sólo a este criterio es Aragón la comunidad autónoma con una huella ecológica mayor (7,25), seguida por Cantabria (7,02), Navarra (6,96) y Madrid (6,75). En el lado opuesto de la tabla estarían Canarias (5,11), Extremadura (5,50), Andalucía (5,63) y Castilla y Léon (5,75).

Un territorio único

El secretario general para el Territorio y la Biodiversidad tuvo en cuenta este indicador para asegurar que Castilla y León y Extremadura -también citó a Castilla- La Mancha (que tiene una huella de 6,45 hectáreas por persona, situándose en la octava región con más huella ecológica- como regiones más sostenibles, pero en cambio utilizó el resultado de dividir la huella ecológica entre la biocapacidad para asegurar que Ceuta, Melilla, Madrid y Canarias ofrecen el resultado de mayor insostenibilidad. Sobre éstos últimos lugares se advierten rápidamente sus condicionantes de escasez de territorio y alta densidad de población.

Además, la propia exposición de Antonio Serrano reconocía que «si una población consume más espacio productivo por persona del que posee es porque está importando recursos de otros territorios». Por tanto, y alejándonos de esta pretendida descentralización, lo cierto es que los españoles consumimos 2,6 veces más recursos, y generamos más residuos, que la capacidad de recarga de nuestro territorio.

Y es que, como reconoció Serrano, «el crecimiento de la economía, que avanza hacia la convergencia en renta per cápita con la Unión Europea, está acarreando notables costes ambientales». Y ahí sí que no seguimos la línea europea, pues superamos su huella ecológica (4,7 hectáreas por persona) y, además, nuestro ritmo de crecimiento del «rastro» que dejamos en el territorio entre 1995 y 2005 fue del 34%, frente al 14% de media en la UE.

Para ilustrar estos datos, Serrano utilizó el símil de conducir un vehículo por encima de la línea roja de revoluciones; al final, el motor acaba fallando. A nivel mundial esto significa que se está utilizando el planeta «en un régimen de sobrerrevolución». Lo más preocupante, según el director general, es que los incrementos en la huella ecológica son «tremendamente elevados», y en algunos países los niveles son «completamente inaceptables».

Así, un ciudadano de Estados Unidos necesita 9,7 hectáreas para cubrir sus necesidades de consumo, y un japonés 4,8. Sin embargo, el dato de Japón implica que está superando en un 560% su capacidad de recarga. Lo cierto es que estos países, más la Unión Europea, China (1,6 hectáreas por persona) y la India (0,8) consumen entre todos el 75% de la biocapacidad de la Tierra.

En los últimos años, los estudios sobre el estado del planeta ponen énfasis en la degradación sufrida por los ecosistemas a lo largo del siglo XX por la sobreexplotación de sus recursos, que ya en el año 2003 superó en un 25 por ciento su capacidad regenerativa. Esto significa que la Tierra necesitó un año y tres meses para producir esos recursos. Por tanto, nos hace falta más de un planeta para responder a nuestras necesidades. La primera vez que se superó ese índice unitario fue en los años 80. A finales de los 60, cuando empezó a calcularse, utilizábamos dos tercios del planeta, pero ahora la Tierra se nos queda pequeña.

Límites de la naturaleza

La pregunta que subyace es: ¿cómo proporcionar bienestar e igualdad de oportunidades a todas las personas sin exceder los límites de la Naturaleza? En el caso de España, Serrano considera que si se cumple el 80 por ciento de los objetivos de las medidas tomadas por el Ministerio de Medio Ambiente en esta legislatura, la huella ecológica de nuestro país en 2020 se mantendría en los niveles del año 2005. Y sólo disminuiría en el caso de que se produjera un cambio social.

Precisamente ese cambio se analiza en el estudio «El comportamiento social ante el desarrollo sostenible», elaborado por el
Observatorio de Prospectiva Tecnológica Industrial y por Valora Consultores. Plantea tres escenarios en España en el horizonte 2025, que dependerán fundamentalmente de la actitud de los ciudadanos y de los agentes económicos, sociales y políticos. El estudio augura un escenario «azul» propicio para dar respuesta a la exigencias del desarrollo sostenible y un escenario «depredador» dominado por la ausencia de criterios sostenibles. En nosotros está la elección.
 

Fuente: ABC Periódico Electrónico S.A,  23 de Octubre de 2007

 

 

-En el 2020 veremos el Ártico sin hielo

Entrevista a Carlos Duarte, presidente de ASLO. El Premio Nacional de Investigación 2007 habla sobre las consecuencias irreversibles del cambio climático y la responsabilidad de los políticos.

No es difícil imaginarse a Carlos Duarte, madrileño nacido en Lisboa en 1960, dando sus primeros pasos por las calles de la capital portuguesa, entre el olor a peixe grelhado y el sonido del puerto.

Posiblemente, sus dos mayores aficiones, los océanos y los ríos, vienen de entonces, de los años convulsos del Portugal del dictador Salazar, vividos con un pie en el Atlántico y otro en el Tajo. En este tiempo, Duarte, investigador del
Instituto Mediterráneo de Estudios Avanzados (del CSIC y la Universidad de las Islas Baleares), ha subido al olimpo de las ciencias acuáticas, la presidencia de la Sociedad Americana de Oceanografía y Limnología (ASLO). El 4 de octubre, recién llegado del Ártico, recibió el Premio Nacional de Investigación 2007.

Pregunta. ¿Cómo ha visto el Ártico?
Respuesta. Ver el deshielo en directo es abrumador. Cuando recibíamos imágenes de satélite, con unas 12 horas de retraso respecto a cuando se tomó la fotografía, el paisaje que teníamos delante ya no se parecía en nada. Nos costó entender que lo que estábamos viendo era el deshielo más espectacular que ha ocurrido jamás en el Ártico.

La placa de hielo permanente estaba retrocediendo 20 kilómetros diarios. En otros años esta tasa de retroceso era del orden de 5 kilómetros. Pensábamos que eran los vientos o las mareas, que movían el hielo, pero al cabo de una semana nos dimos cuenta de que grandes bloques de hielo, capaces de abrir el Hespérides como una lata de sardinas, al día siguiente eran agua líquida.

P. ¿Qué ocurriría si se derritiera?
R. Hay que tener en cuenta que esa cobertura de hielo, que podía tener hace unas décadas del orden de 10 ó 14 millones de kilómetros cuadrados, es una especie de espejo que refleja la radiación hacia el espacio. Es una radiación que no está siendo absorbida como calor en la Tierra.

Cuando ese océano que es blanco se transforma en azul, con agua en la superficie, la radiación que se reflejaba se absorbe. Esto supone un incremento enorme de la cantidad de calor que está siendo retenida en el planeta y es, probablemente, un impulso al calentamiento.

Y no sólo es el efecto local: ese agua de deshielo fluye hacia el Atlántico y afecta a la corriente que pasa por la costa de Groenlandia, que tiene un papel fundamental como motor de todas las grandes corrientes oceánicas. Estas corrientes son el baño María del planeta, ya que cogen el calor de las zonas tropicales y lo distribuyen hacia latitudes más altas.

El aumento de ese agua de deshielo podría frenar estas corrientes oceánicas y provocar cambios climáticos bruscos, del orden de un aumento de temperatura de cuatro grados en nuestras latitudes. Y, por contra, una disminución de temperaturas a latitudes altas de cuatro grados, capaz de generar una glaciación en latitudes altas. Cambios en el hielo podrían desencadenar cambios abruptos en el clima del planeta, y eso nos afecta a todos.

P. ¿Hay una fecha de caducidad para el Ártico?
R. Desde hace décadas hay síntomas claros de que la extensión del hielo está disminuyendo. Hasta hace dos años parecía que esa disminución era gradual. Entonces, simplemente extrapolando esa pérdida de hielo se llegaba a predecir que el Ártico podría estar sin hielo en verano en el año 2100. Ahora, en 2007, la tasa se ha acelerado. Si hacemos una proyección de este nuevo ritmo, posiblemente estaríamos hablando de un océano glacial Ártico libre de hielo antes de 2020.

P. ¿Es reversible esta situación?
R. Creo que no, a escalas de tiempo relevantes para las personas. Nosotros, o nuestros hijos, veremos un Ártico libre de hielo en verano. ¿Por qué hay grupos que siguen negando los efectos del CO2? Eso es una percepción pública que no se corresponde con el discurso científico, porque si miramos los contenidos de cualquier gran congreso, o la literatura científica, la presencia de teorías que pudieran negar que estamos inmersos en un proceso de cambio climático inducido por la actividad humana sería menor de una de cada 1.000, o quizá inexistente.

El debate en ciencia es cuál es el alcance de este cambio. La percepción pública de que la comunidad científica no se pone de acuerdo se debe a que la presencia de ambas teorías, los que admiten el cambio climático y los escépticos, en los medios de comunicación es de un 50%, cuando en la comunidad científica sería de 999 a 1. A esos científicos que tienen opiniones escépticas, que normalmente no fundamentan en publicaciones científicas, se les está dando una cancha excesiva.

P. Como presidente de ASLO, ¿cómo está viendo la postura de EEUU frente al cambio climático?
R. Su actitud depende de quiénes son los líderes del país en la actualidad y de los grupos de presión que les rodean, pero esto podría cambiar rápidamente. Ahora estamos hablando de una actitud muy poco cooperativa para poner freno a las emisiones de gases de efecto invernadero, pero en la Administración anterior, el vicepresidente Al Gore fue uno de los impulsores del Tratado de Kioto, y es una persona que ejerce un liderazgo mundial para intentar atajar este problema.

Es muy posible que tras las elecciones del año que viene, EEUU tenga una posición muy diferente. En cualquier caso, dos terceras partes de los estadounidenses se declaran preocupados por este problema, pero en España el porcentaje alcanza el 93%. A pesar de ello, todavía no hemos sabido buscar fórmulas constructivas para afrontar este desafío. ¿Qué culpa tiene el 'ladrillo' de la situación de los hábitats costeros? En nuestro país el ladrillo tiene prácticamente toda la culpa.

El 50% de las costas españolas están alteradas por la actividad humana, fundamentalmente por la presencia de infraestructuras y urbanizaciones. El desafío consiste en proteger lo que queda y, poco a poco, remediar los impactos que hemos generado, para que nuestras costas puedan responder de una forma positiva al problema del cambio climático.

P. En este tema sí es difícil dar marcha atrás...
R. Sí, es difícil, pero no imposible. En el ámbito de las políticas medioambientales lo que se puede hacer en el plazo de una legislatura es poco. Se requiere un consenso en la clase política de nuestro país, que haga que el medio ambiente no sea un caballo de batalla del debate político. Que haya unos objetivos que se puedan mantener a largo plazo. Hoy por hoy, nuestra clase política no ha demostrado la capacidad de alcanzar esos consensos en las cuestiones más fundamentales para nuestro país. Y ésta es una de ellas.

P. ¿Se puede contemplar la piqueta para arreglar las costas?
R. Hay dos maneras de reaccionar frente al irreversible aumento del nivel del mar. Una es usar el dinero del contribuyente para regenerar las infraestructuras afectadas. Y otra, más efectiva, consiste en planificar una retirada. Intentar poco a poco mover esas infraestructuras tierra adentro, 100 ó 200 metros. Ya se está haciendo en Australia o Canadá, no es imposible. Pero, desde luego, no es algo que se pueda hacer en una legislatura. Ni a la fuerza.

Fuente: Público, 22 de Octubre de 2007
 


 

-La revolución de la nanotecnología

El premio Príncipe de Asturias de Investigación en 1998, Emilio Méndez, impartió una lección magistral en la Universidad de Zaragoza, en la que dijo que la nanotecnología tiene posibilidades "enormes" que pueden provocar una revolución que transforme la vida diaria de las personas.
 

Este físico, que actualmente dirige el nuevo Centro de Nanomateriales Funcionales del Laboratorio Nacional de Brookhaven (Nueva York), explicó a los medios de comunicación que dicha revolución puede producirse en campos tan dispares como el de la salud, el medio ambiente o las comunicaciones.

Esta es una revolución "potencial y embrionaria", agregó, pero que acabe siendo una realidad depende de muchos factores, algunos internos a la ciencia y otros externos, como de seguridad, de comercialización, económicos e "incluso políticos".

Pero si en algún campo destaca la nanotecnología es en el de la informática, hecho que queda patente con la concesión del Premio Nobel de Física a dos europeos por el descubrimiento de la llamada magnetorresistencia gigante, que "ha jugado y juega" un papel "capital" en el almacenamiento de información en los discos duros, en los ordenadores portátiles o en los reproductores de música.

Méndez, que ha sido colaborador del Premio Nobel de Física de 1973 Leo Esaki, señaló que el futuro se centra no solo en mejorar la capacidad de almacenaje, sino en la de generar y reproducir información.

Para ello, agregó, se trabaja actualmente en sustituir los transistores de silicio por otros materiales como los nanotubos de carbono y, "soñando un poco más", en reemplazar estos últimos por moléculas, que es lo que se conoce como "electrónica molecular", algo a lo que quizás se llegue "en 15 ó 20 años", dijo.

Por otra parte, afirmó que la nanociencia, "como ciencia y no como tecnología", goza de "muy buena" salud en España, país en el que existen muchos grupos, como en Madrid, Barcelona o San Sebastián, que pueden competir a nivel internacional "sin ningún problema".

Lo único que le falta a España, y en general a Europa, comentó el físico leridano, es dar el salto de la ciencia a la nanotecnología, que viene a ser "su aplicación práctica".

"La ciencia está muy bien, es la base", pero subrayó que las cosas no se pueden quedar así, ya que hay que tener iniciativa y dar el salto "innovativo" para aplicar todos los descubrimientos. Respecto al panorama actual y futuro de los jóvenes investigadores, Méndez dijo que aprecia en este colectivo "ilusión y entusiasmo", pero "sobre todo preparación", ya que "siempre dejan el pabellón de España bien alto" por todo el mundo.

Fuente: EFE, 22 de Octubre de 2007

 

-El "Eureka" de cinco magníficos

Los españoles que han sido portada de las más prestigiosas revistas científicas se cuentan con los dedos de las manos. Cinco días antes de que «Nature» y «Science» reciban el Príncipe de Asturias, los genios recuerdan sus descubrimientos.

Son críticos con el sistema; en España, denuncian, no se invierte lo suficiente y eso, por supuesto, se traduce en que los investigadores que han logrado llegar a la portada de Nature y Science sean la excepción. Con una historia centenaria a sus espaldas, las dos revistas, la primera británica y la segunda editada en EEUU, son las publicaciones científicas más prestigiosas del mundo, los principales altavoces mediáticos que tiene la ciencia para llegar a la comunidad internacional.

En ellas han escrito Isaac Newton o Charles Darwin y en sus páginas se ha explicado desde la Teoría de la Relatividad hasta el genoma humano. Por ello, publicar en estos semanales es el sueño de cualquier investigador. Aunque muy pocos son los elegidos. «El 95% de los trabajos enviados son rechazados. Ha habido premios
Nobel a los que les han dicho que no», apunta el astrofísico de la Universidad del País Vasco Agustín Sánchez-Lavega, el único compatriota que ha logrado dos portadas por sus estudios sobre las tormentas y vientos en Saturno.

Incluso los datos que facilita el
Consejo Superior de Investigaciones Científicas (CSIC) pueden dar lugar al sonrojo. A escala mundial y según el número de artículos publicados, nuestro país ocupa las posiciones 12 en Nature y 14 en Science, un nivel que no se corresponde con el hecho de que seamos la octava potencia económica mundial. ¿La razón? El número de científicos es bajo y la calidad media, comparada con otros países, discreta. «Sólo hay que tener en cuenta que Ramón y Cajal, el único Nobel español en una disciplina científica, lo obtuvo hace 101 años. Y lo logró porque sus investigaciones costaron cuatro duros. Así de claro», responde Jaume Baguñà, catedrático de Genética y portada en Science en 1999.

Un ejemplo claro de que el sistema no cuida como se merece a nuestros científicos lo encontramos en el oceanógrafo Xavier Irigoyen, uno de los muchos casos de españoles que tienen que salir fuera para poder hacer su trabajo. Su estudio sobre ecosistemas marinos terminó en la portada de Nature en 2002. Eso sí, un equipo internacional firmaba la investigación.

Salvador Moyà -director del
Institut Català de Paleontología-, Juan Luis Arsuaga -codirector del yacimiento de Atapuerca-, Jesús Muñoz -del Real Jardín Botánico de Madrid- y Ángel Felicísimo, de la Universidad de Extremadura, también forman parte de la exclusiva lista de españoles de portada y celebrarán que el próximo viernes, 26 de octubre, estas dos revistas reciban el premio Príncipe de Asturias de Comunicación y Humanidades. Como homenaje a su esfuerzo, Magazine les ha pedido que recuerden el momento en el que, como Arquímedes hace 2.200 años, cantaron el '¡Eureka, eureka!', '¡Lo encontré, lo encontré...!'.

Juan Luis Arsuaga, el cráneo más completo.

Jose Luis Arsuaga



Portada: 'Nature', 8 de abril de 1993.

Artículo: sobre el descubrimiento, en 1992, del cráneo humano más completo del registro fósil de la Humanidad, el C-5.

Momento del 'Eureka': tras 10 años trabajando en Atapuerca (Burgos), el 7 de julio de 1992, encontraron el primer parietal. El resto, apareció poco a poco. El cráneo, de más de medio millón de años, estaba desarticulado y la cara fue la última en salir. Era la hora de brindar con cava...

La ciencia es como las competiciones deportivas. Contra todo pronóstico, un etíope que ha estado entrenando sin zapatillas llega a una Olimpiada y resulta que en la prueba reina de velocidad gana a un alemán preparadísimo que ha invertido muchísimo dinero en estar a punto para la cita. Y así es precisamente como vive Juan Luis Arsuaga, 53 años, cabeza visible del equipo que desde hace más de 25 años trabaja en la sierra de Atapuerca, el hecho de que sus descubrimientos «hayan hecho historia». Sobre todo, el que mereció la portada de Nature en abril de 1993.

Llevaban casi una década rescatando pequeños fósiles, como dientes, trozos de mandíbulas..., nada que no apareciera en otros lugares del mundo. Hasta que el 7 de julio de 1992 dieron con el filón del yacimiento de la Sima de los Huesos que les catapultaría a la primera división del estudio de nuestros antepasados: un verdadero 'trofeo' científico, más de 30 esqueletos humanos que vivieron hace medio millón de años. Entre ellos el famoso cráneo C-5, uno de los 10 descubrimientos más importantes de la historia, según Nature. Por algo se trata del cráneo más completo del registro fósil de la Humanidad. "No quiero más medallas, la fama no me impresiona; lo que pido es más apoyo, más becas, más contratos para mis investigadores", reclama este gran referente internacional de la paleontología y Príncipe de Asturias de Investigación Científica (1997).

Jesús Muñoz y Ángel Felicísimo. Musgos y viento

Muñoz y Felicísimo (centro, derecha)



Portada: 'Science', 21 de mayo de 2004.

Artículo: demostraba que las zonas de Sudáfrica y Suramérica que están conectadas por los vientos comparten el mismo tipo de especies florísticas. En este caso estudiaron los musgos y líquenes.

Momento del 'Eureka': después de un par de años recopilando información, en marzo de 2003 tenían ya procesados los datos de los vientos que les interesaban. A partir de ese momento, supieron que habían dado en la diana.

Desde su pequeño despacho en el Real Jardín Botánico, Jesús Muñoz (Asturias, 1964) no tiene vistas a los árboles y plantas que pueblan este pulmón verde de la capital. Sin embargo, en las estanterías que visten sus paredes se condensa su vida profesional, cientos de libros que recogen todo lo publicado sobre musgos, líquenes y helechos a nivel mundial. Y fue así, comparando especies sudafricanas con otras existentes en América Latina, cuando germinó la pregunta que, con los años, terminaría en la portada de Science.

¿A qué se debe que el mismo tipo de musgos sean endémicos de estas dos zonas separadas por miles de kilómetros? Con la ayuda del también asturiano Ángel Felicísimo, 49 años y profesor de la Universidad de Extremadura, y de otros tres investigadores (Ana Rosa Burgaz, Francisco Cabezas e Isabel Martínez), y con el insustituible apoyo de la información que recibían en su ordenador de la ruta de los vientos en el hemisferio Sur, que regularmente actualizaban los satélites, dieron con la respuesta a la pregunta: las zonas terrestres que están conectadas por el viento en Suramérica y Suráfrica comparten más especies que aquellas otras que no lo están. El coste de la investigación fue, ¡sorpresa!, cero euros.

Los datos botánicos salieron de los libros que invaden su despacho; los del viento, a través de los satélites de la
NASA, vía Internet, de forma gratuita. Recibieron felicitaciones sinceras, pero también despertaron rencores en algunos colegas. "En esta profesión prima más la antigüedad que la excelencia".

Agustín Sánchez-Lavega. La obsesión por Saturno

Agustín Sánchez-Lavega



Portadas: 'Nature', 3 de octubre de 1991 y 5 de junio de 2003.

Artículo: único científico español con dos portadas: por su estudio sobre las tormentas en Saturno (1991); y sobre los vientos en el mismo planeta (2003).

Momento del 'Eureka': fue por casualidad. En octubre de 1990, le avisaron por teléfono, a las dos de la madrugada, de que el fenómeno que llevaba estudiando desde que publicó su tesis doctoral en 1986 acababa de 'estallar'. Logró hacer las mejores fotos hasta la fecha de las tormentas de Saturno.

De entrada, para un lego en la materia, tener datos de las atmósferas de planetas gigantes que giran muy rápido, como Júpiter o Saturno, es casi como si a un niño de 5 años le regalan una potente motocicleta. No le sirve para nada. Sin embargo, para este astrofísico de la Universidad del País Vasco, de 52 años, entender por qué en ellos hay vientos de hasta 1.000 km/h puede significar encontrar la respuesta a los procesos que se suceden en la atmósfera terrestre y que tanto nos preocupan: cambio climático, agujero de ozono, efecto invernadero...

Y en ello estaba, estudiando las tormentas de Saturno, una especie de «gota fría» de 20.000 km de tamaño que parecía repetirse cada 30 años, cuando recibió una llamada de teléfono que marcaría para siempre su carrera profesional. Sus colegas franceses del Observatorio del Pic-du-Midi en el Pirineo le avisaron de que el fenómeno había «estallado». «El nuestro fue así el mejor estudio realizado hasta la fecha de este fenómeno y terminó en portada», recuerda. En 2003, repetiría la hazaña con otro trabajo sobre los vientos en el mismo planeta.

Salvador Moyà. El estudioso de los primates.
 

Salvador Moyá


Portada: 'Nature', 11 de enero de 1996.

Artículo: estudio sobre un esqueleto parcial de un gran antropomorfo de 9,5 millones de años (Dryopithecus laietanus).

Momento del 'Eureka': el proceso fue largo. Se inició en 1991 y tras el análisis de los restos encontrados durante años de excavación, el director del Institut Català de Paleontología se dio cuenta de que habían encontrado un fósil clave para comprender un momento fundamental de la evolución de los primates de nuestra propia familia (Hominidae).

Los huesos correspondientes a una mano. Ésa fue la foto elegida para la portada de Nature. Al fin y al cabo, el mérito del trabajo versaba sobre el origen del tipo de locomoción que caracteriza a los grandes antropomorfos modernos (orangutanes, gorilas...), capaces de moverse de árbol en árbol, con todo el cuerpo suspendido de las manos que se sujetaban de las ramas. «Se hacen esfuerzos para mejorar, pero todavía estamos lejos de invertir lo mismo que los países de nuestro entorno. Y esto es un gran lastre. Conseguiremos más portadas si mejoramos la inversión y modificamos el sistema», palabra de científico.

Jaume Baguñà. El estudio de la simetaría bilateral

Jaume Baguñà



Portada: 'Science', 19 de marzo de 1999.

Fuente: elmundo.es, 22 de Octubre de 2007



Artículo: el equipo que dirigía encontró un eslabón clave en la evolución de los animales. Demostró que un grupo de gusanos marinos muy simples (Platelmintos Acelos) son los antepasados vivos más antiguos de los seres con simetría bilateral (lado izquierdo y derecho), entre ellos, también el hombre.

Momento del 'Eureka': tras casi tres años de trabajo, en 1998, este catedrático de Genética de la
Universidad de Barcelona comprobó cómo los análisis que habían hecho indicaban que la hipótesis de la que partían era real.

Lo tenían muy cerca de casa y de su centro de trabajo, en las aguas de Sitges. Allí, en la capa superficial de la arena marina de la playa localizaron a unos diminutos gusanos planos que, según sus investigaciones, podrían ser parecidos a los primeros seres con simetría bilateral, es decir, con un diseño corporal con un lado izquierdo y derecho, que aparecieron en la Tierra hace más de 550 millones de años. Saber cómo era aquel ancestro permitiría determinar cómo pudieron surgir los primeros animales con un diseño corporal más complejo, como es el caso del hombre. Sin embargo, a pesar de la satisfacción propia de haber logrado publicarlo en Science, el 'reconocimiento' científico se volvió en contra del equipo investigador. "A partir de entonces tuvimos más dificultades para recibir financiación para nuevas investigaciones. Éste es un país lleno de envidiosos e incompetentes".

Fuente: elmundo.es, 22 de Octubre de 2007



 

-La pastilla antisida llega a Europa

El primer tratamiento contra el sida que reúne tres fármacos en una sola pastilla podría estar disponible en Europa antes de que finalice el año. De momento, el comité de expertos de la Agencia Europea del Medicamento (EMEA) que evalúa estos productos ha dado el primer paso al hacer un dictamen favorable para su autorización.
 

El fármaco, conocido como Atripla, es una combinación de tres de los antirretrovirales más utilizados por los pacientes seropositivos: efavirenz (comercializado según el país por Bristol-Myers Squibb o MSD), tenofovir y emtricitabina (ambos de Gilead Sciences). Para llegar a la polipíldora ha sido necesaria una colaboración sin precedentes de estos tres laboratorios farmacéuticos, que esperan poder comercializar el producto en los 27 países de la UE a finales de año.

La opinión positiva del comité de la EMEA sobre Atripla destaca su capacidad para "mantener la carga viral (la cantidad de virus en sangre) en niveles bajos" y, sobre todo, que simplifica la terapia, ya que es suficiente con un comprimido una vez al día, mientras que hace tan sólo una década los infectados por el VIH tenían que tomar hasta 30 pastillas diarias.

Este fármaco 'tres en uno' se recomienda a aquellos pacientes con VIH que llevan más de tres meses en supresión virológica gracias al cóctel de antirretrovirales que toman. Sin embargo, no está indicado para aquellos pacientes que hayan tenido algún fracaso con la terapia o que hayan desarrollado resistencias a alguno de los tres medicamentos que componen Atripla.

Entre los efectos secundarios más comunes que puede dar están las náuseas, los mareos, la fatiga, la diarrea, los dolores de cabeza y las pesadillas, entre otros.

"Cada uno de los componentes de Atripla ha mostrado por separado su eficacia y tolerabilidad en pacientes con VIH", ha declarado el doctor Brian Gazzard, presidente de la
Asociación Británica de VIH. "Lo mejor es que, al ser una sola pastilla, facilita mucho seguir la terapia, algo fundamental para que tenga éxito".

Un ano de éxito en Estados Unidos

La
FDA (la agencia que regula los medicamentos en EEUU) aprobó Atripla en julio de 2006 y, desde entonces, se ha convertido en el tratamiento más recomendado para los pacientes seropositivos que inician la terapia.

Además de en Estados Unidos, la aprobación de la FDA también incluía la distribución del fármaco en los países en vías de desarrollo que se benefician del programa PEPFAR, el proyecto del presidente George W. Bush para ayudar a controlar la epidemia en las zonas más desfavorecidas.

Tras la experiencia estadounidense, la
Organización Mundial de la Salud (OMS) decidió en marzo de este año añadir Atripla a su lista de Medicamentos Esenciales. Canadá ha sido, por el momento, el último país que ya ha aprobado la comercialización de esta polipíldora.

Fuente: elmundo.es, 22 de Octubre de 2007
 

 

-Cambio de horario: más molesto que rentable

El próximo domingo de madrugada los ciudadanos de la UE retrasaremos nuestros relojes, una medida de dudosa rentabilidad que nos permitirá dormir una hora más pero provocará molestias en el sueño a muchas personas, sobre todo a niños y ancianos.

El cambio de hora, de obligado cumplimiento en toda la Unión, comenzó a generalizarse a partir de 1974, cuando por la primera gran crisis del petróleo algunos gobiernos decidieron adelantar una hora los relojes durante los meses de más luz -entre marzo y finales de septiembre- para reducir el consumo de electricidad.

En 1981 se adoptó una primera directiva comunitaria, que fue renovada cada cuatro años hasta que en enero de 2001 el Parlamento y el Consejo de la Unión aprobaron la novena, que daba carácter indefinido al cambio horario.

El Gobierno español decidió en marzo de 2002 incorporarla mediante un real decreto a nuestro ordenamiento jurídico, y así el último domingo de marzo los relojes se adelantan una hora y se retrasan el último de octubre, como en todo el territorio comunitario.

Muchos son los detractores de una medida cuyos resultados económicos ni la propia UE conoce con exactitud, ya que sus repercusiones, especialmente en verano, son muy distintas en función de la situación geográfica de los países y también diferentes en cada sector de actividad. "De ahí la dificultad -reconoce la UE- de alcanzar conclusiones universales".

El ahorro energético pretendido no es pues el mismo en un país del norte que en uno del sur. Más concretamente en España, no tiene las mismas consecuencias en Baleares que en Galicia, zonas entre las que existe una diferencia solar de una hora.

"Resulta muy sospechoso -dijo Manuel Toharia, director del Museo de las Ciencias de Valencia- que una medida como ésta sea efectiva al mismo tiempo en Dinamarca o Alemania que en España, Grecia o Italia. Incluso en un mismo país. ¿De verdad ahorran lo mismo los gallegos que los andaluces?".

"Por otra parte -continúa- ¿cuál es la fecha idónea para ese cambio? ¿Porqué no duran la hora de invierno y la de verano exactamente medio año, que sería lo justo si de verdad el ahorro se debe al descenso o aumento progresivos de horas de sol entre equinoccio y equinoccio?".

La Comisión Europea reconocía en 2000 que el ahorro energético era "relativamente modesto", entre un 0 y un 0,5%, tesis que corrobora Red Eléctrica de España, que lo considera "insignificante, no relevante". "De no producirse el cambio horario -informó un portavoz de Red Eléctrica- el consumo de más estaría en torno a los 40.000 megavatios hora al año, una cantidad insignificante frente a los cientos de miles de gigavatios que se consumen anualmente".

Escaso ahorro

Según estimaciones del Instituto para la Diversificación y Ahorro de la Energía (IDAE), el ahorro doméstico en iluminación desde finales de marzo hasta el próximo fin de semana puede representar un 5%. "Si el consumo medio de una familia española es de 3.200 kilovatios hora, el ahorro sería de más de 6 euros por hogar y más de 60 millones para el conjunto".

A ello habría que sumar, procedente del comercio y los servicios, según el IDAE, un ahorro del 3% -más de 6 millones de euros- en concepto de reducción de consumo de aire acondicionado.

"Obviamente -destaca Toharia- lo que se ahorra por la mañana se gasta de más por la noche, o viceversa, pero el tiempo bruto de actividad, con o sin luz solar, es el mismo que si no cambiáramos la hora".

La patronal de las eléctricas, Unesa, estima "eficaz" la medida y "efectivo" el ahorro que conlleva, aunque no lo cuantifica. "Si no hubiera ahorro no se haría", comentó un portavoz de la organización. "Si se retrasara, por ejemplo, una hora el encendido de las luces navideñas en toda España ahorraríamos lo que produce una unidad nuclear", agregó.

El cambio de hora, según los expertos consultados, se soporta mejor en otoño que en verano, pero en ambos casos afecta al reloj biológico de las personas y provoca trastornos en el sueño especialmente en niños y ancianos.

Según dijo el pediatra José García Sicilia, del madrileño hospital infantil de La Paz, el cambio de otoño "afecta mucho a los bebés, pero menos que a los adultos. Para los más pequeños es peor el de verano, pues les supone levantarse antes".

En ambos casos, las consecuencias no son graves, "los problemas duran poco y nuestro organismo acaba acostumbrándose. Es cuestión de días", añade. "Es necesario -afirma la Comisión Europea en un informe- de uno a siete días para que la hora de despertar, la temperatura y la calidad del sueño se adapten al nuevo horario. En general -continúa- las perturbaciones desaparecen al cabo de una o dos semanas".

Parada de 60 minutos para los trenes

Todos los años, desde hace cinco, el profesor Juan Antonio Madrid realiza un estudio con sus alumnos de la Universidad de Murcia sobre las consecuencias que tiene en ellos el cambio de hora de octubre, y siempre la conclusión ha sido la misma: los trastornos en el sueño son pequeños.

"En marzo, cuando nos quitan una hora -comenta el docente- la adaptación del organismo es bastante negativa, se tolera mucho peor. Los trastornos en el sueño son mayores en pequeños y ancianos, pero no superan la semana". El cerebro humano, "nuestro reloj biológico", continúa el profesor, "no se deja manipular fácilmente, de ahí que se resista durante unos días. Más brusco es el cambio que experimenta un joven cualquier fin de semana que sale de marcha; el lunes ya lo tiene superado".

Manuel Toharia pone el acento en la "inutilidad" de la medida y destaca que los trastornos en el sueño son evidentes, "pero una hora es muy poco comparado con las seis de jet-lag por viajar a Nueva York o las nueve a California". "Lo que pasa -dice- es que a la Unión Europea le costó muchos decenios llegar a un acuerdo, y ahora va a costar otro tanto o más deshacerlo, a pesar de algunos intentos por parte, entre otros, de Francia".

En la madrugada del sábado al domingo próximos, los más de veinte trenes de Renfe que circularán esa noche -internacionales o de largo recorrido- pararán sesenta minutos en una estación para no descuadrar la operativa de circulación, previa información a los viajeros. Los aviones de Iberia no sufrirán el cambio, "pues a esas horas no hay prevista ninguna salida", informó un portavoz de la compañía.

Fuente: elmundo.es, 21 de Octubre de 2007

 

 

-Por primera vez, una mujer al frente de la Estación Espacial Internacional

Una astronauta asumirá hoy, por vez primera, el mando en la Estación Espacial Internacional (EEI), según ha anunciado el Centro de Control de Vuelos Espaciales (CCVE) de Rusia. "La estadounidense Peggy Withson se convertirá en la primera mujer comandante de la EEI", informó un portavoz del CCVE a la agencia Interfax.

Peggy Withson

Si ya es novedoso que una astronauta asuma el mando, lo es aún más que sea una norteamericana la que dirija una estación espacial rusa. La ceremonia de traspaso de poderes tendrá lugar esta tarde entre Withson, integrante de la decimosexta expedición a la Estación Espacial Internacional, y el ruso Fiódor Yurchijin, que abandonará dentro de unos días el ingenio espacial.

"Eso nunca ha ocurrido antes, ni en la estación orbital 'Saliut' ni en la 'Mir'", añadió. El director de la Agencia Espacial Rusa Roscosmos, Anatoli Permínov, manifestó su "confianza" en la astronauta norteamericana, aunque reconoció que en Rusia algunos han expresado "suspicacias" al respecto.

Withson, astronauta de la NASA y bióloga de formación, viajó por primera vez a la Estación como tripulante de la expedición EEI-5, ocasión en la que desempeñó el puesto de ingeniera de a bordo. La estadounidense, de 47 años, recibió como regalo antes de viajar a la EEI un tradicional látigo kazajo, aunque se mostró convencida de que no tendrá que recurrir a ese instrumento para hacerse respetar.

La Estación Espacial Internacional recibió el pasado 12 de octubre a Withson y a otros dos cosmonautas, el ruso Yuri Malenchenko y el primer malasio, Sheij Muszaphar Shukor, que llegaron a bordo de la nave rusa 'Soyuz'. Roscosmos ha calificado la actual misión EEI-16 como "la más complicada en la historia de la Estación Espacial" por el gran volumen de trabajo que le espera en la órbita.

Durante los 192 días que permanecerán en el espacio, la EEI-16 recibirá dos naves de carga rusas 'Progress', el primer carguero europeo, 'Julio Verne', y tres transbordadores estadounidenses que traerán para su ensamblaje tres nuevos módulos de la estación, uno norteamericano, otro europeo y otro japonés.

El matriarcado en la EEI se reforzará con la llegada la próxima semana del transbordador estadounidense 'Discovery', también comandado por una mujer, Pamela Melroy, una veterana de la Guerra del Golfo.

 

 

-Científicos españoles descubren que el cuerpo carotídeo crea células madre convertibles en neuronas

El equipo que dirige en Sevilla el científico José López Barneo publica en la revista 'Cell' un trabajo que describe, por primera vez, que el cuerpo carotídeo genera células madre -aquellas capaces de autorreproducirse- y que pueden cultivarse en laboratorio para convertirse en neuronas.

López Barneo ha destacado la doble trascendencia de este trabajo, tanto en su vertiente de investigación básica como en su futura aplicación para la práctica clínica en enfermedades neurodegenerativas, como el párkinson.

El trabajo de este equipo de científicos sevillanos, del que forman parte los investigadores Ricardo Pardal, Patricia Ortega-Sáenz y Rocío Durán, describe en primer lugar y de forma pionera la existencia de células madre en el cuerpo carotídeo, una pequeña glándula localizada junto a la arteria carótida. Ello confirmaría que el sistema nervioso periférico, del que forma parte el cuerpo carotídeo, es capaz de generar células madre neuronales, posibilidad que hasta ahora se circunscribía al sistema nervioso central.

El estudio también determina que el cultivo in vitro de estas células madre permite caracterizarlas en neuronas, células cerebrales ricas en dopamina, neurotransmisor cuya pérdida acelera las enfermedades neurodegenerativas, como el párkinson, así como sustancias neuroprotectoras que previenen estas patologías.

La investigación del equipo de López Barneo consolida sus anteriores trabajos relacionados con el trasplante de células del cuerpo carotídeo a enfermos de párkinson, para que aumentasen la producción de dopamina. "Este descubrimiento describe, por primera vez, células madre en el cuerpo carotídeo, donde no se había descubierto hasta ahora este nicho neurogénico y, en segundo lugar, que esas células se desarrollan in vitro en laboratorio, donde se obtienen neuronas, lo que supone un avance en terapias celulares para enfermedades neurodegenerativas", ha explicado.

López Barneo ha subrayado la importancia de que este trabajo se haya realizado íntegramente en Andalucía y de que un equipo científico publique en Cell, una prestigiosa revista donde son escasas las publicaciones de científicos españoles.

López Barneo es catedrático de Fisiología de la
Universidad de Sevilla, coordinador de Investigación del complejo hospitalario Virgen del Rocío de Sevilla y director del Instituto de Biomedicina de Sevilla (IBIS) y del Centro de Investigación Biomédica en Red (CIBER) de Enfermedades Neurodegenerativas que reúne a los principales investigadores españoles en este campo.

Este investigador, nacido en 1952 en Torredonjimento (Jaén) ya logró en 1998 un tratamiento experimental contra el párkinson basado en el autotrasplante en ratas de células del cuerpo carotídeo. Este trabajo fue seguido con autotrasplantes en humanos, cuyo resultado resultó menos espectacular al tratarse de pacientes con avanzado grado de enfermedad neurodegenerativa.

López Barneo ha sido elegido recientemente presidente de la
Sociedad Española de Terapia Génica y Celular y ha publicado más de cien artículos en revistas científicas de elevado factor de impacto, como Cell, Science, Neuron, Nature Neuroscience o New England Journal of Medicine, entre otras.

Fuente: EFE, 19 de Octubre de 2007

 

 

-La ley de biodiversidad se echa al mar

Hoy en día, sólo el 3% de los ecosistemas marinos españoles cuenta con algún tipo de protección, aunque el objetivo de España ante la ONU es llegar al 10% en 2010.

La Ley de Biodiversidad y Patrimonio Natural, aprobada ayer en el Congreso de los Diputados, prevé la creación de Áreas Marinas Protegidas, figura que pretende equiparar la protección de los hábitats y especies del mar con la terrestre. La norma, que se tramitará ahora en el Senado, actualiza la Ley de Conservación de 1989, que no recogía ninguna protección específica para el medio marino.

La Red de Áreas Protegidas podrá incluir zonas marinas comprendidas hasta las doce millas en el Mediterráneo y hasta las 200 millas en la costa atlántica española, explica Pilar Marcos, del Programa Marino de
WWF/Adena.

Para configurar la Red, se han elaborado informes con propuestas de hábitats y ecosistemas representativos y únicos. "Tras el hundimiento del Prestige frente a las costas gallegas, surgió la idea de inventariar la biodiversidad marina, ya que no se sabía lo que había ni cómo se distribuían las comunidades biológicas marinas", añade Marcos. La Ley de Biodiversidad también incluye la realización del primer inventario nacional de hábitats y especies terrestres y marinos.

La organización
Oceana ha propuesto, por su parte, que se incluyan en las áreas protegidas los ecosistemas de montañas submarinas, desiertos marinos, arrecifes de coral, jardines de gorgonias, campos de esponjas, arrecifes de moluscos bivalvos, y prados de algas verdes y algas rojas, entre otros.

Qué se prohibe

Las reservas marinas contarán con un Plan de Ordenación de Recursos Naturales, como se hace ya en las terrestres, que deberá contemplar qué actividades deben quedar prohibidas y cuáles se permiten.

WWF/Adena cree que la pesquería de superficie podría permitirse, por ejemplo, en el Banco del Danés para la pesca de bonito y caballa, pero no la de fondo porque arrasa la biodiversidad. "Hay que trabajar con los pescadores y, tras cinco o diez años de funcionamiento de la reserva, se dan cuenta de que aumenta la biomasa y hay más pesca fuera de la zona protegida", destaca Marcos.

Entre las actividades que deberían restringirse, se encuentran los proyectos eólicos marinos en el caso de zonas de paso de aves y cetáceos, como el Estrecho de Gibraltar, las extracciones de petróleo y gas, y la limpieza de barcos, así como controlar el turismo de avistamiento de cetáceos y las inmersiones de buceo deportivo para disminuir las molestias en la fauna y flora. "En el caso de tránsito de buques, debería desviarse la ruta o aminorar la marcha a su paso por la zona protegida", propone Marcos.

Otra novedad de la norma es la posibilidad de crear reservas transfronterizas, tras un acuerdo con los países vecinos. Entre las candidatas a formar parte de esta nueva figura, destacan el Cap Bretón en el Golfo de Vizcaya (España-Francia), y las montañas submarinas y conos volcánicos de Alborán (España-Marruecos).

En el ámbito terrestre, la Ley de Biodiversidad también da mayores garantías para impedir el urbanismo, nuevas carreteras o vías férreas en zonas de la
Red Natura, y evitar casos como el de las Navas del Marqués (Ávila).

Fuente: Público, 19 de Octubre de 2007
 

 

-Descubren un agujero negro junto a una estrella

El telescopio gigante Gemini, de Hawai, en colaboración con el observatorio espacial Chandra, acaba de registrar el mayor agujero negro estelar que se conoce, con una masa 16 veces superior a la de nuestro Sol.

El astro forma un sistema binario junto a una gran estrella a la que se encuentra casi pegado, en la galaxia espiral Messier 33. La estrella acompañante pasa directamente frente al agujero negro en su órbita de tres días, eclipsando así la emisión de rayos X del agujero negro.

Esto permitió a los científicos calcular las masas de los dos objetos estelares de forma más precisa de lo habitual. La estrella acompañante también es la más masiva que se ha descubierto en un sistema binario, y alcanza las 70 masas solares.

«Esta es una estrella gigante acompañada por un agujero negro gigante», señala Jeffrey McClintock, uno de los autores de la investigación, cuyos resultados se publican hoy en
Nature. «Eventualmente, la acompañante también se hará supernova [es decir, estallará] y entonces tendremos un par de agujeros negros», asegura este científico, que trabaja en el Centro Astrofísico Harvard-Smithsonian, en Massachusetts.

Existen dos clases de agujeros negros: los estelares, formados al colapsarse el núcleo de estrellas algo mayores que nuestro Sol, y los supermasivos, que forman inmensos campos gravitatorios en el centro de las galaxias y alcanzan masas de hasta miles de millones de soles. Los agujeros negros estelares, por el contrario, no deberían pesar más de 10 soles, de acuerdo con los modelos que habían manejado los científicos hasta ahora, y que el nuevo hallazgo obligará a revisar.

El descubrimiento de este insólito sistema binario es también importante por otro motivo, que tiene que ver con la estructura misma del cosmos. Los expertos llevan décadas intentando detectar las llamadas ondas gravitacionales, es decir, las partículas responsables de producir la atracción gravitatoria, que serían como diminutas arrugas u ondulaciones en el espacio.

Aunque hay dos observatorios, uno en Estados Unidos y otro en Italia, dedicados a la caza de estas partículas, nadie ha logrado aún detectarlas, pero sabemos que han de estar ahí. De hecho, los sistemas binarios como el recién descubierto «serían las mayores fuentes de ondas gravitacionales del cosmos», tal y como señala el astrónomo Tomasz Bulik, de la
Universidad de Varsovia, en un comentario que publica hoy también Nature.

El nuevo sistema, en concreto, resulta de especial interés porque se cree que los dos objetos que lo forman han debido pasar por una fase en la que el menor de ellos se vio atraído por el otro y comenzó a acercarse a él girando en espiral. Entretanto, las fuerzas generadas por esta danza entre astros provocaron que el mayor de ellos escupiera al espacio sus capas exteriores.

En este caso, la estrella que originó al actual agujero negro debió perder mucha materia antes de estabilizarse en un órbita tan cercana a su compañera. Pero, al mismo tiempo, tuvo que conservar la bastante masa como para generar un agujero negro con el peso de 16 soles.

Por todo ello, parece que sistema binario desafió todas las barreras con que contaban los científicos durante su convulsa formación. De acuerdo con Tomasz, «este sistema podría darnos los límites tanto superiores como inferiores de la cantidad de pérdida de masa y acercamiento orbital que pueden ocurrir. Tales datos son importantes en la contínua búsqueda de los rizos del espacio-tiempo conocidos como ondas gravitacionales, ya que éstos determinarán el número y las propiedades de los binarios consistentes en dos agujeros negros».
 

Fuente: elmundo.es, 18 de Octubre de 2007

 

 

-Animales en peligro de extinción

Un gran macho de oso polar avanza penosamente sobre una muy delgada capa de hielo: no puede todavía nadar, pero como a cada paso lo que pisa se rompe, tampoco camina. Se tambalea, se arrastra, chapotea, zozobra... Le aguarda una penosa agonía por hambre o ahogamiento, algo que ha sucedido últimamente, y por primera vez, con otros congéneres.

Qué está pasando? El carnívoro más grande del planeta, uno de los mejores cazadores que la evolución ha conseguido, está siendo derrotado por el calor que está desmantelando el Polo Norte. Este prodigio de adaptaciones a los máximos rigores del Ártico está atrapado en ese cepo que es la falta de suficiente hielo.

En cualquier caso, aquellas soledades heladas aún acogen los empeños de osas blancas y sus oseznos. Toda la imaginable ternura maternal se asocia a la más arriesgada infancia para un mamífero en este planeta. De la misma forma que podemos asomarnos al fracaso, queda izada la esperanza a través del éxito que supone la llegada a la independencia familiar de los cachorros de oso polar.

A la actual fragilidad del hielo sigue enfrentándose la vieja vida con toda su pasión. Ésa, tan legítima, de querer seguir siendo.

Océanos de incertidumbre

Queda aún bastante para que seamos consecuentes con lo que sabemos. Sobre todo en relación con nuestra casa, que es líquida. Aunque endeble y frágil, el agua todo lo yergue y sujeta en este mundo. Incluso a las más grandes criaturas vivientes que jamás hayan existido: las ballenas.

La migración de las ballenas, seres capaces de recorrer la literal totalidad de los océanos del mundo, se ha repetido incesantemente desde hace, al menos, tres millones de años. Una navegación ininterrumpida a bordo de descomunales cuerpos que, asombrosamente, se alimentan de uno de los recursos más pequeños pero más abundantes del planeta: ingentes masas de krill. Como estos cetáceos nacen en aguas cálidas ecuatoriales y tropicales, su supervivencia va de la mano de un viaje que puede suponer alrededor de 12.000 kilómetros cada temporada.

Los océanos, que son la fuente de todo lo que vive en este planeta, están dando demasiados síntomas de cansancio. Baja su productividad biológica; el calentamiento afecta ya a las corrientes; los climas del agua han comenzado también a equivocarse; disminuye la regularidad en los ciclos... Pero a estos desajustes se enfrenta la vieja destreza de esos inmejorables sextantes, barómetros y termómetros que el cerebro de las ballenas alberga.

Insaciable desierto

De cuanto puebla nuestro mundo, nada con tanto apetito como el desierto. Ha engullido, tan sólo en los últimos 60 años, el equivalente a 16 veces España. Partía de unos dominios casi insuperables para ninguna otra de las formas de organización de la vida en la Tierra. De hecho, ya era dueño de una cuarta parte de la misma. Ahora casi un tercio de lo que podemos pisar en nuestro mundo es erial. De ahí que poco pueda estremecernos más que la mayor y más honda pisada hollando el polvo del desierto, la de los elefantes.

La piel de los enormes mamíferos africanos ya parece el resultado de una sequía sin piedad. Al sur de África, el desierto de Kalahari es el sorprendente hogar para animales que deben ingerir hasta 300 kilos diarios de materia vegetal. Que llegan a beber, cuando pueden, hasta 200 litros de agua de una sola vez. La capacidad para sortear dificultades está también en los elefantes. Unos pocos, a los que podríamos considerar los más arriesgados del planeta, han conseguido colonizar la aridez.

La película

Todo lo anterior, osos polares atrapados por el deshielo, ballenas jorobadas, elefantes del desierto buceando... puede contemplarse en 100 minutos de hermosa película en alta definición. Se titula '
Tierra' y se estrena en menos de dos semanas.

Dirigida por el naturalista Alastair Fothergill, coproducida y distribuida por los hermanos José María y Miguel Morales y su Wanda Visión, 'Tierra' fascina desde el primer fotograma.

Todo ha sido posible gracias a cinco años de trabajo, a casi 20 millones de euros de presupuesto, miles de horas de espera en los lugares más duros del planeta y el uso de las tecnologías más recientes. Queda aquí patente la tenacidad del planeta para seguir siendo bello y vivaz. Por si todo ello fuera poco, esta película cumple la función de conciencia y de memoria. Nos demuestra que nuestro mundo es débil. Que está siendo vapuleado y hasta desmantelado. Pero no lo hace con apocalipsis visuales o estadísticas. Una propuesta que en nada conmina, pero que nos propone reconciliarnos con el primer principio de todas las filosofías morales dignas de tal nombre. La del derecho de toda la vida a su continuidad. La de nuestra obligación de ayudar a conseguirlo.

Fuente: elmundo.es, 17 de Octubre de 2007
 

 

-Estirpes de ratones noqueados para descifrar sus genes

El Proyecto Genoma ha desvelado que el hombre, al igual que otros mamíferos, posee entre 20.000 y 25.000 genes diferentes. Un nuevo reto es comprender la función de cada uno de ellos. Ser capaces de generar un ratón knockout en el que un determinado gen es suprimido y ver cómo esto afecta a su fisiología supone una herramienta muy valiosa.

Además, como muchas enfermedades hereditarias son debidas a mutaciones que hacen que la proteína codificada por el gen mutado deje de funcionar correctamente, un ratón knockout de dicho gen constituye un modelo animal de la enfermedad para estudiar por qué la pérdida de función del gen acaba desembocando en la patología y para ensayar posibles nuevas terapias. Los científicos Mario R. Capecchi [EE.UU.], Martin J. Evans [Reino Unido] y Oliver Smithies [EE.UU.] han recibido el Premio Nobel de Fisiología o Medicina precisamente por el descubrimiento del procedimiento para generar estirpes de ratones en las que un determinado gen es modificado gracias al uso de células madre embrionarias.

Las colecciones de estirpes mutantes de organismos más simples, tales como bacterias, levaduras, o incluso insectos como la mosca del vinagre, que tienen ciclos vitales más cortos y genomas mucho más pequeños que los de los mamíferos, son una herramienta clave y clásica en biología. En estos organismos más simples es posible introducir mutaciones genéticas al azar mediante radiaciones o sustancias químicas que alteran el ADN para después seleccionar estirpes individuales y, finalmente, identificar la mutación concreta incorporada en cada estirpe.

En el caso de las bacterias, que tienen un ciclo vital de minutos o de horas, la selección de una estirpe entre millones se realiza en una pequeña placa de laboratorio. En el caso de la mosca del vinagre, que tiene un ciclo vital de tres semanas, la selección de entre cientos de estirpes se realiza en un tubo de vidrio. Un proceso similar en mamíferos de laboratorio como el ratón, con un ciclo vital de tres a cuatro meses, es inviable tanto desde un punto de vista práctico como económico, pues sería un proceso muy largo y que requeriría instalaciones gigantescas para la cría de los ratones y la secuenciación de sus genomas. Una alternativa para generar ratones knockout de una manera eficiente radica en que, en lugar de introducir mutaciones al azar a lo largo de todo el genoma, esa mutagénesis se haga apuntando al gen concreto que se quiere modificar o suprimir.

Capecchi y Smithies investigaron la posibilidad de modificar un gen concreto en células de mamífero cultivadas in vitro. Para ello, aprovecharon una propiedad inherente de las células denominada recombinación homóloga. Esta desempeña un papel fundamental en la evolución de las especies, pues origina la variabilidad genética que resulta de combinar la información de cada una de nuestras parejas de cromosomas al entrecruzar fragmentos del ADN del cromosoma heredado de la madre y del heredado del padre.

La idea de Capecchi y Smithies consistía en preparar in vitro un fragmento de cromosoma en cuya posición central se encuentra la versión del gen que querían que reemplazara a la normal. Cuando introdujeron estos fragmentos de ADN en el interior de células de mamífero en cultivo vieron que era posible seleccionar aquellas células en las que, gracias al proceso de recombinación homóloga, el fragmento de ADN exógeno se había insertado en su sitio homólogo del genoma del ratón, reemplazando así a la secuencia endógena.

Simultáneamente, los trabajos de Evans se centraron en cómo conseguir estirpes de ratones mutantes a partir de embriones en los que introducía células modificadas genéticamente (por inserción de una secuencia exógena de ADN en una posición desconocida de sus cromosomas). La clave de los trabajos de Evans radicó en el uso de células madre embrionarias. De hecho, él fue uno de los pioneros en conocer las propiedades de estas células y en establecer las condiciones para su cultivo in vitro de manera indefinida. Estas células pueden originar todos los tejidos del cuerpo, y Evans comprobó que si los órganos sexuales del ratón resultante se formaban a partir de las células madre modificadas genéticamente, la mutación se propagaba a la siguiente generación, estableciéndose así una nueva estirpe de ratón mutante.

La combinación de los hallazgos de Evans y de los de Capecchi y Smithies hizo posible la publicación, en 1989, de los primeros ratones en los que un determinado gen había sido sustituido por una versión nula del mismo. Se trataba de los primeros ratones knockout.

Desde entonces, esta técnica se ha implantado en la práctica totalidad de los centros de investigación biomédica de todo el mundo que, a su vez, han tenido que adaptarse para albergar el cada vez mayor número de líneas de ratones knockout generadas.

En la actualidad, se dispone de versiones de ratones knockout de unos 10.000 genes, de las que unas 500 constituyen modelos animales de enfermedades humanas. Además, varios consorcios internacionales persiguen generar líneas de ratones knockout de los genes restantes y hacer que todas estén disponibles para la comunidad científica.

En cuanto a la utilidad de esta técnica para la investigación biomédica, ya se han mencionado los modelos animales que resultan de noquear los genes responsables de enfermedades hereditarias monogénicas como la fibrosis quística, muchas formas de hemofilia, la talasemia o la gran mayoría de las metabolopatías congénitas.

Sin embargo, esta técnica también ha servido para comprender el mecanismo patogénico de muchas enfermedades más complejas como el cáncer, la hipertensión, las enfermedades inflamatorias y autoinmunes y las neurodegenerativas, pues permite verificar o descartar el posible rol patogénico de un determinado gen. Así, por ejemplo, el ratón knockout de un gen que se sospecha que es un supresor de tumores tendría que mostrar una mayor susceptibilidad a desarrollar cáncer. En el caso de las enfermedades neurodegenerativas por priones como la de las vacas locas, se vio que el prión anómalo inoculado no transmitía la enfermedad a los ratones knockout carentes de la proteína del prión endógena, demostrando así que el prión infeccioso requiere la presencia de la proteína priónica normal a la que le transmite la capacidad patogénica. Además, la técnica ha experimentado mejoras sucesivas que permiten noquear un gen sólo en determinados tejidos o sólo a partir de una determinada edad, lo que ha multiplicado su potencial en investigación, tanto básica como aplicada.
 

Fuente: El País, 17 de Octubre de 2007

 

-Microsoft quiere patentar un lector de mentes

Microsoft ha presentado la solicitud para patentar un lector de mentes, que sin necesidad de conocimientos médicos y por muy poquito dinero (esto debe ser importante, porque lo subrayan hasta la saciedad) puede medir la actividad cerebral de cualquiera mientras interactúa con su ordenador. ¿El objetivo? Dicen que mejorar la relación entre el cerebro humano y la máquina, para adaptar mejor la informática a sus usuarios. Pero siempre habrá malpensados que se pregunten si no será al revés.
 

La compañía dispensa con cuentagotas la información, que de momento sólo ha sido objeto de debate en la blogosfera tecnológica. Allí las opiniones están divididas entre los que creen que lo que Microsoft quiere patentar es una barbaridad, y los que creen que es imposible. No es esa la creencia de Desney Tan, investigador de Microsoft en Redmond. Formado en Francia y en los Estados Unidos, antiguo ingeniero de las fuerzas armadas de Singapur, su campo de estudio es la interacción cerebro humano-ordenador, y su más reciente obsesión, medir las señales eléctricas que mantienen unida y en acción la mente.

No es el primero que lo intenta. Scott Mackler, un profesor de la
Universidad de Pensilvania víctima de una terrible enfermedad degenerativa, se comunica con su ordenador y con el mundo gracias a un software que lee sus ondas cerebrales a través de 16 electrodos. Así puede, por ejemplo, cambiar el canal de la televisión.

Según cuenta el mismo Desney Tan en la defensa escrita de sus experimentos, la «pega» que tenían todos los intentos anteriores de medir las señales eléctricas del cerebro era que requerían, o cirugía muy invasiva, o exponerse a radiaciones, o hacer grandes desembolsos de dinero. Él cree haber simplificado enormemente el asunto.

Su innovación no es tanto tecnológica como metodológica. Pongamos que intentamos evaluar el grado de concentración de una persona dedicada a una actividad mental o su grado de satisfacción o frustración con la misma. Podemos preguntarle a ella, pero lo más fácil es que obtengamos un informe «pobre». Mejor que conteste una máquina. El equipo de Tan tomó a 8 voluntarios, 5 hombres y 3 mujeres de entre 29 y 58 años de edad, les plantó los electrodos y los puso a hacer tres tareas: descansar, multiplicar 7 por 836 e imaginarse un pavo real rotando.

El objetivo era acumular la máxima cantidad de datos estables sobre la señal cerebral durante cada una de estas tareas, para aprender a reconocerlas y a distinguirlas unas de otras. El sistema actúa entonces como un clasificador de estados de la mente cuando está atareada haciendo esto o aquello.

El principal problema, claro, es que lo de que estamos leyendo la mente es un decir. Y no sólo porque leemos señales eléctricas y no pensamientos, sino porque las mismas señales pueden venir de muchos sitios. Los electrodos pueden captar señales sin valor cognoscitivo propio, tales como el parpadeo, la contracción espontánea de la piel bajo los electrodos, un temblor de la mano, etc. Esta es una de las razones de ciertas oleadas de escepticismo que ha levantado esta patente.

Pero Tan, en lugar de luchar contra los elementos, se ha unido a ellos. Lejos de perder tiempo y recursos limpiando la señal de impurezas, ha incorporado estas a la ecuación. ¿Qué más da si un parpadeo no es actividad cerebral pura, si siempre se siguen el uno a la otra, como el trueno al rayo?

Entonces vino el segundo experimento. Esta vez los ocho voluntarios ya estaban ante una pantalla de ordenador, jugando al archipopular juego «Halo». Las tres tareas diferenciadas eran el descanso absoluto, el jugar solo -navegando aquí y allá, pero sin enfrentarse a ningún oponente concreto- y el jugar con «enemigos». Según Tan, si el primer experimento había dado un 80.4% de éxito clasificatorio entre tareas, el segundo ya alcanzó casi un 93%.

Las conclusiones se obtienen de un sistema de cálculo de probabilidades que en la actualidad, por ejemplo, se utiliza para prever las posibilidades de que alguien acabe contrayendo una enfermedad. Es decir, que todo es opinable. Pero queda esbozada una tecnología capaz de aprender a distinguir unas señales cerebrales de las otras, con creciente -¿alarmante?- exactitud.
 

Fuente: ABC Periódico Electrónico, 17 de Octubre de 2007

 

 

-Descubren en la Patagonia argentina una nueva especie de dinosaurio herbívoro

El futalognkosaurus dukei, como han bautizado al fósil sus descubridores, es además el más completo de los descubiertos hasta ahora y pertenece al nuevo grupo de titanosaurios (denominado Lognkosauria) exclusivos de la región de Patagonia.



La especie encontrada a orillas del Lago Barreales pudo llegar a medir entre 32 y 34 metros de largo, según los paleontólogos, y no comía carne.

Este futalognkosaurus dukei falleció por causas desconocidas y se cuenta con restos bastante completos del ejemplar: cuello, región dorsal y pelvis, así como la primera vértebra de la cola. Según los investigadores, parte del esqueleto del animal habría sido separado por animales carnívoros.

En el descubrimiento participaron investigadores del
Museu Nacional de Río de Janeiro, de la Universidad Nacional de Comahue, en Neuquén (Argentina), y del Laboratorio de Paleovertebrados de la Universidad Nacional de Cuyo, en Mendoza. Los paleontólogos presentaron la réplica de una de las vértebras del dinosaurio, de un metro y diez de largo, y otra de la cola.

El paleontólogo argentino Jorge Calvo aseguró que durante las excavaciones se encontraron, asimismo, fósiles de varios dinosaurios, como las de un megaraptor, especie carnívora que llegaba a medir siete metros. Además de la nueva especie, en la zona se encontraron varios fósiles de otras especies y más de 500 dientes de dinosaurios.

El nombre dado al dinosaurio deriva de la lengua mapuche y significa "el jefe gigante de los saurios" y homenajea, asimismo, a la compañía argentina Duke Energy, que financió la mayor parte de las excavaciones.
 

 

-El 90% del proceso tumoral ocurre sin que nos demos cuenta

Del 3 al 6 de octubre se reunieron en Madrid reputados investigadores en cáncer, en un simposio copatrocinado por el Centro Nacional de Investigaciones Oncológicas (CNIO) y la revista científica Nature. El motivo fue conmemorar la identificación o aislamiento del primer oncogén humano en EE.UU. por el equipo del investigador español Mariano Barbacid, promotor y director del CNIO. Un primer trabajo, publicado en mayo de 1982 en la revista de la Academia de las Ciencias de EE.UU., y tres más aparecidos a lo largo del mismo año en Nature, marcaron el comienzo de una nueva era en la investigación oncológica.
 

Aunque Mariano Barbacid, su principal investigador, subraye que es el resultado de muchos esfuerzos y también del trabajo desarrollado antes por otros científicos, admite que "supuso un paso importante, pero un paso más en una larga e interminable caminata". No obstante, insiste en que este hito fue posible gracias al desarrollo de una avanzada tecnología por científicos como el holandés Van der Erb y los norteamericanos Michael Wigler y Richard Axel. Tampoco olvida citar al español Ángel Pellicer, que formaba parte del equipo de Wigler y Axel, y que alertó a Barbacid de la existencia de esa tecnología y le instruyó en ella.

En estos 25 años se han identificado más de 360 genes mutados (casi el 2% del genoma humano) en al menos uno de los más de cien tipos de tumores malignos conocidos. "Quizás esta aportación haya representado el inicio de la llamada oncología molecular en el cáncer humano, disciplina que ha revolucionado su investigación al dejarnos penetrar en algunos misterios de las alteraciones genéticas que inducen la aparición del tumor. Sin embargo, el gran problema de esta enfermedad es que el 90% del proceso tumoral ocurre sin que nos demos cuenta. Y, cuando da la cara, la lucha es dura y difícil", reconoce.

Barbacid advierte que hay que distinguir entre la prevención del cáncer y su detección precoz: "Prevención es un término que gusta mucho emplear a los políticos. Pero debemos ser realistas y aceptar que la mayoría de los tumores hoy no se pueden prevenir. Y con los que sí podríamos hacerlo, como es el de pulmón, no nos lo tomamos en serio".

El director del CNIO se lamenta de que, aunque todo el mundo dejase de fumar y de exponerse en exceso al sol, o se erradicaran mediante la vacunación los virus de la hepatitis B y del papiloma humano, responsables del hepatocarcinoma primario y del cáncer de cérvix o cuello de útero, respectivamente, el cáncer seguiría siendo uno de los principales retos de la medicina actual, puesto que "un importante porcentaje de tumores, como mama, colon, páncreas, próstata, linfomas o sarcomas, no son hoy en día prevenibles".

Otra cosa, según aclara, es la detección precoz, que no diagnóstico precoz, en tanto que "el diagnóstico del tipo de tumor siempre es posible tras la detección". Además subraya que los tumores, antes de diseminarse por el organismo, no representan en su mayoría una seria amenaza para la salud, ya que serían extirpados quirúrgicamente.

"La metástasis", asegura, "es una de las áreas más complejas de la oncología. Investigaciones como las del grupo del español Joan Massagué, del
Memorial Sloan-Kettering Cancer Center de Nueva York, y publicadas este año en Nature, suponen un gran avance. Es verdad que en más del 90% de los casos de neoplasia maligna, el proceso de metástasis es el responsable del mal pronóstico y de la muerte".

La trascendencia clínica del descubrimiento del primer oncogén es obvia, según Barbacid, "porque sin mutaciones que generen oncogenes e inactiven genes supresores de tumores no hay cáncer". Desde aquel año de 1982 se han identificado más de 360 genes mutados en algún tipo de tumor, pero "si contásemos los genes implicados, aunque no necesariamente mutados, el número ascendería notablemente, tal vez hasta alcanzar el 10% del genoma humano", añade.

Asegura que la identificación del primer oncogén y la posterior definición del genoma humano son dos descubrimientos no ligados entre sí conceptualmente: "Pienso que el genoma se habría conocido igual con o sin oncogenes. Gracias a ese conocimiento y a la simplificación de las técnicas de secuenciación del ADN es posible también secuenciar los genomas de los tumores", explica.

"Los primeros resultados", añade, "son estremecedores, ya que revelan una gran cantidad de mutaciones. Ahora habrá que ver cuáles de ellas son relevantes y cuáles son accidentales. Esto llevará tiempo. Si, como se prevé, en los próximos años secuenciar un genoma, sea de una célula sana o de un tumor, puede hacerse en pocas semanas y a costes asequibles, seremos testigos de una auténtica avalancha de información molecular que, sin duda, arrojará datos relevantes para comprender los complejos mecanismos del cáncer".

¿Para cuándo se establecerá en la práctica clínica de forma rutinaria el diagnóstico genético o molecular de cada tumor, con independencia de su localización? "Ya se está haciendo", responde, "aunque no con todos los tipos de tumores. Evidentemente, esto no se hará hasta que la información que aporte sea de interés vital para el oncólogo a la hora de tratar a sus pacientes".

Barbacid no ve viable, para un diagnóstico precoz, realizar análisis genéticos de susceptibilidad a padecer determinados tumores, exceptuando el cáncer familiar. El riesgo o las probabilidades de presentar hoy en día un tumor, sin componente hereditario, son tan escasas y aportan tan poca información, que no justifican los chequeos periódicos de este tipo.

"Otra cosa", matiza, "es el conocimiento y macroanálisis de las diferencias de unos elementos llamados nucleótidos, que hacen que cada ser humano sea distinto a otro. Éste sí es un área de la genética con mucho futuro".

¿Por dónde van, entonces, los tiros para atajar, controlar o curar el cáncer? A este respecto Barbacid advierte de que la sociedad "debe tener muy presente que el cáncer son más de cien enfermedades". Y destaca que, del mismo modo que los procesos infecciosos se han ido controlando a lo largo de los siglos pero aún quedan algunos por curar, se irá avanzando en el control y curación de los distintos tipos de cáncer, incluidos los que ya se curan, que son en torno al 50%.

Reconoce, no obstante, que los tumores más indolentes o fáciles de combatir por el momento son ciertas neoplasias de la sangre que pueden mantenerse en estado crónico durante años, al igual que ciertos tumores hormonodependientes, como el de próstata.

Barbacid apuesta por la investigación traslacional, que pretende llevar a la práctica clínica lo antes posible las investigaciones básicas. Así, manifiesta que en el CNIO se está dedicando la mitad de los recursos a ese tipo de investigación, incluyendo el Programa de Terapias Experimentales, uno de los pocos desarrollados en Europa exclusivamente dedicado al descubrimiento y diseño de nuevos fármacos al margen de la industria farmacéutica.
 

Fuente: El País Digital, 16 de Octubre de 2007

 

-Un lugar de Marte donde situar una nave terrestre

Esta imagen muestra las capas del interior del cráter Holden, en el Hemisferio Meridional de Marte. Es uno de los posibles lugares donde podría aterrizar una nave espacial humana.

La imagen ha sido tomada con una cámara fotográfica 'HiRISE (High Resolution Imaging Science Experiment) ubicada en la 'Orbiter', la nave de reconocimiento del planeta rojo. El color ha sido reforzado para resaltar los detalles. El cráter Holden es uno de los 12 lugares en los que podría aterrizar una nave terrestre. En él hay planicies aluviales formadas en lo que antes fueran lagos.

Recientemente, la nave europea 'Mars Express' obtuvo unas nuevas imágenes de Valle de Tiu, en la que se aprecian varios montículos alargados en forma de cresta, junto a lo que parece ser el lugar donde desembocaba un sistema de riachuelos o canales.

Fuente: elmundo.es, 12 de Octubre de 2007

 

-Un granjero creó minicerditos

Los animales, 80% más pequeños que un cerdo normal, son una atracción para los visitantes de Pennywell Farm.

Un conocido presentador de la televisión británica -Jonathan Ross- pagó US$600 por dos cerditos a los dueños de la granja, que han recibido ofertas de lugares tan lejanos como Australia. Los cerdos pigmeos son una variedad de la especie exótica kune kune, nativa de Nueva Zelanda. Chris Murray, copropietario de la granja, comenzó a hacer cruces de raza hace nueve años, y está convencido de que logró producir el cerdito perfecto como animal de compañía.

 

"Los cerdos comunes son muy lindos cuando son jóvenes, pero después el ambiente de un hogar se les hace pequeño y se pueden volver agresivos cuando crecen", señaló Murray.

Sin embargo, añadió, "estos cerditos se sienten como en casa tanto en el interior como el exterior".

En el pasado, algunas variedades de cerdo, como el "barrigón" vietnamita, se utilizaban como animales de compañía en Gran Bretaña.  Pero la moda decayó cuando quedó claro cuánto podían llegar a crecer. Los diminutos cerditos de Pennywell Farm, no obstante, no darán grandes sorpresas: un adulto miniatura pesa sólo 70Kg, frente a los 500 kg que suelen pesar los adultos de la variedad más común. Según Murray, esta variedad es fácil de albergar y entrenar, y además tiene un buen carácter. Su "creador" duda de que puedan acabar servidos como menú en un restaurante, ya que "son muy pequeños".

"No sería económico, así que es muy improbable que se usen para producir carne... y ya hay una variedad enorme de carne de cerdo disponible en el mercado".

 

Fuente: BBCmundo, 16 de Octubre de 2007


 

-A la búsqueda de vida extraterreste

Financiado por el cofundador de Microsoft, Paul Allen, el sistema tendrá 350 antenas de seis metros y será uno de los más grandes del mundo. Llamado formalmente Allen Telescope Array (ATA), el sistema será capaz de rastrear más de un millón de sistemas estelares con el fin de detectar señales generadas por seres inteligentes. Sus creadores esperan que el ATA les ayudará a localizar hacia el 2025 signos definitivos de vida extraterrestre.

Paul Allen

Primera luz

El ATA es administrado por el Instituto de Búsqueda de Inteligencia Extraterrestre (SETI, por sus siglas en inglés) y la Universidad californiana de Berkeley.

"Para SETI, las capacidades técnicas de ATA aumentan exponencialmente nuestra capacidad para buscar señales inteligentes, y podrían llevar al descubrimiento de seres pensantes en otras partes del universo", dijo Seth Shostak, astrónomo de SETI, en una declaración.

El 11 de octubre, las primeras 42 antenas del sistema comenzaron a recolectar datos para analizar los posibles signos de vida extraterrestre y ayudar con radioastronomía convencional. Las primeras imágenes de prueba producidas por el sistema son mapas radiales de las galaxias de Andrómeda y del Triángulo.

Pioneros

El ATA es un sistema pionero por el novedoso diseño de las antenas que escanearán el cielo. Cada antena de 6 metros de largo está compuesta de un platillo producido en serie y de componentes listos para ser usados. Cuando operen las 350 antenas, dicen sus creadores, se podrá recolectar información a una escala "sin precedente".  El instrumento final podrá estudiar un área del cielo 17 veces más grande que el que alcanza el sistema que se encuentra en Nuevo México.

Se espera que ATA ayude entender mejor fenómenos como las supernovas, los agujeros negros y los objetos astronómicos exóticos que han sido pronosticados, pero nunca observados. El sistema se encuentra en el observatorio de Hat Creek, California, situado unos 467 kilómetros al norte de San Francisco.

Fuente: BBC Mundo, 12 de Octubre de 2007

 

 

-La NASA celebra los diez años del lanzamiento de Cassini

El 15 de Octubre de 1997, la sonda Cassini-Huygens inició su camino hacia Saturno en el interior del cohete Titán 4B.  Su misión era la de estudiar durante cuatro años el planeta y sus satélites. Acoplado a Cassini iba la sonda Huygens que se despegó de su compañera para caer sobre la superficie de una de las lunas de Saturno, Titán.

Momento del lanzamiento de Cassini

Una gran cantidad de información ha sido enviada por la nave desde que alcanzó su destino, hace tres años y medio. No nos ha dejado de fascinar con sus espectaculares fotos. Imágenes que han sido portada de muchos periódicos y revistas del mundo entero. Millones han sido las visitas que han recibido las páginas de la NASA dedicadas a la sonda. Es habitual encontrarnos en estas webs con sorprendentes descubrimientos.  

Dennis Mason científico que trabaja en la misión Cassini, cree que Saturno es el mayor laboratorio existente en el sistema solar. Es como un diminuto sistema planetario donde existen anillos, satélites y campos gravitatorios. Su comprensión es importante para entender los procesos físicos que gobiernan al Sístema Solar.

Gracia a Cassini se ha podido descubrir que los geysers de agua helada de Encelado alimentan uno de los anillos de Saturno. También se ha podido conocer más de cerca a Titán y su compleja superficie cubierta de lagos y mares de hidrocarburos.

 

Fuente: NASA, 11 de Octubre de 2007

 

 

-Al Gore, Premio Nobel de la Paz

El ex vicepresidente de EEUU Al Gore y el Grupo Intergubernamental sobre el Cambio Climático (IPCC) de la ONU, y su presidente, el indio Rajendra Pachauri, son los ganadores del Premio Nobel de la Paz 2007, anunció el Comité Nobel en Oslo.

En su argumentación, el Comité Nobel destacó los esfuerzos de los galardonados por "construir y divulgar un mayor conocimiento sobre el cambio climático causado por el hombre y por fijar la base de las medidas que son necesarias para contrarrestar ese cambio".

El anuncio no sorprendió, puesto que Gore y el IPCC figuraban entre los favoritos.

El año pasado, el Comité Nobel distinguió también el trabajo comprometido de una persona y un organismo, en aquel caso fue el del bengalí Mohamed Yunus, conocido como el 'banquero de los pobres', y su banco, el Grameen Bank.

El Comité Nobel quiso destacar los esfuerzos de los galardonados en la lucha contra el cambio climático, como uno de los factores que pueden amenazar "las condiciones de vida de gran parte de la humanidad", pues originarían, entre otras cosas, migraciones a gran escala, una mayor competencia por los recursos naturales y conflictos violentos entre países".

Con los informes emitidos durante las últimas dos décadas el IPCC ha creado un "consenso amplio sobre la conexión entre la acción del hombre y el calentamiento global".

Gore, por su parte, ha sido, según destacó el Comité, uno de los principales políticos medio-ambientalistas.

"Su gran compromiso, reflejado en su actividad política, sus ponencias, sus películas y sus libros han reforzado la lucha contra el cambio climático. Es probablemente la persona que a título individual ha hecho más para crear una conciencia mundial sobre las medidas que deben adoptarse", subrayó el Comité en su comunicado.

Con este premio, el Comité Nobel ha querido no sólo llamar la atención sobre el problema, sino instar activamente a que se tomen medidas urgentes "antes de que el cambio climático escape al control del hombre".

El Nobel de la Paz está dotado con 10 millones de coronas suecas (1,1 millones de euros) y se entregará junto al resto de los galardones el 10 de diciembre, aniversario de la muerte de su fundador, Alfred Nobel.

"Me siento muy honrado de recibir el Premio Nobel de la Paz", señaló Gore en una declaración. "Encaramos una verdadera emergencia planetaria", añadió. "La crisis del clima no es un asunto político, es un reto moral y espiritual para toda la humanidad".

En su declaración, Gore dijo que donará su porción del premio a la Alianza para la Protección del Clima, una organización en la cual él es el presidente de la junta directiva.

Fuente: elmundo.es, 12 de Octubre de 2007

 

 

 

 

 

-El investigador alemán Gerhard Ertl es el ganador del Premio Nobel de Química

 

Pese a la imagen popular del científico chiflado mezclando fluidos en su laboratorio, muchas de las reacciones químicas de mayor importancia en el mundo actual no se producen en soluciones líquidas, sino sobre superficies sólidas.

 

La Academia de Ciencias de Suecia ha querido destacar este año con el Nobel a la rama de la química que estudia esta clase de reacciones, de vital importancia en la industria automovilística, la creación de abonos artificiales o el estudio de la atmósfera terrestre.

El galardonado ha sido uno de los pioneros de la química de superficies, el científico alemán Gerhard Ertl, nacido en 1936 y perteneciente al Instituto
Fritz Haber, a su vez adscrito al Max Planck Gesellchaft, en Berlín. Ertl fue uno de los primeros en ver, allá por los años 60, las enormes posibilidades que se abrían en el campo de la química del estado sólido, por lo que se llevará en su integridad los 10 millones de coronas suecas que acompañan al Nobel.

El área de aplicación de las investigaciones pioneras de Ertl es tan amplio que la Academia de Ciencias sueca no ha destacado ningún logro en concreto, y más bien ha querido premiar toda una carrera y el haber desarrollado un nuevo campo de acción para futuros investigadores: "Por sus estudios de los procesos químicos en superficies sólidas", ha sido la fórmula que ha empleado el comité que concede el Nobel para justificar su decisión de este año.

Los campos de aplicación de esta rama de la Química son enormes. Uno de ellos ha sido la electrónica. Sus investigaciones han proporcionado la base teórica sobre la que se basan los semiconductores; lo que es decir, todo el 'hardware' informático.

Uno de los mayores logros de Ertl se debe a su capacidad para desarrollar nuevas formas de estudiar las reacciones en superficies sólidas. La Academia de las Ciencias dice del galardonado que "paso a paso fue creando una metodología para demostrar cómo diferentes procedimientos experimentales pueden proporcionar una imagen de las reacciones químicas en la superficie". En este sentido, son relevantes los experimentos desarrollados con aislamiento en cámaras de vacío o salas limpias.

Sus primeras investigaciones se basaron en el comportamiento del hidrógeno gaseoso sobre superficies metálicas, cuyas aplicaciones van desde las placas solares a las pilas de hidrógeno, es decir, dos eficaces sistemas para obtener energía limpia.

También el estudio del agujero de la capa de ozono en la estratosfera terrestre se beneficia de los avances propiciados por Ertl, ya que algunos de los procesos involucrados en este fenómeno se desarrollan sobre cristales sólidos.

El Nobel de Química se entregará junto al resto de los galardones el 10 de diciembre, aniversario de la muerte de su fundador, Alfred Nobel. Precisamente hoy Ertl cumple 71 años. Desde su despacho en el Instituto Fritz-Haber de Berlín ha agradecido este "segundo regalo de cumpleaños". Dijo que suponía que estaba entre los candidatos, y que esperaba que el premio "no me cambie mucho la vida, aunque todos los ganadores me han dicho que sí lo hace", agregó a EFE.
 

Fuente: elmundo.es, 11 de Octubre de 2007


 

 

 

-Nuevas imágenes de Titán

Las recientes imágenes enviadas por Cassini muestran lagos y mares del satélite de Saturno, Titán. Las nuevas imágenes obtenidas con el radar muestran que el Polo Sur del satélite también tiene lagos.

Estas imágenes fueron obtenidas el pasado 2 de Octubre, en un sobrevuelo que hizo la sonda.

Aproximadamente el 60% del polo norte, por encima de los 60º, ha sido mapeado por el radar de Cassini.  Un 14%  de la región estudiada está cubierto por lo que los científicos han interpretado como lagos de hidrocarburos líquidos. Según Rosaly Lopes, científico que trabaja con el radar de la sonda.  la región reconocida equivale lo que en la Tierra sería Canadá, Groelandia, Escandianavia y el norte de Rusia.

 

 

Lagos y mares son muy abundantes en las altas latitudes del hemisferio norte de Titán, donde ahora es invierno. Los científicos creen que la lluvia de etano y metano rellenan estos lagos y mares. También forman ríos y canales. Ahora Cassini se esta desplazando hacia las regiones desconocidas del sur donde es verano. En Titán las estaciones duran 7,5 años.

 

Los científicos están ahora comprendiendo la formación de los lagos. Posiblemente estos lagos se han formado por actividad volcánica o por erosión cárstica. En esas depresiones se acumula el líquido. Este tipo de lagos es común en la Tierra.

 

El ciclo hidrológico que llenan estos lagos puede ser similar al existente en la Tierra, lo que hace a este cuerpo celeste ser una rareza en el sistema solar.

 

Los lagos tienen una gran variedad de tamaños, desde 1 kilómetro cuadrado a 100000 kilómetros cuadrados.  

 

Fuente: ESA, 11 de Octubre de 2007

 

 

 

 

-El Nobel de Física premia a  los descubridores de la "magneto resistencia gigante"

 

La Real Academia de Ciencias Sueca ha decidido honrar los trabajos de los dos científicos europeos, que descubrieron "la magneto-resistencia gigante", conocida en el mundo de los entendidos por sus siglas "GMR", la tecnología que se utiliza en la lectura de los datos de los discos duros.

En 1988 ambos descubrieron por separado un efecto físicamente totalmente desconocido hasta entonces, la GMR. En un sistema como la GMR unos mínimos cambios magnéticos generan grandes resistencias en la resistencia eléctrica, lo que se convierte en el instrumento idóneo cuando se trata de convertir en corriente eléctrica información registrada de forma magnética.

Segundo Nobel 2007

El físico Fert nació en 1938 en Carcassone, Francia, y actualmente trabaja como director de la unidad mixta de física en el Centro Nacional de Investigación Científica CNRS/THALES en Orsay. El alemán Grünberg nació en 1939 en Pilsen, la actual República Checa, y actualmente es profesor en el Instituto de Investigación de Cuerpos Sólidos del centro de investigaciones de Jülich, en el oeste de Alemania.


Peter Gruenberg


El año pasado, la Academia premió las investigaciones de dos astrofísicos estadounidenses en torno al nacimiento de las galaxias.

El Nobel de Física está dotado con 10 millones de coronas suecas (1,1 millones de euros o 1,5 millones de dólares) y se entregará junto al resto de los galardones el 10 de diciembre, aniversario de la muerte de su fundador, Alfred Nobel.
 

Precursores de los discos duros actuales

 Poder controlar las propiedades electrónicas de un sistema mediante la aplicación de un campo magnético externo dio lugar a una nueva disciplina, la espintrónica, en la que al uso de la carga eléctrica del electrón que se hacía en los dispositivos electrónicos, se sumaba el poder explotar además su espín, lo que les hacía sensibles a los campos magnéticos.

Ejemplo de la relevancia tecnológica de este descubrimiento es su aplicación en las cabezas lectoras en los discos duros de ordenadores, que utilizan sensores que detectan los minúsculos campos magnéticos que emanan de los bits de información escritos en el disco. Poder fabricar una cabeza lectora muchísimo más sensible implica poder leer bits mucho más pequeños y, por tanto, aumentar el número de bits que un disco duro alberga. Antes, un ordenador personal podía tener un disco duro con 20 megabytes de información. Hoy el disco duro de un ordenador personal, cuya cabeza lectora se basa en la MG, puede albergar fácilmente 200 gigabytes, 10.000 veces la cantidad de información que hace 20 años.


Fuente: EFE, elpais.com, 10 de Octubre de 2007

 

 

-El Nobel de Medicina va a parar a tres científicos estadounidenses

 

La Academia sueca ha galardonado a los estadounidenses Mario Capecchi (de origen italiano) y Oliver Smithies (nacido en Reino Unido) y al británico Sir Martin Evans con el Premio Nobel de Medicina y Fisiología 2007 por sus trabajos sobre células madre y manipulación genética en modelos animales.

Sus descubrimientos han permitido "poner en marcha una tecnología de una importancia inmensa para manipular genes en modelos animales", según ha reconocido el jurado.

La técnica desarrollada por los científicos premiados forma parte de la rutina diaria de los laboratorios de investigación biomédica de todo el mundo.

Esta tecnología permite a los científicos crear ratones con mutaciones en cualquier gen que se desee y elegir tanto sobre qué gen se quiere actuar como de qué forma alterarlo. Su aplicación más común consiste en inactivar un gen concreto. La técnica ha sido crucial para estudiar las funciones de diferentes tipos de genes en ratones y crear modelos de enfermedades.

Hasta la fecha, se han manipulado con este método más de 10.000 genes de roedores, aproximadamente la mitad de los que componen su genoma.

En su anuncio, el comité del Nobel ha dicho que el empleo de la tecnología de manipulación genética desarrollada por estos investigadores ha arrojado luz sobre el desarrollo embrionario, el envejecimiento y la enfermedad. "Su impacto en la comprensión de la función de los genes y sus beneficios para la humanidad seguirán creciendo en los años venideros", ha señalado el
Instituto Karolinska en un comunicado.

Mario R. Capecchi, que reside en Salt Lake City, estaba dormido cuando le llamó por teléfono el comité de los Nobel. "La voz sonaba muy seria, por eso mi primera reacción fue pensar que esto era real", ha declarado a la agencia de noticias AP.

Por su parte, Oliver Smithies ha destacado que, después de trabajar en el mismo proyecto durante más de 20 años, "es muy grato ser reconocido a este nivel". Además, este experto confía en que el galardón le asegure una financiación más estable para otras investigaciones.

Ratones manipulados genéticamente

Los tres premiados trabajan en diferentes laboratorios de Estados Unidos y el Reino Unido. Aunque han desarrollado sus carreras por separado, han mantenido contactos puntuales desde mediados de los años 80. Cuando en 2001 les concedieron el Premio Lasker, el llamado Nobel americano, Evans recordaba en la revista '
Nature' los inicios de esta colaboración.

En octubre de 1985, el británico pasaba un mes de intensas investigaciones en el
Instituto Whitehead (Massachusetts, EEUU) cuando recibió una llamada de Smithies. "Le respondí que sólo por él rompería mi trabajo en el laboratorio", relata. Evans le llevó unas muestras de cultivos de células madre y pasó un fin de semana en Wisconsin con Smithies. De vuelta en Cambridge (donde Evans trabajaba por entonces), fue Capecchi quien pasó una semana recogiendo células y aprendiendo las técnicas.

"El resto de la historia es bien conocida. Se han hecho cientos de mutaciones de ratón específicamente diseñadas y la técnica, aunque no es trivial, no merece más que unas cuantas líneas de mención en los artículos de genética", relataba.

En el año 1989 crearon el primer ratón 'knockout', es decir, el primer roedor al que se le canceló el funcionamiento de un gen durante la fase embrionaria. El propósito era analizar los efectos de esta desactivación.

La exquisita precisión con que estos investigadores han manipulado el material genético de roedores fue merecedora del Lasker. El trío de científicos ha creado modelos animales de enfermedades humanas como la aterosclerosis, el cáncer, la hipertensión y la fibrosis quística. Esa misma tecnología también contribuye a avanzar en el conocimiento de procesos biológicos normales.
 

Predominio estadounidense

En los últimos cinco años el galardón en la categoría de Medicina ha estado protagonizado casi en exclusiva por científicos estadounidenses. En 2006 la Academia sueca reconoció los trabajos en el campo de la genética de Andrew Z. Fire y Craig C. Mello, que descubrieron la función del ARN de interferencia.

En 2005 el Nobel premió a los australianos Barry Marshall y Robin Warren, descubridores de la bacteria 'Helicobacter pylori', relacionada con algunos de los principales problemas de estómago.

El Nobel de Medicina en 2004 premió las investigaciones de Richard Axel y Linda Buck sobre el sentido del olfato.

Un año antes, en 2003, Peter Mansfield (británico) y Paul Lauterbur (estadounidense) lo compartieron por sus hallazgos sobre la resonancia magnética.

En la edición de 2002, Sydney Brenner, Robert Horvitz y John Sulston compartieron los 10 millones de coronas suecas del galardón (algo más de un millón de euros) por sus estudios sobre los mecanismos genéticos que controlan la muerte celular programada (apoptosis).
 

Fuente: elmundo.es,  9 de Octubre de 2007
 

 

 

 

-Craig Venter, el padre del genoma, anuncia que ha logrado sinterizar un cromosoma artificial

Craig Venter, el polémico investigador del ADN implicado en la carrera para descifrar el código genético humano, ha conseguido engendrar un cromosoma sintético a partir de elementos químicos en su laboratorio, como paso previo a la creación de la primera forma de vida artificial de la Tierra.

[Una portavoz del centro de investigación del científico, Heather Kowalski, matizó el sábado a EL MUNDO que "no estamos preparando ningún anuncio sobre vida sintética. Cuando este trabajo haya terminado, se escribirá un artículo científico y entonces haremos un anuncio público. Es probable que todavía pasen meses hasta que el doctor Venter realicen ese anuncio", informa Pablo Pardo desde Washington.]

Una vez que el hallazgo se publique oficialmente, no cabe duda de que despertará un acalorado debate sobre la ética relacionada con la creación de nuevas especies, y podría abrir las puertas a nuevas fuentes de energía y técnicas para combatir el calentamiento global.

Venter explicó que pensaba que este hito histórico sería "un paso muy importante en la historia de nuestra especie. Vamos a pasar de la lectura de nuestro código genético a la capacidad de escribirlo, algo que nos facilita la hipotética capacidad de hacer cosas jamás imaginadas hasta el momento".

De momento, un equipo de 20 de los mejores biólogos moleculares reunidos por Venter, y dirigido por el galardonado premio Nobel Hamilton Smith, ya ha creado un cromosoma sintético, una hazaña de virtuosa bioingeniería jamás lograda hasta ahora. Mediante el uso de sustancias químicas fabricadas en el laboratorio, han conseguido coser minuciosamente los fragmentos de un cromosoma de 381 genes de longitud, y que contiene 580.000 pares de bases de código genético.

La secuencia de ADN está basada en la bacteria Mycoplasma genitalium, que el equipo redujo a los elementos básicos necesarios para constituir vida, eliminando una quinta parte de su constitución genética. El cromosoma de reconstrucción genética total, que el equipo ha bautizado como Micoplasma laboratorium, fue marcado con tinta para su fácil reconocimiento.

A continuación, se trasplantó en la célula de una bacteria viva, y en la fase final del proceso, se espera que tome el control de la célula, y que por tanto se convierta en una nueva forma de vida. El equipo de científicos ya ha logrado transplantar con éxito el genoma de un tipo de bacteria en la célula de otra, cambiando así la especie de la célula. Venter aseguró tener "confianza al 100%" en que la misma técnica funcionará en el cromosoma creado de manera artificial.

La nueva forma de vida dependerá de su capacidad de replicarse por sí misma y de metabolizar en la maquinaria molecular de la célula en la que haya sido inyectada, y en ese sentido, no será una forma de vida totalmente sintética. Sin embargo, su ADN será artificial, y es el ADN lo que controla la célula, y se cree que es la parte constructora de la vida.

Venter afirmó haber llevado a cabo una detallada revisión bioética antes de completar el experimento. "Creemos que se trata de buena ciencia", explicó. Además, ha acentuado la controversia que rodea a su potencial descubrimiento mediante la solicitud de una patente para la bacteria sintética.

Pat Mooney, director de la organización de bioética canadiense Grupo ETC, considera que este avance es un desafío inmenso para que la sociedad debata los riesgos implicados. "Los gobiernos y la sociedad en general están muy atrasados en este tema. Ésta es una voz de alarma: ¿qué significa crear nuevas formas de vida en una probeta?".

Explicó también que Venter estaba formando un "chasis sobre el que construirlo prácticamente todo. Podría ser una contribución a la Humanidad, mediante el desarrollo de nuevos fármacos, o una grave amenaza, si se utilizara para construir armas biológicas mortíferas". Venter cree que los genomas de diseño tienen un enorme potencial si se controlan adecuadamente.

A largo plazo, espera que puedan constituir fuentes de energía alternativa antes impensables. Según especula, podría ser posible crear bacterias sintéticas que ayudarían a limpiar el exceso de dióxido de carbono, contribuyendo así a solucionar el problema del calentamiento global, o producir combustibles como el butano o el propano, completamente a partir del azúcar.

El anunció de Venter ya suscitó el sábado algunas reacciones críticas. El genetista católico italiano Angelo Vescovi aseguró que el investigador estadounidense "no ha descubierto absolutamente nada nuevo" y que "no ve un Frankenstein a las puertas". En declaraciones a Radio Vaticano, este experto explicó que "lo que ha logrado es un organismo genéticamente modificado de algo que ya existía, no se trata de la creación de un nuevo organismo".

Fuente: elmundo.es, 8 de Octubre de 2007

 

 

 

 

-Hallan una estrella gemela al sol

 

Un equipo de astrónomos norteamericanos y australianos acaba de anunciar el descubrimiento de la estrella más parecida al Sol encontrada hasta ahora. Tanto, que ambas podrían considerarse como «gemelas», a pesar de que están separadas por doscientos millones de años luz.
 

La similitud entre el Sol y HIP56948 es tal que no ha sido posible apreciar entre ambas diferencias de tamaño, masa, temperatura o composición química. Se trata del lugar ideal para la búsqueda de planetas similares a la Tierra, donde podría haber vida.

Otras estrellas parecidas al Sol habían sido identificadas antes de ahora, entre ellas 18 Scorpii, HD98618 y HIP100963. Pero las tres tenían en común el hecho de tener una cantidad de litio muy superior a la que tiene el Sol. Por el contrario, HIP56948 es idéntica al Sol incluso en eso. Un detalle clave, ya que las observaciones han demostrado que cuanto menos litio contenga una estrella, menos violentas y continuadas serán las erupciones en su superficie y, por tanto, la radiación letal con la que bombardean sus respectivos planetas.

Los científicos no saben si ser igual que el Sol es una condición necesaria para que los planetas de una estrella puedan albergar vida, pero sí están seguros de que es el mejor punto de partida para empezar la búsqueda. Después de todo, la única civilización conocida, la nuestra, ha surgido al amparo de una estrella de ese tipo. A partir de ahora, pues, todos los ojos e instrumentos se dirigirán hacia HIP56948. Podría ser el final de nuestra larga soledad en el universo.
 

Fuente: ABC, 5 de Octubre de 2007
 

 

 

-Japón lanza un satélite a la Luna

Este primer explorador lunar japonés coloca al país en la carrera espacial con Estados Unidos, Rusia, China e India. La agencia espacial japonesa (Jaxa) informó que la sonda, llamada Kaguya, desplegará dos pequeños satélites que, en un año, recogerán información sobre el origen y la evolución de la Luna.

La sonda, lanzada al espacio en septiembre, es descrita por los científicos japoneses como la misión lunar más compleja desde el programa Apollo, de la Nasa, en las décadas de los años 60 y 70, cuando los astronautas caminaron sobre el satélite.

"Creemos que es un paso grande", dijo Yoshisada Takizawa, uno de los administradores del proyecto de Jaxa.

Lanzamiento de la sonda

 

El explorador, con un peso de 3 toneladas, tiene el nombre formal de Selena, pero su apodo, Kaguya, hace referencia a una princesa en un cuento popular que ascendió a la Luna..

La principal unidad del explorador estará colocada al final a 100 km sobre la superficie de la Luna.

Los otros dos satélites -más pequeños- se deplegarán en órbitas polares, recogiendo datos geológicos y de topografía y medio ambiente.

Japón lanzó su primer satélite en 1970, pero en años recientes su programa espacial ha sufrido serios reveses debido a problemas técnicos y financieros.

Kaguya deja a la zaga a China, que en 2003 se convirtió en el primer país asiático en poner un astronauta en el espacio. Tanto China como India esperan lanzar sus sondas lunares en los próximos meses.

Jaxa ha estado trabajando para expandir sus actividades. Su objetivo declarado es lograr vuelos espaciales tripulados en el año 2020.

Fuente: BBC Mundo, 5 de Octubre de 2007

 

 

 

 

-Concedidos los Ig Nobel del año 2007

 

 

Brian Wansik,premiado por con el Ig Nobel de nutrición por su estudio sobre la saciedad producida cuando se toma una sopa en un recipiente sin fondo

Estatuilla del Ig Nobel. Hace alusión a la clásica pregunta sin respuesta: ¿que fue antes, el huevo o la gallina?

 

Los premios Ig Nobel son a los premios Nobel lo que los premios Razzie son a los premios Oscar; o sea, su parodía. Cada año, y por las mismas fechas que se conceden los Nobel, la revista humorística científica 'Annals of Improbable Research' (AIR; es decir, 'aire' en mayúsculas) premia las investigaciones científicas más disparatadas, inútiles o, simplemente, sorprendentes. Los premios se llaman Ig Nobel porque en inglés esas dos palabras juntas significan 'innoble'.

Lo realmente interesante de los premios Ig Nobel es que los estudios premiados son serios. Es decir, han sido publicados en revistas científicas serias -quizás no de primera línea-, por científicos serios, y como resultado de investigaciones serias. O, al menos, eso se supone.

Los premios fueron entregados en la Universidad de Harvard, una de las más prestigiosas del mundo. Este año los galardonados han sido los siguientes:

El premio Nobel Ig de la paz se lo llevó el Laboratorio de la Fuerza Aérea Patterson Wright, en Dayton (Ohio), que sopesó la posibilidad de fabricar una 'bomba gay' para provocar la homosexualidad en el enemigo y con ello minar la moral y la disciplina de las tropas. El proyecto fue presentado con toda seriedad en 1994, con un presupuesto previsto de 7,4 millones de dólares, según un documento secreto que salió a la luz en 2005.

España ha ganado un premio Ig Nobel. En concreto, en 'lingüística'. Juan Manuel Toro, Josep Trobalon y Nuria Sebastián Gallés, de la Universidad de Barcelona, realizaron un fascinante estudio que demuestra que las ratas a veces no distinguen entre el japonés y el holandés cuando las personas hablan esas lenguas al revés.

El galardón de 'aviación' se lo llevaron los argentinos Patricia Agostino, Santiago Plano y Diago Golombek, por descubrir que los hamsters se recuperan mejor del desfase horario si previamente toman Viagra.

Aunque las posibilidades médicas del anterior estudio son considerables, AIR ha decidido otorgar el premio Ig Nobel de 'medicina' al británico Brian Witcombe y el estadounidense Dan Meyer por un análisis de los efectos secundarios de introducirse espadas por la garganta. Llegaron a la conclusión de que ocasionaban irritaciones. Al respecto, presentaron el caso de un hombre que se hizo daño en el esófago y al que se le inflamó la membrana protectora de los pulmones "cuando le distrajo un papagayo que tenía en el hombro y que se estaba portando mal". También relataron el de una bailarina del vientre que sufrió una hemorragia "cuando una persona le colocó billetes en el cinto, lo que hizo que se cortase con las tres cuchillas que tenía en el esófago".

La japonesa Mayu Yamamoto ganó el premio de 'química' por su método para extraer esencia de vainilla de los excrementos de la vaca.

Por su parte, L. Mahadevan, de la Universidad de Harvard, y Enrique Cerda Villablanca, de la Universidad de Santiago, en Chile, fueron reconocidos en 'física' por su estudio sobre cómo se arrugan las sábanas.

En 'economía' ganó el taiwanés Kuo Cheng Hsieh, que patentó un dispositivo que lanza una red para capturar a atracadores de bancos.

La holandesa Johanna van Bronswijk obtuvo el premio de 'biología' por realizar un censo de los ácaros, arañas, crustáceos, bacterias, algas, helechos y hongos que residen en las camas de los seres humanos.

El Ig Nobel de la literatura (inglesa) ha recaído en Glenda Browne, de Australia, por su estudio de la palabra 'the' (se traduce, según los casos, por 'el', 'la', 'los' y 'las') y los problemas que causa su indexación.

Y en 'nutrición' ganó Brian Wansink, de la Universidad de Cornell, por estudiar el apetito de las personas, al darles un plato de sopa sin fondo en el que nunca se acababa su contenido. Wansik no sólo estuvo en la ceremonia, sino que se prestó de buen grado a hacer una exhibición pública de su invento, vestido con un espléndido delantal de cocina rojo.

Muchos de los premiados asistieron a la ceremonia y recogieron su galardón, una estatuilla sin valor de una gallina que trata de comer un enorme huevo del que está saliendo; símbolo de la pregunta de imposible respuesta de qué fue antes, el huevo o la gallina.

Fuente: elmundo.es, 5 de Octubre de 2007

 

 

 

 

-El agujero de la capa de ozono se reduce un 30% con respecto a 2006

 

El agujero de ozono sobre la región antártica se ha reducido este año en un 30 por ciento con respecto al récord registrado en 2006, informó  la Agencia Espacial Europea (ESA).

 

Según las mediciones realizadas por el satélite Envisat de la ESA, este año la pérdida de ozono alcanzó un tope de 27,7 millones de toneladas, frente a los 40 millones del año pasado, indicó la agencia en un comunicado.

Para los científicos, el hecho de que el agujero sea inferior este año no es una señal de una tendencia a largo plazo sino que se debe a las variaciones naturales de temperaturas y de dinámica atmosférica, según la ESA.

Para conocer la pérdida de ozono se miden la superficie y la profundidad del agujero. El espesor de la capa se mide en unidades Dobson. Este año el área del agujero -donde el ozono es inferior a 220 unidades Dobson- es de 24,7 millones de kilómetros cuadrados, o sea, aproximadamente la superficie de Norteamérica, mientras que el valor más bajo de la capa de ozono ronda las 120 unidades Dobson, precisó la ESA.

"Aunque el agujero es algo más pequeño que de costumbre, no podemos llegar a la conclusión de que la capa de ozono ya se está recuperando", advirtió un científico del
Instituto Meteorológico Real de Holanda, Ronald van der A, citado en la nota.

El investigador explicó que este año el agujero de ozono estaba menos centrado en el Polo Sur que en otros años, lo que le permitió mezclarse con un aire más caliente, con la consiguiente reducción de su crecimiento.

 

Fuente: EFE, 4 de Octubre de 2007

 


 

 

-Las células madre de las células óseas potencian la metástasis en el cáncer

 

Las células madre son como el doctor Jekyll y Mr. Hyde. Ese preciado tesoro biológico en el que se fundamenta la nueva medicina regenerativa posee también su lado oscuro. Científicos del Instituto de Investigación Biomédica Whitehead de la Universidad de Cambridge (EE.UU.), dirigidos por el prestigioso investigador Robert Weinberg, acaban de mostrarlo.
 

 

La principal fuente de las células madre mesenquimales es la médula ósea. Son células multipotentes, es decir, poseen la capacidad de convertirse en casi cualquier tejido y reparar daños del organismo. Pero esas propiedades regenerativas que las hacen tan valiosas también las convierten en un enemigo poderoso para las personas con cáncer de mama. El grupo de Weinberg ha demostrado que estas células madre ponen en marcha la metástasis, el proceso por el que un cáncer se extiende a otros órganos y en el que reside la clave para reducir la mortalidad de la enfermedad.

Hoy en la revista científica «
Nature» detallan cómo al entrar en contacto con las células tumorales estimulan la secreción de una quimioquina. Esta proteína -CCL5- ayuda a las células cancerosas a salir al torrente sanguíneo, donde encuentran una vía perfecta para llegar hasta otros órganos sanos.



El peligro del efecto reparador

Las células mesenquimales circulan por el sistema sanguíneo, como «sanitarios» que esperan una señal para acudir con rapidez y reparar el daño. El problema surge cuando la llamada procede de un tumor. En el interior del estroma -el armazón celular- del tumor es donde entran en contacto las células madre mesenquimales con las cancerosas y donde se desencadena la metástasis. El grupo de Weingberg reprodujo ese proceso en el laboratorio. Primero mezclaron células de cáncer de mama de pacientes con células madre de médula ósea, también humanas. Ese cóctel se inyectó en ratones. La inyección provocó la aparición de un cáncer de mama en los ratones y en poco más de doce semanas, el tumor se extendió a sus pulmones.

En otro grupo de ratones, los investigadores inyectaron células de cáncer de mama, pero sin células madre. Ellos también desarrollaron un cáncer de mama, pero con menor velocidad. Y, lo más importante, el cáncer no se extendió a los pulmones. No hubo metástasis.

«Demostramos que cuando las células madre mesenquimales se mezclan con otras células cancerosas en proceso de metástasis se incrementa el potencial metastásico del tumor», escriben en «Nature». El contacto entre ambas estimula a las células madre para liberar la quimioquina CCL5 que, de alguna manera, enseña a las células tumorales a crecer rápidamente y a extenderse hacia otros tejidos sanos.



También en otros tumores

De momento, este mecanismo sólo se ha probado con cáncer de mama. Aunque Weinberg piensa que «es probable, aunque todavía especulativo» que todo este proceso se repita de la misma manera con otros tumores y otras metástasis.

El experimento del grupo de Cambridge muestra una nueva ruta de comunicación entre las células mesenquimiales y los tumores, aunque no es el único proceso que dirige la metástasis. El estudio de Weinberg se une a los trabajos del científico español Joan Massagué para intentar explicar el complicado proceso de la metástasis.

El pasado mes de abril un equipo de investigadores, liderado por Massagué, identificó un grupo de cuatro genes «multifuncionales» que también intervienen en la metástasis de pulmón causada por el cáncer de mama. Uno de los puntos fuertes de esta investigación es que se podían esperar beneficios clínicos casi inmediatos.

No se había descubierto sólo una nueva diana. Se identificaron los genes y se comprobó que una combinación de fármacos era eficaz para luchar contra esta metástasis. Massagué también dijo entonces tener la esperanza de que esos medicamentos fueran útiles en otros tumores con metástasis diferentes en otros órganos.

Las células madre, sanas o tumorales, son protagonistas de la investigación oncológica. El propio Massagué advertía el miércoles, durante una reunión de investigación oncológica celebrada en Barcelona, que había que prestarlas atención. Advirtió que las células madre tumorales son capaces de reproducirse indefinidamente como lo hacen las células madre sanas. Y este mecanismo de renovación constante de los tejidos puede ser la causa del fracaso de los tratamientos actuales contra el cáncer. La clave está en encontrar nuevas dianas terapéuticas.
 

Fuente: ABC, 4 de Octubre de 2007

 

 

 

 

-Arranca la "guerra del Ártico"

 

La semana pasada, el Senado de Estados Unidos puso en marcha una comisión aparentemente técnica y aburrida sobre "el tratado de la Ley del Mar". Expertos en política internacional, en derecho marítimo y militares desfilarán por la Cámara para ver si EE.UU. ratifica, 25 años después, este tratado internacional que regula y concede el derecho sobre las aguas territoriales. ¿Por qué ahora Estados Unidos se interesa por un tratado de Naciones Unidas que ha despreciado desde 1982? La respuesta está en el círculo polar ártico.

 

La Ley del Mar establecía un plazo para que, a partir de 2009, los países pidiesen extender las 200 millas que la ONU les concedió como aguas territoriales. "Si un país demuestra que su plataforma continental, el lecho marino anexo al continente, se extiende más allá de las 200 millas, puede reclamar su soberanía", explica Kim Holmen, director del Instituto Polar Noruego, el organismo oficial del país sobre el Ártico.

Así que la Administración de Bush necesita ratificar el tratado pronto porque, como señala Holmen, ya han comenzado los estudios geológicos sobre su fondo marino para demostrar que su plataforma continental llega hasta el Polo Norte y así reclamar su parte del Ártico. Al ratificar el tratado más tarde, EE.UU. tiene más años para presentar los estudios. Pero si tarda, puede encontrarse con que otros países ya han logrado la soberanía. Hay prisa.

No es el único país. Ralph Rayner, director del
Instituto de Ingeniería Marina de Londres y reputado consultor para las petroleras que quieren operar entre hielos, afirma que "todos los países involucrados, Noruega, Rusia, Estados Unidos, Canadá y Dinamarca, por Groenlandia, tienen en marcha esos estudios para reclamar su soberanía hasta el polo".

Los estudios son complicadísimos -hay que investigar el lecho marino; a temperaturas bajo cero y durante meses enteros es imposible porque la oscuridad es total-. Es difícil, pero no imposible, demostrar que esa plataforma existe, ya que la cordillera submarina de Lomonosov recorre el Ártico de punta a punta, tiene casi 4.000 metros de alto y sus picos se encuentran a menos de 1.000 metros de la superficie. "Sale de Groenlandia y llega hasta Rusia, y a todos los países les toca una parte", explica Holmen.

Aprovechando esa cordillera, Rusia colocó una bandera bajo el Polo Norte el pasado 3 de agosto y reclamó su soberanía. Noruega prepara su informe, los daneses trabajan en las extremas condiciones de Groenlandia y Canadá lleva cuatro años recabando datos sobre su lecho marino para exigírselo a la ONU.

Sólo Rusia ha publicado sus pretensiones de dominar el Ártico hasta el Polo Norte, pero, conociendo el lecho marino y la situación, nadie duda de que "todos pedirán hasta el mismísimo Polo Norte" para intentar repartirse la tarta y acabar con la actual indefinición.

Pablo Pareja, profesor de Relaciones Internacionales de la
Universidad Pompeu Fabra y autor de un estudio sobre los límites del Ártico y sus implicaciones legales, afirma que el Polo no es de nadie: "El Ártico es un territorio en disputa, en proceso de regulación. No es de nadie, pero tampoco son aguas internacionales. Durante la guerra fría hubo gran interés, porque era una plataforma magnífica para lanzar misiles entre EE.UU. y la URSS, pero acordaron dejar el problema congelado. Ahora resurge por la proximidad de 2009, cuando comienzan las reclamaciones sobre nuevas aguas territoriales y porque ningún país puede presentarse ante su opinión pública sin reclamarlo".

Pareja asegura que la disputa puede tardar años en resolverse, ya que puede desbordar a la ONU: "No sé si Naciones Unidas será capaz de decidir algo o dirá que se pongan de acuerdo entre ellos. EE.UU. tramitará su adhesión a la Ley del Mar, pero a la vez intentará alcanzar un acuerdo con Rusia en el Consejo Ártico y dárselo hecho a la ONU antes que jugárselo a lo que decidan los geólogos de la ONU". Aunque en Naciones Unidas hay mucha política, en las decisiones influyen mucho las opiniones de los geólogos.

Además de la fecha marcada por la Ley del Mar, hay otros factores que explican esta disputa, unos energéticos y otros ambientales, pero que van de la mano.

Los energéticos comienzan con un informe del servicio geológico de Estados Unidos de 2000 que afirmó que "el Ártico alberga un 25% de las reservas desconocidas de petróleo y gas". Rayner explica que la cifra "es más una adivinación que un cálculo", pero la frase sirvió para excitar a los jefes de Estado de la zona. Explotar esas reservas será complicado, pero, con el precio por las nubes y las reservas agotándose, cada vez más factible.

El pasado 13 de septiembre se encendió por primera vez la chimenea de la planta de gas natural licuado que la sociedad estatal noruega Statoil, junto a Gaz de France y Total, construye desde 2002 en Hammerfest, la ciudad más al norte del país -ellos dicen que del mundo, pero hay varios lugares que se colocan ese cartel-. La planta extrae el gas mediante un sistema submarino a 130 kilómetros de la costa y 250 metros de profundidad. Se trata de la mayor planta de gas licuado de Europa y la más al norte del mundo.

La exploración ha comenzado por la costa noruega porque la corriente del golfo de México hace que el clima sea menos frío que en Groenlandia o Canadá. Hammerfest se ha convertido en un ejemplo perfecto de la nueva fiebre del oro en el Ártico. Allí, 2.700 profesionales de medio mundo (hay ingenieros y técnicos rusos, canadienses y finlandeses, y personal poco cualificado hasta de Afganistán) han trabajado por enormes sueldos y bajo un frío infernal para levantar la planta. En el pueblo, de 9.000 habitantes, sólo hay dos bares y en uno de ellos, el Kai Kanteen, las pintas de Mack, la cerveza del Ártico, se tiran sin cesar. No hay apenas mujeres y hay tantas drogas y peleas como en Berlín. En el centro del pueblo, una estatua al oso polar recuerda que un día fue el origen de las primeras expediciones para conquistar el polo.

Al este de ese yacimiento, ya en la zona rusa, la empresa estatal Gazprom se apresta a explotar el yacimiento de Stockman, una enorme bolsa de gas. Las principales petroleras están perforando allí en busca de yacimientos y en medio del conflicto, ya que Noruega afirma que parte de esas aguas son suyas, no rusas. Lo llaman "la zona en disputa", y Statoil intenta llegar a algún acuerdo con Gazprom para explotarlo conjuntamente. "Tratándose de Rusia y Noruega, lo normal es que Gazprom comience a explotar el yacimiento y luego el conflicto se dirima en los tribunales", explica Pareja. La zona en disputa es la primera, pero habrá muchas más.

"No hay plataformas capaces de soportar la presión del hielo, así que estamos diseñando dispositivos submarinos o que no sean permanentes y que funcionen cuando en verano no haya hielo. Estos yacimientos son mucho más caros que los normales, pero el petróleo llegará a 100 dólares pronto -ahora está en 80, y en 2003, en 28- y cada vez la restricción será menor", explica Rayner, cuya empresa hace trabajos de ingeniería sobre los impactos del cambio climático en los sistemas de explotación desde el golfo de México hasta el Ártico. Aunque muchas petroleras niegan el cambio climático, en sus planes a medio y largo plazo sí que lo tienen en cuenta.

Y es que el calentamiento global es el segundo factor que ha acelerado la carrera por el polo. El Ártico es la zona del mundo más vulnerable al calentamiento -al fundirse el hielo, deja paso al agua, que, en vez de reflejar la luz solar, la absorbe y funde más hielo-. El pasado 16 de septiembre registró el mínimo histórico de extensión de hielo, muy por debajo del mínimo de 2005. "El deshielo se está acelerando. Si esto no es el punto de no retorno, no sé cómo será", sostiene el investigador principal del
Centro Nacional del Hielo de EE.UU., Mark Serreze, cuyos satélites miden desde 1979 casi a diario la extensión del hielo. El deshielo se ha acelerado y en verano de 2040 puede quedar completamente libre de hielo (otros estudios dicen que en 2070).

Este año, por primera vez, ha quedado abierto durante unas semanas el Paso del Noroeste, una ruta que acorta un 23% el trayecto entre Tokio y Nueva York. El del noreste, que cruza por Siberia, sigue cerrado, pero se abrirá en unos años. Y ahí surge la tercera gran disputa, tras la ampliación de las aguas territoriales y la lucha por las reservas de gas y petróleo: quién controlará las rutas marítimas cuando estén abiertas.

Desde 1973, Canadá sostiene que el Paso del Noroeste es suyo. Los barcos cruzan entre islas canadienses y sobre la plataforma continental canadiense. Así que es canadiense, es su argumento. El primer ministro, el conservador Stephen Harper, se plantó el pasado 10 de agosto en Resolute Bay, un remoto asentamiento de 200 personas (inuits, empresarios del turismo de aventura e investigadores) para anunciar que construiría allí una base militar con 1.000 personas.

"El Gobierno canadiense comprende que el primer principio de la soberanía del Ártico es o la usas o la pierdes", dijo entonces en pleno círculo polar, en el centro del paso del noroeste, cerca de las tumbas de una expedición que en 1845 falleció allí buscando el paso. Las cosas han cambiado tanto que este verano, por primera vez, los habitantes de Resolute apenas han visto hielo desde sus ventanas. Canadá construirá, además, tres nuevos rompehielos para controlar la ruta.

El nuevo paso sólo será accesible unos meses al año, pero puede permitir en unas décadas sacar con petroleros o gaseros los recursos de esas prospecciones. Según Rayner, ya hay empresas noruegas y rusas diseñando "buques contenedores semirrompehielos, porque siempre puede haber un iceberg".

La batalla por el Ártico está ya abierta y, como explica Pareja, "habrá vencedores y vencidos".

 

 


 

 

-Cuidado, astrónomos, con la energía oscura 

 

La búsqueda de una verdad más profunda, una teoría fundamental que yace bajo todas las demás, es una poderosa fuerza motivadora en el campo de la física. Pero no es la única. Igualmente válidos son la curiosidad y el sobrecogimiento ante las riquezas de la naturaleza, por el modo en que procesos que aparentemente no guardan relación pueden producir orden, belleza y diversidad a partir del caos.

 

 

La primera motivación es evidente para los físicos de altas energías, donde la idea de encontrar una teoría del todo mantiene ocupados a muchos teóricos con talento. La segunda se encuentra en campos como la biología evolutiva y la astronomía. Hasta hace poco, los dos planteamientos apenas interactuaban, pero ahora el descubrimiento de la energía oscura está creando un matrimonio de conveniencia entre los físicos de altas energías y los astrónomos de observación. Como cualquier matrimonio de este tipo, éste presenta peligros además de oportunidades.

La energía oscura, que parece impulsar la expansión acelerada del universo, es un área de interés teórico fundamental para los físicos de altas energías. Explorarla de manera experimental requerirá mediciones precisas de la historia de la expansión del universo y el crecimiento de la estructura cósmica. Esto exige datos de observación de enormes muestras de galaxias y supernovas, y los astrónomos están colaborando con los teóricos de altas energías para diseñar los estudios adecuados.

El problema es que la física y la astronomía hacen progresos por caminos muy diferentes. En la física gobiernan los experimentos controlados, pero los astrónomos observan lo que la naturaleza les muestre. Me temo que aplicar a ciegas el diseño experimental de la física a los proyectos astronómicos corre el riesgo de un costoso fracaso, además de socavar la base metodológica de la astronomía y su atractivo para los jóvenes científicos y la ciudadanía.

Tradicionalmente, los instrumentos astronómicos fomentan una variedad de usos. El telescopio espacial Hubble es un ejemplo clásico de cómo un nuevo observatorio puede forzar los límites de lo que podemos observar ampliando la sensibilidad, la cobertura de la longitud de onda o la resolución. El Hubble lo ha utilizado toda la comunidad de astrónomos. Sin embargo, no puede decirse lo mismo de la WMAP (siglas de Wilkinson Microwave Anisotropy Probe, la sonda Wilkinson de anisotropía en microondas), que ha trazado la radiación de fondo del Big Bang. Como un experimento tradicional de física, fue diseñada y puesta en funcionamiento con éxito por un grupo muy unido de científicos para abordar una tarea específica. El gran impacto de sus resultados ha animado a mucha gente a esperar un éxito similar de los estudios sobre la energía oscura.

Esto se expone al desastre. En primer lugar, no es posible predecir la precisión de tal estudio, ya que depende de factores inciertos, como la naturaleza de las supernovas cuando el universo tenía la mitad de la edad que tiene en el presente. Si no tenemos suerte, podría mejorar sólo ligeramente nuestra comprensión de la energía oscura. El dinero se habrá desperdiciado y se culpará a los astrónomos.

Aunque dichos proyectos sí nos ayuden a comprender la energía oscura, no avanzarán en otras áreas de la astronomía, así que hacer demasiado hincapié en ellos puede ralentizar el desarrollo de nuestro campo. Los nuevos observatorios posibilitan los descubrimientos y los conocimientos que impulsan la astronomía. El apoyo a los estudios de la energía oscura puede entorpecer los observatorios de rayos X, de radio y de longitudes de onda en ultravioleta o infrarrojo.

Finalmente, este cambio de enfoque se opondría a la cultura subyacente de la astronomía. Si nos desplazamos hacia grandes proyectos a largo plazo como los que dominan la física de altas energías en la actualidad, el trabajo se desarrollará en grandes equipos y se centrará en tareas técnicas como garantizar la calidad de los datos. Los mejores científicos jóvenes verán pocas oportunidades de dejar su impronta y puede que se vayan a otra parte. Dar prioridad a una cuestión fundamental en lugar de la variedad tradicional de temas también hará que la astronomía sea menos atractiva para el público general, con lo que se socavará el apoyo de los contribuyentes a las caras instalaciones que necesitamos para dedicarnos a nuestra ciencia.

Tenemos que aplicar un exhaustivo análisis de costes y beneficios a los proyectos de energía oscura. Debemos reconocer las diferencias culturales entre la física de altas energías y la astronomía, y estar dispuestos a sostener que los descubrimientos astronómicos -que el universo se expande, que los elementos químicos estaban presentes en las estrellas, que existen los agujeros negros, que hay planetas orbitando alrededor de otras estrellas- no son menos importantes para la humanidad que aclarar la naturaleza subyacente de las fuerzas y las partículas.

Cualquier nuevo proyecto astronómico de gran envergadura debería diseñarse para ampliar las fronteras en muchos ámbitos de la astronomía. Por ejemplo, los estudios de las supernovas para rastrear la historia de la expansión del universo deberían almacenar suficiente información como para explorar el mecanismo de funcionamiento de las supernovas. Y deberíamos garantizar oportunidades para los científicos jóvenes fomentando un conjunto diverso de objetivos científicos y concediendo inequívocamente el mérito a los responsables de las principales reflexiones científicas.

Si no hacemos estas cosas, podemos perder tanto los cerebros creativos como los instrumentos que necesita nuestro campo para conservar su efervescencia. La energía oscura es el flautista de Hamelin, que atrae a los astrónomos desviándolos de su propio terreno para seguir a los físicos de altas energías por el camino de la extinción profesional.
 

Fuente: El País Digital, 3 de Octubre de 2007

 

 

 

 

-La ciencia que lee la mente

 

Déjame ver tu cerebro... y te diré quién eres. Te diré, en concreto, a quién votas; si eres sincero o mentiroso; o si, como Enrique Iglesias, eres capaz de tener una experiencia religiosa. Y si además de ver tu cerebro me dejas tocarlo, podré inducirte desde un orgasmo a un viaje astral. Cantantes y metáforas aparte, los propios neurocientíficos advierten de que conviene tomarse en serio las posibles consecuencias derivadas del hecho de que empiezan a investigarse en el cerebro las bases biológicas, el hardware, de cuestiones tan íntimas y en apariencia intangibles como la ideología o la personalidad. No en vano la neuroética es un área en auge.
 

Los autores de un trabajo publicado recientemente en la revista Nature Neuroscience aseguraban haber hallado diferencias en el funcionamiento de un cerebro liberal frente a otro conservador. En pocas palabras: el primero reacciona mejor ante los cambios, mientras que el segundo es más rígido.

Los investigadores hicieron electroencefalogramas a 43 hombres y mujeres diestros mientras reaccionaban ante un estímulo que solía repetirse, pero a veces cambiaba. Cuando ocurría esto último, en la gran mayoría de los sujetos que previamente se habían declarado liberales se detectaba una actividad más intensa en un área de la corteza cerebral relacionada con los conflictos, lo que sugiere "una mayor sensibilidad neurocognitiva" a los cambios, escriben David Amodio y su grupo en su artículo. Se ve, por tanto, la firma de la ideología en el cerebro.

"Esta investigación demuestra que se empieza a dilucidar cómo un producto abstracto, aparentemente inefable de la mente, como la ideología, tiene su reflejo en el cerebro humano", dice Amodio. ¿Alguien se escandaliza por esta afirmación? ¿Alguien piensa que es absurdo que pueda verse algo así en un escáner cerebral? No los neurocientíficos, desde luego. Para ellos está clarísimo, y es perfectamente esperable, que cerebros que piensan distinto, que reaccionan distinto ante un mismo estímulo, funcionen de forma diferente; medir esa diferencia es sólo cosa de tener el instrumento adecuado.

"Todo, y todo es todo, está en el cerebro", dice Alberto Ferrús, director del
Instituto Cajal de Neurociencias del CSIC, en Madrid. "La sensación de estar enamorado o enfadado, la religión... todo se traduce en moléculas, en algo físico que hay en el cerebro".

En los años noventa, cuando aparecieron las primeras técnicas para estudiar el cerebro humano en vivo y en directo -en acción-, se supo que la corteza cerebral de muchos ciegos muestra diferencias apreciables respecto a la corteza de personas que ven; que el cerebro de los taxistas tiene más sitio para información espacial; o cómo actúa el cerebro de los ajedrecistas al jugar. ¿Qué hay de raro en dar un paso más y buscar la marca de la mentira o la espiritualidad? Nada de nada, dice Ferrús.

Pero volvamos al trabajo sobre los cerebros políticos. En él se hacen las siguientes analogías: pensamiento menos rígido equivale a ideología liberal; pensamiento menos rígido equivale a más actividad en áreas cerebrales implicadas en afrontar conflictos; y, por tanto, más actividad en áreas cerebrales implicadas en afrontar conflictos equivale a ideología liberal.

Puestos a analizar, dicen los expertos, el eslabón frágil del razonamiento no es que un estilo de pensamiento tenga su sustrato biológico, sino lo no absoluto del término liberal. En el trabajo de Nature Neuroscience la mayoría de los autodefinidos liberales votaron por John Kerry, y los conservadores por Bush. ¿Se puede sustituir eso por Zapatero versus Rajoy? Y en un país musulmán, ¿quiénes tienen el cerebro flexible y quiénes rígido? Y los liberales del Trienio Liberal en España, entre 1820 y 1823, ¿qué cerebro tenían?

Ahora bien, no hay que equivocarse: que haya un sustrato biológico no implica ni que ese hardware nos ha sido transmitido genéticamente, ni que es inmutable. "Nosotros no examinamos si la orientación política se hereda, si nos viene dada de nacimiento", explica Amodio. "El cerebro es maleable, así que incluso si nacemos con un sistema neural más sensible a información conflictiva, es posible que este sistema neural cambie con el tiempo". Y ¿es fácil de cambiar el hardware que nos viene de fábrica? En otras palabras, ¿Qué pesa más, lo heredado o el ambiente?

"Puede que esa no sea la manera correcta de formular la pregunta", responde Amodio. "Los genes proporcionan unos mecanismos de base para la supervivencia. Pero lo bonito es que la expresión génica es muy sensible al ambiente".

Otra posible pregunta sobre este trabajo es si los cambios sociales globales -el cambio de postura respecto a la homosexualidad, el divorcio o el trabajo femenino-, implican un cambio colectivo en el funcionamiento del cerebro. ¿Tenemos todos un cerebro más liberal? "Tal vez", responde Amodio, para quien sin embargo la sociedad tiende ahora hacia un mayor conservadurismo -una prueba más de lo confuso de estos términos-. Pero "no está claro si estos cambios a gran escala tienen algo que ver con cambios heredables. Podrían estar más relacionados con la globalización y los cambios culturales".

En cualquier caso, lo cierto es que a la luz de los tentáculos que está desarrollando la neurociencia la intimidad empieza a emerger -también- como un concepto de lo más borroso. Con lo que ello implica, como señala Carlos Belmonte, director del
Instituto de Neurociencias de Alicante: "Los problemas éticos que plantea la capacidad de analizar la actividad del cerebro vinculada a conductas, o la capacidad de modular desde fuera esa actividad cerebral, de encender o apagar genes, la neuro-estimulación, son importantes". Se podría llegar a descubrir cómo es el cerebro de un maltratador, por ejemplo, y entonces "¿Estaría bien tratarle para que no llegue a serlo? ¿Hasta dónde podemos llegar? Se van a plantear debates muy serios, y vamos a una velocidad espeluznante", dice.

Fuente: El País Digital, 2 de Octubre de 2007

 

 

 

 

-Los neardentales llegaron a Siberia

 

Los neandertales llegaron mucho más lejos de lo que se pensaba. Restos de ADN que se han extraído de unos fósiles hallados hace décadas han demostrado que esta especie humana, desaparecida hace unos 30.000 años, llegó hasta las estribaciones de Siberia, 2.000 kilómetros más lejos de lo que se pensaba hasta ahora.

 

Investigadores del Instituto Max Planck de Alemania, dirigidos por Steve Pääbo, han revelado que las secuencias de ADN mitocondrial de los neandertales encontrados en las montañas de Altai, en el extremo oriental de Siberia (Kazajstán), son prácticamente idénticas a las de los que habitaron en el centro de Europa.

Dada esta similitud, el equipo de Pääbo concluye que esta especie de homínidos, que apareció en este continente hace unos 400.000 años y posteriormente se extendió hacia Asia, no mantuvo sus poblaciones separadas durante mucho tiempo.

De hecho, sugieren, en el trabajo que publican en a revista '
Nature', que los neandertales no se extendieron hacia Rusia antes de un periodo excepcionalmente cálido que tuvo lugar hace 125.000 años. Fue por entonces cuando el Mar Caspio redujo su tamaño debido al cambio climático. Los expertos incluso especulan con que esta especie humana pudiera haber llegado hasta Mongolia y China, pero es algo que aún no se ha probado.

Para realizar el análisis genético los científicos alemanes extrajeron el ADN mitocondrial cuatro huesos poscraneales hallados en el yacimiento kazajo de Okladnikov. Hasta ahora se pensaba que estos restos pertenecían a humanos modernos y también se habían relacionado con el 'Homo erectus'.

Estos fósiles, datados hace entre 37.000 y 43.000 años, se compararon con los de neandertales hallados en Uzbequistán en los años 30 del siglo pasado y que eran los localizados más al Este del continente hasta ahora.
 

Fuente: elmundo.es, 2 de Octubre de 2007

 

 

 

 

 

-Alcatel Lucent inventa la TV inteligente de banda ancha

 

Resulta efectivo para los anunciantes someter (sin piedad) a los telespectadores durante doce minutos cada hora a un paquete de publicidad en mitad de una película policíaca? ¿Ha contratado alguna vez los servicios de un operador de telefonía fija o móvil que le interrumpe a las tres de la tarde, mientras come?
 

Muchos expertos coinciden en que la publicidad invasiva y agresiva tiene los días contados, en tanto que los contenidos audiovisuales y los canales tradicionales de venta experimentarán grandes cambios en poco tiempo. Lo que se avecina son nuevos modelos de mercadotecnia basados en el respeto al consumidor, las ofertas individualizadas en función de los gustos de cada uno y la facilidad de acceso a través de una auténtica televisión interactiva -no como la actual, que es caricatura-, estrechamente ligada a la banda ancha.

Los ingenieros de
Alcatel-Lucent lo tienen claro y llevan trabajando mucho tiempo en desarrollar nuevas tecnologías convergentes, capaces de convertir al televisor en una auténtica «caja inteligente», que en estrecha alianza con el teléfono móvil relega a un segundo plano al ordenador de sobremesa. No se trata de un visión futurista condenada al ostracismo, sino de una realidad tecnológica ya tangible, cuya implantación dependerá en gran medida de los modelos de negocio que se creen. En otras palabras, de cómo se repartirán la nueva y jugosa tarta las cadenas de televisión, las operadoras de telefonía fija o móvil, los creadores de contenidos, los anunciantes...

El desarrollo de Alcatel Lucent para generar el nuevo modelo audiovisual se basa en tecnologías que permiten trabajar por debajo de la unidad mínima de contenido, es decir, por debajo del «freim»). ¿Y qué son los «freim»? Marcos HTML que permiten a los canales de televisión ofrecer vistas múltiples, que pueden ser ventanas o subventanas independientes. Por ejemplo, si a un espectador le gusta el horno que utiliza Carlos Arguiñano para cocinar, podrá visualizarlo en el momento, obtener información detallada sobre el producto, el precio de venta y encargarlo de forma inmediata, mientras el cocinero vasco prosigue con su programa. De forma que el usuario del futuro, además de escoger el programa de TV que desee, podrá interactuar con los contenidos de una forma hasta ahora desconocida, porque al estar conectado a la red los objetos serán «clikeables» y navegables.Entre las distintas aplicaciones que Alcatel Lucent ha desarrollado para la «caja inteligente» del futuro destacan la posibilidad de crear canales individuales con contenidos personales que otros pueden visionar previa invitación, acceder de forma remota a los canales contratados desde el móvil o el portátil, grabar en la red la serie preferida y visualizarla en el celular o TV cuando se desee, o gestionar las llamadas de voz, correos electrónicos, videollamadas, etcétera.

Interactividad y dinamismo

La interactividad también se traducirá en una TV más participativa y dinámica, de manera que, por ejemplo, si en un programa del corazón el aludido se ofende por las declaraciones de un contertulio, podrá participar activamente en el programa mediante la integración de vídeo y voz.

En el terreno publicitario también se producirán notables cambios. Los usuarios gestionarán sus propios canales de publicidad directa elegidos por ellos mismos (publicidad consentida), los anuncios serán más reales gracias al 3D y los móviles podrán captar y almacenar publicidad estática de la calle, cuyo contenido será descargado en la TV al llegar a casa. Toda una revolución.

 

Fuente: ABC, 1 de Octubre de 2007


 


 

 

-El fotón abre una nueva vía en el procesamiento de información

 

El fotón mensajero, un átomo artificial que puede multiplicar de forma exponencial la capacidad de un ordenador actual para que trabaje miles de veces más rápido, fue utilizado por primera vez por científicos para transmitir información a través de un cable.
 

Dos equipos de físicos en Estados Unidos consiguieron utilizar un fotón mensajero para transmitir datos de un 'qubit' (bit cuántico) a otro en una distancia de 20 milímetros, lo que puede abrir la vía a distancias más grandes, explica el miércoles la revista británica Nature, que publica los trabajos de los científicos.

Contrariamente a los bits tradicionales, cuyo valor es igual a 0 ó a 1, un qubit puede tomar esos dos valores a la vez. El interés es que la potencia teórica de las calculadoras con esa tecnología se duplica con cada qubit añadido, lo que aumenta de forma exponencial, para permitir así dar un gran salto adelante y poner en práctica un ordenador cuántico súper rápido.

"No es la primera vez que los científicos consiguen enlazar un qubit con otro, pero es la primera vez que lo hacen a una distancia relativamente grande, el equivalente a un microprocesador", declaró a la AFP Johannes Mayer, que dirige el equipo de la
Universidad de Yale.

Por su lado, el equipo del
National Institute of Science and Technology logró construir el cable que unió a los dos qubits, y que almacenó la información necesaria durante 10 nanosegundos (10 millonésimas de segundo).

"Es un paso importante hacia la construcción de ordenadores cuánticos", según Raymond Laflamme, director del Instituto de Cálculo Cuántico de la
Universidad de Waterloo, en Canadá.

La dificultad de la operación reside en el control de los fotones, partículas sin masa que se desplazan a la velocidad de la luz. "Tenemos que controlar las señales eléctricas que corresponden a un único fotón", explicó Mayer, quien subrayó que un teléfono móvil emite unos 100.000 trillones (es decir, un 1 seguido por 23 ceros) de fotones por segundo.

Para conseguir construir un ordenador cuántico, "hay que unir mucho más qubits, al menos centenares, sino miles", reconoció Majer. Otro problema reside en la temperatura. Para aislar el fotón mensajero y transmitir la información, el cable tuvo que ser enfriado hasta diez miligrados por encima del cero absoluto (la temperatura teórica más baja posible, que en la práctica nunca fue alcanzada), es decir -273,13 grados centígrados.
 

Fuente: La Vanguardia Digital, 1 de octubre de 2007

 

 

 

-50 años del lanzamiento del Sputnik

«El comienzo de la era espacial fue un gesto propagandístico y de intimidación», reconoce medio siglo después Borís Chertok, mano derecha de Serguéi Koroliov, el gran constructor de cohetes del régimen de Stalin. A sus 95 años, Chertok es el último testigo vivo de aquel equipo de científicos militares soviéticos. Diseñador de cohetes y rampas de lanzamiento, especialista en radioelectrónica y académico, Chertok admite que «la guerra fría, el enfrentamiento entre las dos grandes potencias, fue el motor para el desarrollo de la cosmonáutica»

El 4 de octubre de 1957, los soviéticos dejaron al mundo boquiabierto lanzando desde la base de Baikonur (Kazajstán) el primer ingenio espacial de la historia, el Sputnik-1, palabra que en ruso significa acompañante o satélite. Aquel evento provocó temor en Washington. Era evidente que los soviéticos poseían la tecnología balística necesaria para hacer llegar a territorio americano misiles cargados con bombas atómicas. «Nosotros no estábamos mucho más adelantados que los americanos en tecnología balística; al contrario, en muchos aspectos ellos nos superaban con creces», recuerda Chertok. En los primeros lanzamientos de prueba, los rusos sufrieron multitud de fracasos, pero lograron imponerse a los estadounidenses.

Según Chertok, «el Gobierno soviético ordenó que nuestro primer satélite artificial fuera un pesado laboratorio con material científico para el estudio de la estratosfera, pero los americanos estaban pisándonos los talones y Koroliov decidió que su fabricación llevaría mucho tiempo. Había que hacer algo antes para impedir que se nos adelantaran». Lo importante era demostrar que se podía poner algo en órbita.

Una esfera de aluminio

Así que se creó una esfera de aluminio, que tenía 58 centímetros de diámetro, algo más 80 kilos de masa y estaba provista de cuatro antenas y un radiotransmisor, ideado por el propio Chertok. Emitía un pitido cada 0,4 segundos y fue bautizado con el nombre de Sputnik-1. Su denominación codificada fue Obiekt-D (objeto-D). «No tenía nada de particular, lo único que hacía era emitir un continuo bip-bip». Lo importante realmente era el cohete, un R-7 diseñado por Koroliov, no para volar al espacio, sino para portar cabezas nucleares a una distancia de más de 8.000 kilómetros. Era un misil intercontinental de dos fases. «La puesta en órbita del Sputnik-1 causó entusiasmo en el propio pueblo americano, que ignoraba que habíamos demostrado cómo podíamos alcanzarle con nuestras armas atómicas».

El «bip-bip» del nuevo satélite pudo oírse desde Tierra en cualquier hogar en el que hubiera un receptor de radio. Por eso, el acontecimiento produjo sensación en todo el planeta. Al día siguiente, los periódicos de todo el mundo abrían sus portadas con la noticia de que el hombre había conseguido por primera vez poner un aparato en el espacio. El Sputnik-1 cayó de su órbita justo tres meses después, tras haber efectuado 1.367 rotaciones.

El enorme éxito obtenido con el Sputnik-1 hizo comprender al entonces líder soviético, Nikita Jrushiov, que la aventura espacial constituía un potente instrumento propagandístico para aglutinar a las masas en torno al Partido Comunista. Jrushiov quiso que continuase la fiesta y ordenó nuevos lanzamientos. «Nos dieron sólo un mes para preparar el envío al espacio de un ser vivo», rememora Chertok.

El 3 de noviembre de 1957 fue puesta en órbita la perrita Laika. Se dijo que el infeliz animal estuvo unos días dando vueltas alrededor de la Tierra hasta que la cápsula se desintegró. Sin embargo, hace cinco años se supo que Laika murió seis horas después del lanzamiento, por un fallo en el sistema de suministro de oxígeno. Pese a ello, en el mundo se consideró que el lanzamiento había sido un logro. Los norteamericanos respondieron por fin el 31 de enero de 1958, arrojando al cosmos su primer satélite artificial, el Explorer-1.

La llegada a la luna

Los rusos estuvieron mucho tiempo por delante de los estadounidenses en la carrera espacial. En 1959, la URSS consiguió que una nave no tripulada llegara a la Luna y obtuviera las primeras fotografías de la cara oculta del satélite terrestre. También los soviéticos fueron los primeros en conseguir que un hombre, Yuri Gagarin, viajase al espacio y regresase sano y salvo. Sucedió el 12 de abril de 1961. Pero el primero en poner un pie en la Luna fue el americano Neil Armstrong, en 1973.

La desintegración de la URSS trajo consigo una etapa de terribles penurias. Los drásticos recortes que sufrieron las subvenciones provenientes de las arcas estatales pusieron la industria espacial rusa al borde de la desaparición. La única salida para Rusia fue colaborar con Occidente en la construcción de la Estación Espacial Internacional (ISS) y vender su enorme experiencia en vuelos tripulados de larga duración.

Durante los largos períodos de inactividad de los transbordadores estadounidenses, a causa de los accidentes sufridos, han sido las naves rusas Soyuz las únicas que han podido asegurar los relevos de las tripulaciones en la ISS. El turismo espacial es ahora otra de las fuentes de ingresos que ayudan a Roskosmos, la agencia rusa del espacio, a mantenerse en forma. Desde 1957, Rusia ha puesto en órbita más de 3.000 aparatos espaciales, incluyendo satélites artificiales, sondas, las estaciones orbitales Saliut y Mir, además de algunos de los módulos de la ISS.
 

Fuente: ABC, 1 de Octubre de 2007