|
|
|
|
NOTICIAS CIENTÍFICAS
--Nuevas Noticias Próximamente--
TITULARES DE LAS NOTICIAS DEL MES
Las especies se extinguen 100 veces más rápido de lo natural
Defectos en el universo primitivo
Un panel instalado recientemente en la Estación Espacial se rompe
NEC lanza el superordenador por vectores más rápido del mundo
El cáncer podría tener el mismo origen metabólico que la diabetes o la obesidad
Podría existir más de un universo
Descubierto el animal más viejo del mundo
Nuevo récord de impulso en los motores iónicos
Dos astronautas del Discovery realizan su primer paseo espacial
Descubren rastros de una antigua luna de Saturno en sus anillos
Un campus faraónico sobre el Mar Rojo
Los neandertales eran pelirrojos
El Airbus A380 hace su primer vuelo comercial
China lanza con éxito el satélite que abre su carrera para poner pie en la Luna en 2020
La Estación Espacial Internacional tiene otra pieza
El mapa de nuestras diferencias genéticas
En el 2020 veremos el Ártico sin hielo
La revolución de la nanotecnología
La revolución de la nanotecnología
El "Eureka" de cinco magníficos
La pastilla antisida llega a Europa
Cambio de horario: más molesto que rentable
Por primera vez, una mujer al frente de la Estación Espacial Internacional
Científicos españoles descubren que el cuerpo carotídeo crea células madre convertibles en neuronas
La ley de biodiversidad se echa al mar
Descubren un agujero negro junto a una estrella
Animales en peligro de extinción
Estirpes de ratones noqueados para descifrar sus genes
Microsoft quiere patentar un lector de mentes
Descubren en la Patagonia argentina una nueva especie de dinosaurio herbívoro
El 90% del proceso tumoral ocurre sin que nos demos cuenta
Un lugar de Marte donde situar una nave terrestre
A la búsqueda de vida extraterreste
La NASA celebra los diez años del lanzamiento de Cassini
Al Gore, Premio Nobel de la Paz
El investigador alemán Gerhard Ertl es el ganador del Premio Nobel de Química
El Nobel de Física premia a los descubridores de la "magneto resistencia gigante"
El Nobel de Medicina va a parar a tres científicos estadounidenses
Craig Venter, el padre del genoma, anuncia que ha logrado sinterizar un cromosoma artificial
Hallan una estrella gemela al sol
Japón lanza un satélite a la Luna
Concedidos los Ig Nobel del año 2007
El agujero de la capa de ozono se reduce un 30% con respecto a 2006
Las células madre de las células óseas potencian la metástasis en el cáncer
Arranca la "guerra del Ártico"
Cuidado, astrónomos, con la energía oscura
Los neardentales llegaron a Siberia
Alcatel Lucent inventa la TV inteligente de banda ancha
El fotón abre una nueva vía en el procesamiento de información
50 años del lanzamiento del Sputnik
-Las especies se extinguen 100 veces más rápido de lo natural
En 1987, la ex primera ministra noruega Gro Harlem Brundtland lanzó la primera gran alerta ecologista. En el informe Nuestro futuro común concluía: "El coste de la pobreza, en sufrimiento humano, en el derroche de los recursos humanos y en la degradación ambiental se ha ignorado enormemente".
Han pasado 20 años, la población ha
aumentado un 34% y la renta per cápita media ha ascendido en casi un 40%. Pero
las cosas no parecen haber mejorado, según el IV Informe mundial sobre el
medio ambiente elaborado por la
Oficina de Naciones Unidas de la
materia. El texto, de 572 páginas y elaborado con colaboración de 1.000
expertos, repasa los grandes problemas del medio ambiente. Estos son tres de los
más importantes.
- Sexta extinción. "Las especies se están extinguiendo a unas
tasas que son 100 veces más rápidas que las observadas a través de los registros
fósiles, debido a los cambios de uso del suelo, la pérdida de hábitat, la
sobreexplotación de los recursos y la expansión de especies invasoras". Desde
los dinosaurios el mundo no ha vivido nada parecido. "Más del 30% de los
anfibios, el 23% de los mamíferos y el 12% de las aves están amenazados", según
la ONU.
A estos factores hay que añadir la pérdida de biodiversidad en los cultivos.
"Sólo 30 tipos de cultivo proporcionan el 90% de las calorías del mundo y 14
especies animales constituyen el 905 de la actividad ganadera del mundo".
- Cambio climático. El cambio climático es uno de los grandes
desafíos de la humanidad. Tanto, que para hacerle frente "las emisiones de gases
de efecto invernadero deberían reducirse en un 50% para 2050 respecto al nivel
de 1990". Según las Naciones Unidas esa es la reducción necesaria para que la
subida media de la temperatura no supere los dos grados centígrados, el nivel a
partir del cual "es posible que se produzca gran daño irreversible". Para ello,
los países desarrollados deberían reducir sus emisiones entre el 60% y el 80%
para 2050. "El objetivo no es presentar un escenario negro y pesimista, sino una
llamada urgente para la acción", señala el estudio, aunque no lo parece.
- Sobreexplotación. El informe incide en una vieja preocupación
ecologista: que el consumo masivo de recursos supera la producción de materias
primas. Es decir, que la humanidad consume cada año más de lo que el planeta
genera. Para ello, en los últimos años se ha desarrollado el concepto huella
ecológica, que mide el consumo equivalente a la producción por la superficie
terrestre. "La población del mundo ha alcanzado un estado en el que la cantidad
de recursos necesaria para mantenerlo supera lo que hay disponible. La huella
ecológica de la humanidad es de 21,9 hectáreas por persona, mientras que la
capacidad biológica de la Tierra es, de media, de sólo 15,7 hectáreas por
persona".
Un 60% de los ecosistemas están sobreexplotados, aunque el mayor abuso se da en
la pesca. Según el estudio la pesca es un claro ejemplo. Actualmente se pesca a
un ritmo casi cuatro veces mayor de lo que pueden soportar los océanos.
Fuente: El País Digital, 31 de Octubre de 2007
-Defectos en el universo primitivo
En el mapa del cielo
que está haciendo el satélite WMAP se aprecia una gran mancha muy fría en la
radiación más antigua que se puede ver. La descubrieron hace cuatro años unos
físicos españoles y nadie encontró una buena explicación. Ellos, por supuesto,
siguieron dándole vueltas al asunto, estudiando más datos y haciendo más
análisis, y ahora creen que han logrado aclarar el origen de la mancha: se trata
de la huella de algo llamado textura cósmica, una extraña burbuja de energía o,
sencillamente, un defecto del universo primitivo.
"Aunque sea radical,
la hipótesis de la textura es la explicación más plausible de las propuestas
para la mancha", escriben estos investigadores en la revista
Science, donde presentan su trabajo. Si están
en lo cierto, debe haber más defectos cosmológicos en forma de manchas frías o
calientes, la cuestión es descubrirlas.
Inmediatamente después de la explosión inicial, el universo ultracaliente y
ultradenso empezó a enfriarse y a expandirse. Al ir cayendo la temperatura se
produjeron transiciones de fase, algo fácil de comprender si se piensa en la
congelación del agua líquida, cuando se convierte en hielo. Las transiciones de
fase del universo primitivo son más exóticas, pero igual que en el cubito de
hielo se forman irregularidades en el proceso de cristalización de líquido a
sólido, en el cosmos pudieron formarse defectos en las transiciones de fase,
aunque no se había detectado ninguno hasta ahora.
La idea se remonta a hace casi 30 años, cuando unos físicos de partículas
teóricos conjeturaron que en las transiciones de fase del universo ultracaliente
primitivo, a la vez que las fuerzas fundamentales dejaban de estar unificadas,
cuando apenas habían transcurrido unas millonésimas de segundo desde el Big Bang,
se podrían formar esos defectos. Pero no se detectó algo así en el cosmos.
Ahora, los investigadores del
Instituto de
Física de Cantabria (IFCA) Marcos Cruz,
Patricio Vielva y Enrique Martínez, junto con dos colegas británicos, han
rescatado esa conjetura porque encaja muy bien con lo que ellos habían observado
en el cielo: el defecto, la textura, dejaría una huella en forma de gran mancha
de mayor o menor temperatura -en este caso menor- que la media de la radiación
de fondo que mide WMAP.
El universo primitivo estaba demasiado caliente para que se formaran átomos y
para que se emitieran los fotones de la luz. No fue hasta unos 380.000 años
después de la explosión inicial cuando el cosmos, expandiéndose y enfriándose,
alcanzó una temperatura suficientemente baja para que se unieran electrones y
protones formando primeros átomos de hidrógeno y empezando los fotones de la luz
a circular libremente. El cosmos, en ese momento, se hizo transparente. El símil
de la piscina de agua hirviendo llena de burbujas que se enfría y, al alcanzar
una temperatura inferior al punto de ebullición del agua, se hace transparente,
es un símil útil.
Lo que el WMAP mide es la radiación del universo emitida en aquel momento,
380.000 años después de la explosión inicial o, lo que es lo mismo, hace 13.500
millones de años. Es la radiación -muy fría- más antigua que se puede ver, ya
que antes el universo era opaco. Se descubrió en 1965.
"Esta radiación, que se observa ahora en todas las direcciones del cielo a una
temperatura de unos 270 grados centígrados bajo cero, representa la mejor prueba
de un pasado denso y caliente del universo en el que los átomos estaban
divididos en sus componentes más elementales. Este escenario cosmológico es lo
que denominamos comúnmente como Big Bang", explica Martínez.
Esa radiación de fondo, que parecía uniforme, resultó no serlo cuando se
lograron desarrollar sensores suficientemente sensibles para detectar minúsculas
variaciones de temperatura, pequeñas irregularidades que servirían para explicar
por qué ahora la materia no está uniformemente repartida por el cosmos sino
agrupada formando conjuntos de galaxias, galaxias, estrellas y planetas. Y WMAP,
más sensible que su predecesor COBE, también de la
NASA,
está haciendo un mapa de alta precisión de esas ligeras variaciones de
temperatura.
"Hace unos cuatro años, un grupo de investigadores del IFCA descubrimos la
presencia de una mancha muy fría y muy grande en el mapa de todo el cielo
producido durante el primer año de funcionamiento de WMAP, algo que había pasado
desapercibido para el propio equipo científico responsable del satélite",
recuerda Martínez.
La mancha es realmente grande, unos 10 grados de diámetro -la Luna mide medio
grado en el cielo- y su origen era un misterio. La explicación aparentemente más
sencilla la propusieron unos científicos estadounidenses: es un gran vacío
cósmico, una región del cielo donde no hay galaxias.
Pero a los físicos de Cantabria no les cuadraba este gran vacío con su mancha
fría, que seguían estudiando. "Sería un vacío de proporciones descomunales (de
varios cientos de millones de años luz de diámetro)", dicen, "y en total
contradicción" con la teoría estándar del Big Bang. "La explicación de la mancha
como un gran vacío no es otra cosa que solucionar un problema creando otro
problema", afirma Martínez. Sin embargo, la hipótesis del defecto, de la textura
cósmica, encaja mucho mejor con los datos de la mancha fría, dicen Cruz y sus
colegas.
La idea es que en aquella remota transición de fase de la materia y radiación
del universo primitivo (como en la cristalización imperfecta del cubito de
hielo), se formarían unos objetos tridimensionales, como unas burbujas de
energía, cuya huella sería identificable en la luz del universo cuando éste se
hizo transparente. "Dentro de una de esas burbujas, los campos energéticos que
forman la textura están enmarañados", explica Cruz. "Las texturas y otros
defectos deberían ser detectables como variaciones de temperatura en la
radiación de fondo cósmico de microondas [lo que detecta el WMAP]".
¿Por qué detecta el sensor del satélite la huella de esa burbuja de energía
enmarañada? Porque la radiación, la luz fría del fondo de microondas, siente su
efecto gravitatorio al pasar cerca, efecto que ve el satélite en forma de mancha
fría, contesta Martínez. La teoría indica que se formarían no uno, sino muchos
defectos, fríos y calientes; los científicos están buscándolos.
Los propios autores de la investigación publicada en Science, así como otros
expertos, advierten de que la cuestión no está zanjada. "Aunque el origen de la
mancha fría no está totalmente demostrado, este hallazgo podría aportar nuevos
puntos de vista sobre la infancia del universo", dice Cruz.
Su colega Neil Turok, de la
Universidad de Cambridge (Reino Unido) añade:
"Será muy interesante ver si esta explicación se confirma en los próximos años.
Si es así, las implicaciones serán extraordinarias porque las propiedades del
defecto proporcionarán una ventana absolutamente única abierta hacia la
unificación de las partículas y las fuerzas", unificación que se rompería en
aquella transición de fase a la vez que se formarían las texturas en el universo
primitivo enfriándose.
"El futuro satélite Planck de la
ESA, que medirá el cielo
de microondas con mayor precisión que WMAP y cuyo lanzamiento está previsto para
julio de 2008, podrá confirmar la presencia de ésa y otras texturas en el
universo", señala Vielva.
Fuente:
elpais.com, 31 de Noviembre de 2007
-Un panel instalado recientemente en la Estación Espacial se rompe
El panel solar que estaba siendo desplegado de una viga, instalada recientemente, en la Estación Espacial Internacional (ISS) se rompió ayer, obligando a la NASA a suspender la operación y poniendo en duda los planes de expansión de la base orbital.
Parte del extenso panel con forma de ala se veía roto y arrugado en imágenes de televisión obtenidas desde el espacio.
Brecha abierta en el panel solar
La NASA había dicho que el despliegue del conjunto de paneles era crítico para proveer de electricidad a los laboratorios europeos y japoneses, cuya llegada a la estación comenzaría en diciembre, operación que se había retrasado ya después de que se hubiera averiado el mecanismo que hace rotar otro panel solar.
Los astronautas de la estación detuvieron el despliegue del panel cuando detectaron el daño, e indicaron que el brillo del sol les había impedido verlo con anterioridad.
"Parecía como si el daño hubiera aparecido repentinamente", dijo Pamela Melroy, comandante del transbordador espacial 'Discovery', que se encuentra acoplado en la ISS.
Los ingenieros de la NASA en la base de control de la misión en Houston dijeron a los astronautas que registren fotos del daño para estudiarlo en Tierra y les indicaron que replegaran parcialmente el panel para reducir la tensión en la rotura.
De momento, no se ha anunciado cual será el siguiente paso de la NASA, pero funcionarios dijeron el pasado lunes que si había problemas desplegando el panel, los astronautas que habían planeado revisar el mecanismo de rotación ya averiado deberían trabajar en el panel solar.
El contratiempo empaña lo que había sido un día exitoso para los astronautas, quienes instalaron previamente en la estación la viga de 17,5 toneladas en la cual estaba almacenado el panel.
La viga fue colocada con la ayuda de los caminantes espaciales Scott Parazynski y Douglas Wheelock, quienes guiaban el brazo robótico manejado por Daniel Tani y Stephanie Wilson.
El dispositivo había estado encima de la estación por siete años esperando ser ubicado en su posición permanente. "Se ve bien, hombre del espacio", decía uno de los caminantes espaciales mientras realizaban la tarea.
Una vez que la viga estuvo instalada, la mitad del conjunto de paneles solares, integrado por dos paneles separados y de 73 metros de longitud cuando está completamente extendido, fue desplegada sin dificultad. El problema ocurrió cuando la otra mitad estaba siendo extendida.
Este se suma a los problemas de energía de la estación, después de que la NASA desactivara el domingo uno de los dos ensamblajes rotarios de tres metros de la estación que permiten al conjunto de paneles apuntar hacia el Sol para producir electricidad.
El ensamblaje, instalado en junio, ha estado activo por dos meses. Tani encontró virutas de metal dentro del mecanismo el domingo durante una caminata espacial. La viruta indicó que las partes móviles de metal se están gastando, lo que hizo que la NASA extendiera en un día la estancia del transbordador 'Discovery' en la ISS para que Parazynski y Wheelock puedan inspeccionar de cerca el ensamblaje durante una caminata espacial de mañana y determinar qué reparación se necesita llevar a cabo.
Fuente: elmundo.es, 31 de Octubre de 2007
-NEC lanza el superordenador por vectores más rápido del mundo
La compañía japonesa NEC afirmó que ha lanzado el superordenador de vectores más rápido del mundo, el modelo SX-9, con una velocidad de procesamiento de datos de 839 TFLOPS, según informó la agencia de noticias Kyodo.
El ordenador de NEC, una computadora equipada de procesadores
de vectores que podrá emplearse para propósitos científicos o técnicos,
realizará 839 trillones de operaciones por segundo.
Este tipo de ordenadores se emplean en computación compleja y de gran escala
para sistemas como la climatología, la aeronáutica o el estudio del espacio,
además de simulaciones medioambientales o dinámicas de fluidos.
El modelo SX-9 ocupa un cuarto del espacio y consume un cuarto de la energía que
los superordenadores convencionales.
NEC comenzará a exportar el producto en marzo, que se distribuirá por el sistema
de 'leasing' (arrendamiento financiero con opción a compra) a cambio de casi
tres millones de yenes la unidad (unos 26.270 dólares).
La empresa prevé vender 700 unidades en los próximos tres años.
Fuente: EFE, 30 de Octubre de 2007
-El cáncer podría tener el mismo origen metabólico que la diabetes o la obesidad
Hasta ahora se pensaba que las células tumorales consumían
más energía que las sanas debido a que se dividen mucho más rápidamente. Sin
embargo, una investigación española aporta nuevos datos que podrían darle la
vuelta a la tortilla. Según publica esta semana la revista 'Nature
Reviews Cancer', las alteraciones metabólicas no son una consecuencia del
cáncer, sino que podrían ser la causa del tumor.
Como explica a elmundo.es Javier Menéndez, coordinador de la
Unidad de Investigación Traslacional del
Instituto Catalán de
Oncología (ICO) en Girona y principal autor de esta investigación, este
estudio aporta nuevos datos a un debate que se inició hace casi un siglo y que
ha estado un poco olvidado por parte de la comunidad científica.
Las pruebas radiológicas, por ejemplo, emplean la glucosa para marcar las
células cancerosas porque se sabe que éstas la consumen en grandes cantidades y
permite 'verlas' con más facilidad. "Sin embargo, nadie ha pensado que, al
contrario, esa alteración del metabolismo de los ácidos grasos pueda ser una
causa y no una consecuencia".
En trabajos de laboratorio con células de mama sanas, el equipo de Menéndez ha
logrado reconstruir el proceso tumoral, remontarse a la fase en la que las
células empiezan a dividirse anómalamente. "En ese momento", explica el
investigador, "las células malignas viven en unas condiciones de estrés
ambiental, les falta oxígeno, el medio que les rodea es muy ácido...".
Convertir azúcar en ácidos grasos
En ese medio hostil, las células cancerosas son capaces de activar una enzima
que les permite seguir siendo metabólicamente independientes. Es decir, seguir
nutriéndose. Esa enzima es la sintasa de los ácidos grasos (SAG), una proteína
capaz de convertir los azúcares de la dieta en ácidos grasos, en grasa endógena.
En las personas sanas, la mayoría de los tejidos prefieren utilizar los ácidos
grasos que provienen directamente de la dieta (exógenos), y por tanto la
actividad de la enzima SAG es muy baja. "Sólo en la lactancia se activa SAG de
manera controlada porque el niño necesita ácidos grasos en esa etapa de su vida
y la glándula mamaria se encarga de producirlos", añade Menéndez.
En sus trabajos con cultivos celulares, Menéndez y los suyos observaron que con
sólo activar esa enzima en células sanas de la mama bastaban unas pocas horas
para que se 'despertasen' una serie de genes claves en el proceso tumoral, como
el conocido HER2. "Estamos muy lejos aún de disponer de fármacos muy
específicos, capaces de actuar contra SAG cuando éste se descontrole", admite el
investigador, "pero sí sabemos que en el caso del cáncer de mama hay algunos
subtipos de tumores que son muy lipogénicos". Es decir, muy dependientes de los
ácidos grasos y de esta vía metabólica.
Además, reconoce que uno de los puntos más interesantes de este trabajo es que
abre la puerta a utilizar fármacos que ya están en el mercado, contra la
obesidad o la diabetes tipo 2, para luchar contra el cáncer de mama en
combinación con otros antitumorales. "Lo mires por donde lo mires", apunta, "los
ácidos grasos tienen un papel clave en el origen del cáncer". Bien sean los de
tipo exógeno, como ya se ha demostrado al relacionar una dieta rica en grasas
con mayor riesgo tumoral; o bien los de tipo endógeno, como apunta este estudio.
De hecho, Javier Menéndez, que ya demostró el potencial anticancerígeno del
aceite de oliva sospecha que las grasas 'buenas' de este ingrediente, en
realidad funcionan engañando a SAG. Es decir, "el ácido oleico del aceite de
oliva apaga esta factoría y les dice a las células malignas que no utilicen los
ácidos grasos endógenos, sino esta grasa exógena, que es buena".
Fuente: elmundo.es, 29 de Octubre de 2007
-Podría existir más de un universo
Cosmólogos norteamericanos han detectado lo que podrían ser las huellas de otro universo que colisionó con el nuestro poco después del Big Bang. Estos investigadores señalan que la existencia de otros universos podría demostrarse gracias a la medición de la radiación de fondo de microondas, ya que, si en el inicio de nuestro universo, éste hubiera colisionado con otros universos, hipotéticamente tal choque quedaría registrado en la distribución de dicha radiación. Hasta ahora nadie ha intentado buscar dicha irregularidad, pero los autores de este estudio han encontrado al menos una llamativa asimetría anómala en el cosmos que, aunque no se atreven a afirmar que se trata de la huella de otro universo, consideran que esta hipótesis puede ser el comienzo de un largo proyecto de investigación
Si existen otros universos aparte del nuestro, éstos podrían ser detectables, predicen científicos en un nuevo estudio cuyos resultados han sido publicados en la revista Physical Review D. En este estudio, Matthew C. Johnson y sus colaboradores, Anthony Aguirre y Assaf Shomer, de la universidad de California en Santa Cruz, explican que han evaluado la posibilidad de que existan algunos efectos observables o “marcas” distinguibles que otros universos hubieran dejado en el nuestro, debido a colisiones entre ellos acaecidas en la época en que nuestro universo era aún muy reciente. La idea de que existen otros universos es controvertida en la cosmología actual. Si realmente existieran, lo más probable es que no sean perceptibles y sería muy difícil probar su existencia. Lo que aporta el nuevo estudio es la hipótesis de que, si realmente existieron otros universos que colisionaron con el nuestro, hipotéticamente podríamos hoy detectar su presencia, lo que en opinión de los autores de este estudio constituye un trascendental descubrimiento. Al mismo tiempo, estos investigadores reconocen que las consecuencias de esa eventual colisión entre universos continúan siendo una cuestión abierta, ya que, aunque se considera que si hubo colisión entre universos ambos habrían sido destruidos, lo que proponen estos científicos es una nueva aproximación. |
Johnson ha declarado al respecto a la revista
World Science que aún
queda por definir qué tipo de secuelas habría que buscar para confirmar el
choque entre los universos. Algunas teorías físicas señalan que realmente
existen otros universos, llamados
universos burbuja y que
cada uno de ellos tiene sus propias características e incluso valores diferentes
de las constantes físicas.
Demostrar la transmultiversalidad
Tras la idea de los universos burbuja subyace la hipótesis de que,
aparentemente, el espacio entero contiene energía, la llamada
energía del vacío, que es
una energía de fondo de origen puramente cuántico y responsable de efectos
físicos mensurables, como el
efecto Casimir (fuerza
física ejercida entre objetos separados debido a la resonancia de los campos
energéticos en el espacio entre los objetos).
Algunos cosmólogos han propuesto que, si se dan ciertas circunstancias, esta
energía puede crecer de manera explosiva dando lugar a un nuevo universo –como
ocurrió con el nuestro-. Esto podría estar sucediendo continuamente, generando
muchos universos que coexistirían con el que conocemos de la misma forma que
coexisten las burbujas en un baño espumoso.
Analizar la radiación del fondo cósmico
¿Pero cómo saberlo? Johnson y sus colegas creen que cualquier encuentro o
colisión entre los universos habría producido efectos que se propagarían en
ambas direcciones. Dichos efectos quizá dejaran huellas en la forma de material
expelido, que podrían afectar a la distribución de la materia en cada universo
afectado.
Si un tipo de colisión así hubiera acontecido recientemente, desde la
perspectiva temporal de nuestro universo, resultaría indetectable dado que el
universo es demasiado extenso como para que se vea notablemente afectado. Sin
embargo, si los hechos ocurrieron hace mucho tiempo, es decir, cuando el
universo era aún muy pequeño, la marca podría ser aún visible al haberse
expandido.
Cuando el universo medía aproximadamente menos de una milésima parte de lo que
mide actualmente, se cree que sufrió una transformación. Según se fue
expandiendo, se enfrió lo suficiente como para que se formaran los átomos.
Entonces se volvió transparente.
Antes de esto, el universo había consistido en una espesa niebla con pequeñas
variaciones de densidad en diversos puntos. Las partes más densas siguieron
aumentando y al unirse dieron lugar a las galaxias.
Investigaciones pendientes
Pero esta niebla es aún visible porque muchas de las ondas lumínicas que se
produjeron en ese momento en ella nos llegan ahora y son observables en la forma
de un débil resplandor que llena universo por completo.
Estas ondas han sido denominadas
radiación de fondo de microondas,
que es una forma de radiación electromagnética considerada por muchos cosmólogos
como la prueba principal del modelo cosmológico del Big Bang que diera lugar al
universo. Esta radiación es asimismo considerada el borde de nuestro universo
conocido.
Los astrónomos plantean que una colisión entre universos podría haber generado
un patrón que habría reordenado las fluctuaciones de densidad en estas
circunstancias y que, si pudiera registrarse dicha reordenación, aparecería como
un área de irregularidad simétrica.
Hasta ahora nadie ha intentado buscar dicha irregularidad, pero los autores de
este estudio han encontrado al menos una llamativa asimetría anómala en el
cosmos que , aunque no se atreven a afirmar que se trata de la huella de otro
universo, consideran que esta hipótesis puede ser el comienzo de un largo
proyecto de investigación.
El caso es que las variaciones de temperatura en el fondo cósmico de microondas
se cree que reflejan las variaciones de densidad en el universo primitivo, pero
aún quedarían por hacer numerosas investigaciones para poder llegar a una
respuestas.
Fuente: Tendencias21, 28 de
Octubre de 2007
-Descubierto el animal más viejo del mundo
Una almeja islandesa podría ser el animal más longevo del mundo
Según un equipo de científicos de la
Universidad de Bangor en el País de Gales, el molusco (una almeja de
Islandia) tiene entre 405 y 410 años y podría ofrecer algunas claves para
entender la longevidad. Los investigadores calcularon la edad de la almeja
por los anillos que aparecen en su concha.
Según el Libro de Récords de Guinness, el animal más viejo que se había encontrado hasta la fecha era otra almeja de la misma variedad que encontraron en 1982, cuando tenía 220 años. Extraoficialmente, hace algún tiempo se descubrió que otra almeja que se conserva en un museo de Islandia tenía 374 años. Pero la almeja más reciente a la vez es la más antigua. La llaman Ming por la dinastía china que estaba en el poder cuando nació, y estaba en su infancia cuando Isabel I llegó al trono y cuando Shakespeare y Cervantes escribían sus obras. |
Almeja Ming |
El profesor Chris Richardson, de la escuela de Ciencias Oceanográficas de la Universidad de Bangor, dijo a la BBC que los incrementos de crecimiento de la almeja "ofrecen un registro de cómo ha variado la tasa de crecimiento del animal de un año a otro".
Los cambios, señaló el profesor dependen del clima, la temperatura del agua del mar y la alimentación del molusco.
Viendo a los animales "se puede reconstruir el ambiente en el que crecieron, porque son como grabadoras diminutas en el lecho del océano que integran señales sobre la temperatura y la alimentación en un período específico".
Según el profesor Richardson, el descubrimiento de Ming podría arrojar luz sobre las razones por las que hay animales que viven vidas extraordinariamente longevas.
"Lo que intriga al grupo de Bangor es cómo han logrado estos animales evitar la senectud", indicó el académico.
"Pensamos que una de las razones es que los animales tienen una tasa diferente de renovación celular que asociaríamos con otros que viven vidas mucho más cortas", señaló.
La universidad recibió fondos de la organización británica caritativa Help The Aged (Ayuda a los Ancianos) para su investigación.
Fuente: BBC Mundo, 28 de Octubre de 2007
-Nuevo récord de impulso en los motores iónicos
Un motor iónico ha batido el récord de empuje total en una prueba realizada por la NASA. El éxito en los test de prueba del motor podría ser utilizado en futuras misiones de la NASA. Los motores iónicos funcionan acelerando átomos cargados eléctricamente, es decir, iones, a través de un campo eléctrico, lo que empuja la nave espacial en la dirección opuesta
El impulso que proporcionan, en un instante dado es muy pequeño, aproximadamente igual a la fuerza necesaria para mantener una hoja de papel en contra de la gravedad de la Tierra. Pero pueden funcionar continuamente en el espacio durante años utilizando muy poco combustible. Así, en última instancia, proporcionar un impulso mucho mayor que un cohete químico.
Esquema de un motor iónico |
Esta es la trayectoria de la sonda Dawn en su viaje hacia el cinturón de asteroides |
Motor iónico en funcionamiento en los laboratrios de la NASA |
La misión Dawn, que se inició el jueves, está equipada con
la primera generación de los motores iónicos de la NASA, llamado NSTAR. Dawn
posee tres motores NSTAR que le permitirá llegar al cinturón de asteroides y
colocarse en órbita en torno a dos diferentes asteroides.
La agencia también ha realizado test
sobre un motor iónico más avanzado, el llamado “NASA Evolutionary Xenon Thruster”
(NEXT), que genera 2,5 veces más impulso que el motor NSTAR.
Ahora, NEXT ha roto un récord, proporcionando un mayor “cantidad total de
impulso” que cualquier otro motor iónico anterior. El “total de impulso” es una
medida de la aceleración que un motor le proporcionaría a una nave espacial. Es
el resultado de multiplicar el empuje del motor por la cantidad de tiempo que
puede estar encendido.
Record de combustible
El motor NEXT ya ha estado funcionando de continuo durante más de 12.000 horas
(500 días), proporcionando más de 10 millones de Newton segundos de impulso, más
de lo que cualquier otro motor iónico ha logrado.
Durante este tiempo, se ha suministrado más de 245 kilogramos de combustible en
forma de gas xenón, una cifra récord para un motor de iones. La cantidad de
combustible que se puede suministrar antes de que se desgaste el motor es
fundamental, ya que los motores iónicos en las naves espaciales necesitan
funcionar de continuo durante años.
Las estimaciones anteriores habían
sugerido que NEXT podría consumir con seguridad 450 kilogramos de combustible en
su vida. NSTAR está pensado sólo para 150 kilogramos de combustible, aunque un
motor NSTAR consumió 235 kilogramos de combustible en una prueba anterior.
"Esta prueba valida la tecnología NEXT para una amplia gama de misiones de
exploración del sistema solar de la NASA, así como potencial de empresas
comerciales tierra-espacio", dice Mike Patterson investigador principal de NEXT,
del Glenn Research Center de la NASA en Cleveland, Ohio, EE.UU.
NEXT podría realizar una misión a Titán, la luna de Saturno. Se requerirían
alrededor de 20 kilovatios de potencia en caso de que la misión incluyera tanto
un vehículo orbital como un aterrizador (lander). "Podemos hacer esto con una
serie de tres impulsores, además de uno de repuesto," dijo Scott Glenn Benson
director del proyecto NEXT a New Scientist.
La Guerra de las Galaxias
Aunque ambos NSTAR y NEXT usan gas xenón como propulsor, NEXT acelera iones de
xenón de manera más eficiente, proporcionando hasta 236 milliNewtons de empuje
en comparación con NSTAR que alcanza como máximo 92 mN. Los motores de iones
usados en la nave espacial japonesa Hayabusa hacia el asteroide Itokawa
proporcionaban 22 mN, mientras que los que utilizaron en la Agencia Espacial
Europea para el SMART - 1, la sonda lunar, consiguieron los 70 mN.
NEXT también puede variar su empuje en una escala de 1 a 11, en comparación con
NSTAR cuya escala es del 1 al 5. Esto significa que el regulador puede bajar a
niveles inferiores, lo que le permite operar a una mayor distancia que NSTAR, ya
que, viajar a más distancia del Sol supone recibir menos luz solar.
Aunque los motores de iones acaban de empezar a ser de uso regular en las sondas
científicas, han sido ya muy descritos el la ciencia ficción durante muchos
años. Marc Rayman ingeniero de la nave espacial Dawn del Laboratoriuo de
Propulsión a Chorro de la NASA en Pasadena, California, EE.UU., recordó a los
periodistas, en una reciente conferencia de prensa, que los motores iónicos son
los utilizados en las películas de “la Guerra de las Galaxias”.
"Si recordamos los cazas TIE que Darth Vader y el Imperio del Mal utilizan para
luchar contra la alianza rebelde, TIE es el acrónimo de “dos motores de iones” (Twin
Ion Engines),” dijo. Y añadió "Bueno, Dawn utiliza mejores motores que los cazas
TIE de Star Wars porque utilizan tres motores de iones."
Fuente: sondasespaciales.com, 26 de Octubre de 2007
-Dos astronautas del Discovery realizan su primer paseo espacial
Los astronautas estadounidenses Scott Parazynski y Douglas Wheelok, tripulantes del Discovery, han realizado el primer paseo espacial de la actual misión del transbordador, acoplado desde ayer a la Estación Espacial Internacional (ISS).
Los dos astronautas permanecieron fuera de la plataforma orbital cerca de seis horas y media, informó el representante de la NASA en el Centro de Control de Vuelos Espaciales de Rusia, Serguéi Puzanov, citado por la agencia Interfax.
Parazynski y Wheelok efectuaron los primeros trabajos para instalar en la ISS el módulo presurizado 'Harmony', de fabricación italiana, que llegó al laboratorio espacial en la bodega del transbordador, y un nueva antena.
El 'Harmony', que pesa casi 16 toneladas se ha instalado de manera provisional en un muelle del módulo estadounidense Unity.
Una vez que el transbordador se separe de la estación orbital, 'Harmony' será llevado hasta su posición permanente en el extremo del laboratorio estadounidense Destiny.
Allí, el Harmony servirá de eje para la instalación futura del módulo japonés Kibo y el módulo Columbus de la Agencia Espacial Europea.
La misión del 'Discovery', al mando de Pamela Melroy, ha sido planificada con una duración de 14 días e incluye cinco jornadas de labores en el espacio exterior.
El laboratorio europeo 'Columbus', un cilindro de 4,5 metros de diámetro por ocho de largo, tiene previsto viajar a bordo del transbordador 'Atlantis' en diciembre. Con un coste de 880 millones de euros, será la aportación europea más importante a la ISS, y podrá albergar simultáneamente a tres astronautas.
La Agencia Espacial Europea (ESA) acaba de anunciar que sus técnicos ya han cerrado la compuerta del 'Columbus', lo que significa que todo está listo en su interior y ya sólo queda esperar a que llegue su turno de subir a la órbita terrestre.
El módulo 'Harmony', o Nodo 2, será el pasillo que conecte a la parte estadounidense con las zonas europea y japonesa. Dado que éstos serán los dos únicos lugares de la ISS diseñados específicamente para la ciencia, y que la cooperación internacional es la principal razón de ser de la Estación, su importancia resulta evidente. Tal y como asegura su comandante, «es una misión guay [cool]».
Fuente: elmundo.es, 26 de Octubre de 2007
-Descubren rastros de una antigua luna de Saturno en sus anillos
Los anillos de Saturno están formados por infinidad de fragmentos de hielo y roca, algunos más pequeños que un grano de arena y otros del tamaño de una casa, pero los científicos aún no están de acuerdo sobre su procedencia. Unos dicen que se formaron al mismo tiempo, y procedentes del mismo material, que dio origen al planeta. Otros aseguran que proceden de grandes lunas que, tras ser destruidas, dejaron orbitando sus restos alrededor de este gigante gaseoso. Los nuevos resultados de la sonda ‘Cassini’, de la NASA, apoyan esta última versión. Al menos un antiguo satélite natural de Saturno, según publica en su última edición la revista ‘Nature’, ha contribuido a formar el más exterior de los siete anillos que adornan el planeta. En realidad, la nave espacial no ha obtenido imágenes directas de estos fragmentos, sino de unas irregularidades ondulatorias –en otras palabras, unos agujeros en la estructura del anillo- que tienen forma de hélice y que serían, según los expertos, la estela dejada por los pedazos de luna rota a su paso por la órbita de Saturno. Estas rocas, a juzgar por la huella que dejan, tendrían un diámetro de unos 100 metros, tal y como predice la teoría de que proceden de una colisión y no comparten origen con Saturno. «Probablemente hubo una gran luna, de al menos 32 kilómetros de diámetro o mayor, orbitando en aquel lugar», explica el astrónomo Miodrag Sremcevic, de la Universidad de Colorado en Boulder (EEUU). «Esta luna tuvo el desafortunado destino de ser golpeada por un gran meteorito o cometa que la partió en pedazos. Y lo que vemos ahora son los cascotes de esa luna», señaló a la agencia Reuters este investigador, uno de los autores del estudio. La luna rota habría sido un cuerpo gaseoso, como el propio Saturno, de un tamaño y características similares a los de la actual Pan, el más interior de los más de 30 satélites que posee este planeta. La colisión que la destruyó se produjo, según los científicos, hace alrededor de 100 millones de años. Es decir, mucho después de que se formara Saturno, que tiene unos 5.000 millones de años de edad |
|
Fuente: elmundo.es, 26 de Octubre
-Un campus faraónico sobre el Mar Rojo
El objetivo de la
King Abdullah University of
Science and Technology (Kaust) es convertirse en uno de los mejores centros
para realizar descubrimientos científicos y trabajar en el desarrollo humano en
Arabia Saudita.
Fuentes de la Universidad aseguran que la intención de este proyecto es
centrarse en las investigaciones que permitan aplicar la ciencia y la tecnología
en temas que afectan a las necesidades humanas y al desarrollo social y
económico. El modelo académico de la Kaust se ha estructurado en cuatro
institutos de investigación, cada uno de ellos con centros dedicados a un
conjunto específico de asuntos. Las cuatro áreas principales serán: recursos,
energía y medio ambiente; biociencias y bioingenierías; ingeniería y ciencias de
materiales; y matemáticas aplicadas y ciencias informáticas.
La Kaust va a ser un centro con ambiente verdaderamente internacional que
contratará a los mejores catedráticos y alumnos para investigaciones. No
ofrecerá puestos permanentes, y los contratos serán renovables o con una
duración de entre dos y cinco años. El alumnado será diverso e internacional,
formado por estudiantes con expediente académico brillante', comentan fuentes de
la universidad.
El claustro de profesores comenzará a organizarse en 2008, pero la intención de
los responsables del proyecto es contar con personalidades del mundo de la
investigación de prestigio internacional. La inversión será multimillonaria y la
universidad será dirigida y financiada, afirman fuentes de la entidad, 'por un
consejo de administración independiente'.
En lo que respecta a los aspectos religiosos o a la cuestión de sexo, en un país
cuyo sistema político es una monarquía autoritaria que se rige por la ley
islámica, fuentes de la universidad sostienen que 'no será obligatorio practicar
la religión islámica' y que el acceso a las mujeres 'estará permitido'. 'Los
estudiantes que entren a formar parte de la Kaust se encontrarán en centro
internacional donde lo único importante es su potencial y su expediente
académico independientemente de su sexo y religión', apuntan las mismas fuentes.
El proyecto ha sido concebido por el Rey Abdullah, guardián de las dos santas
mezquitas, quien eligió al Ministro de Petróleo Ali Ibrahim Al-Naimi para llevar
la dirección del desarrollo de la universidad. 'La Kaust es la idea que ha
perseguido durante décadas su Majestad el Rey Abdullah: crear una universidad de
primera clase en Arabia Saudí, dedicada a reunir los mejores talentos para
desvelar los grandes misterios científicos y tecnológicos para el progreso de
toda la humanidad', afirmó el ministro.
El Presidente en funciones de la Kaust, Nadhmi Al-Nasr, destacó también que,
mientras que la futura universidad se encuentra físicamente en Arabia Saudí y
ofrece sus servicios a los ciudadanos del Reino, también nace con la intención
de convertirse en una institución internacional.
Alianzas internacionales de calidad
Uno de los puntos fuertes de esta nueva universidad consistirá en las
importantes alianzas con centros de prestigio internacionales. En los 12 meses
que este proyecto ha estado en proceso de desarrollo, ya se han establecido
alianzas con algunas instituciones investigadoras internacionales, incluyendo
acuerdos formales con la
Woods
Hole Oceanographic Institution en los EE UU, el
Indian Institute of Technology
de Bombay, India; el
Institut
Français du Pétrole en Francia, la
National University de
Singapur, y la
American
University en El Cairo. Estas relaciones se establecieron para potenciar la
innovación y para reunir los mayores talentos del mundo en ciencia y tecnología.
La universidad establecerá colaboraciones con dichas instituciones al igual que
con empresas privadas del sector de la investigación científica y tecnológica.
Fuente: Cinco Días, 25 de Octubre de 2007
-Los neandertales eran pelirrojos
Los neandertales eran pelirrojos y de piel clara, como algunos humanos modernos que hoy habitan el hemisferio norte del planeta, según una investigación.
Este es el primer rasgo físico que se conoce de estos humanos, desaparecidos hace unos 25.000 años, que no se puede adivinar por los fósiles de sus huesos. Y se debe a una mutación genética en el gen MC1R, descubierta por el investigador español Carles Lalueza-Fox, de la Universidad de Barcelona.
Lalueza-Fox, que también participó en el hallazgo del gen FOXP2, que compartían con nosotros, explica que esta variación del MC1R no la tiene el 'Homo sapiens' moderno, que ha llegado al mismo resultado por otro camino genético, pero fruto de la misma evolución tras su llegada al hemisferio norte.
Los neandertales fueron pelirrojos. La evolución hizo que
nosotros también desarrollásemos ese color de pelo
El hallazgo, publicado hoy en la revista 'Science' fue posible por la recuperación de este receptor 1 de la melanocortina de un fósil de hace 43.000 años procedente de la cueva de El Sidrón (Asturias) y otro de hace 50.000 años procedente de la cueva de Monte Lessini (Italia). "Hay dos pigmentos y el gen MC1R regula ambos interaccionando con una proteína. Si funciona de forma correcta, se sintetiza el castaño y si hay mutación, se sintetiza el rojizo", explica el investigador catalán.
El siguiente paso fue comprobar que efectos podía tener esta mutación en el pelo y la piel de los neandertales, puesto que no existe igual en los humanos modernos. Para ello, en el Instituto Max Planck de Alemania, cultivaron células de la piel y las injertaron el gen mutado. "Enseguida se comprobó que comenzaba a sintetizarse la feomelanina, que es la proteína de los pelirrojos", comenta Lalueza-Fox.
Este fenómeno, explica, "cuadra totalmente con la lógica evolutiva". "Nuestros antepasados venían de África y conservaban el gen que les protegía de la radiación solar. Al salir hacia Europa, donde el sol no es tan intenso, ese control genético se relaja y, por selección natural, triunfó esta mutación", añade.
Curiosamente, fue algo que ocurrió, por primera vez, con los neandertales, hace medio millón de años. Posteriormente, los 'Homo sapiens' modernos, hace unos 40.000 años, volvieron a obtener el mismo aclaramiento de la piel y del pelo con otra mutación que daba el mismo resultado.
El investigador cree que localizó el MC1R por suerte. «Lo iba buscando, pero realmente no sabía lo que me iba a encontrar. No hay que olvidar que hay un millón de mutaciones genéticas entre nosotros y los neandertales, de los 3.000 millones de nucleótidos que tenemos. Este es la primera que se encuentra», explica.
A partir de ahora, pues, las imágenes de aquellos humanos del Paleolítico deberán representarlos con ojos claros y pecas, parecidos a los nórdicos europeos. «Desde luego, no se podrían morenos al tomar el Sol, como ocurre hoy con los pelirrojos», concluye el paleobiólogo.
Fuente: elmundo.es, 25 de Octubre de 2007
-El Airbus A380 hace su primer vuelo comercial
El avión más grande del mundo, el Airbus A380, efectuó este jueves su primer vuelo comercial, un vuelo de Singapore Airlines entre esta ciudad y Sydney que será diario y con una duración estimada de siete horas. Cientos de trabajadores y usuarios del aeropuerto asistieron al momento del despegue, acompañado, según las crónicas, con una enorme cantidad de fotografías y vídeos.
Entre el pasaje de este viaje inaugural, periodistas y,
como Ernest Graaff, entusiastas de la aviación, capaces de pagar 28.000 euros
por dos billetes de ida y vuelta en clase 'bussiness': "Soy un apasionado de los
aviones y estoy emocionado por ser parte de la historia". Aunque Graaf ha
escogido la opción más lujosa, el precio de los asientos para este primer vuelo
del A380 oscilaban entre 390 y los 70.000 euros, la mayor parte destinada a
proyectos benéficos.
Una cantidad entregada por los 471 pasajeros -afortunados- capaces de embarcar
en este gigante de los cielos en el que incluso hay cabida para doce suites de
lujo acondicionadas con camas, televisores con pantalla plana, una mesa de
despacho y un sillón reclinable, por no mencionar el excelso catering
disponible. En este primer vuelo hay 31 asistentes de vuelo, que servirán el
menú preparado por reputados cocineros y champán para celebrar el evento.
En el segundo piso del aparato hay 60 sillones para 'bussiness' y parte de los
399 de clase turista en ambas alturas. No alcanzar los 500 es un gesto de
Singapur Airlines para la comodidad de sus usuarios en estos viajes de larga
distancia, ya que el A380 podría alcanzar los 800 asientos.
Hasta ahora, sólo una docena de ciudades -entre las que se cuentan Singapur,
Londres, París, Nueva York, Los Ángeles y Tokio- puede permitirse acoger al
gigante de Airbus, que mide 80 metros y tiene una altura 24,1 metros. El
Aeropuerto Changi de Singapur emprendió hace tres años los trabajos de
adaptación, que supusieron tener que ampliar las pistas de aterrizaje, las
puertas de entrada a los hangares, e incluso hasta los vehículos para
transportar el equipaje.
Un vuelo que llega con retraso
El A-380 fue entregado a Singapure Airlines el pasado 15 de octubre en París y
voló hacia la ciudad-Estado dos días más tarde, donde fue recibido en la pista
de aterrizaje por el primer ministro singapurés, Lee Hsien Loong, y los
presidentes de SIA, Stephen Lee, y de Airbus, John Leahy.
El consorcio europeo Airbus tuvo problemas con la compatibilidad de algunos
programas informáticos y con el sistema de cableado en el fuselaje, lo cual
motivó que la aerolínea singapurés recibiera el avión con 18 meses de retraso.
Estos problemas en la fabricación, las pérdidas millonarias que han supuesto y
el cambio de cinco presidentes de Airbus en los últimos meses han perjudicado a
la imagen de la empresa, cuyo A-380 pronto encontrará un serio competidor en el
Dreamliner 787 de
Boeing.
Airbus ha recibido hasta la fecha 189 pedidos del A380, procedentes de 16
clientes, y tras Singapur Airlines, que recibirá sus 19 aeronaves entre 2008 y
2010, se encuentran las aerolíneas
Emirates Airlines,
Qantas o la española
Marsans. España participa
con un 10 por ciento en el desarrollo y construcción del A380, a través de la
contribución de una decena de empresas.
La aportación industrial española se fija en la fabricación de las partes más
importantes del avión, como el cono, las alas, el estabilizador de la cola y
varios elementos de la panza, que se fabrican en las tres plantas que la
división comercial de
EADS
tiene en España: Getafe (Madrid), Illescas (Toledo) y Puerto Real (Cádiz).
Fuente: elmundo.es, 25 de Octubre de 2007
-China lanza con éxito el satélite que abre su carrera para poner pie en la Luna en 2020
Con el lanzamiento de su primera sonda hacia el satélite lunar, China da un paso de gigante en la nueva carrera espacial por poner a un hombre en la Luna antes de 2020.
Chang I despegando
En un lanzamiento celebrado como un nuevo hito del programa espacial chino, el Chang'e I emprendió su periplo espacial desde la base espacial de Xichang, en el suroccidente del país al mediodía del 24 de octubre, hora española.
La parte científica de la misión tiene como objetivo obtener fotografías tridimensionales de la superficie lunar para poder analizar su composición y medir su grosor. «Aunque Estados Unidos ha lanzado satélites a la luna en varias ocasiones, nunca ha obtenido una fotografía a gran escala», señalaba a la prensa local Zhang Houying, experto de la Academia china de Ciencias.
La nave Chang'e I pretende repetir la hazaña de la diosa china del mismo nombre que, según la leyenda, bebió un elixir mágico que la elevó hasta la Luna, donde tiene un cráter bautizado en su honor. Repitiendo el recorrido de 380.000 kilómetros de la mujer de la Luna, la sonda empleará 173 horas para alcanzar la órbita deseada el 5 de noviembre. Si todo va bien y la aproximación es exitosa, la sonda debería transmitir la primera fotografía lunar a mediados de mes. Una hora después de su recepción en la Tierra y «sin retoques», la instantánea será distribuida a todo el mundo, según ha prometido el responsable científico del proyecto, Ouyang Ziyuan.
Para ello, el Chang'e I ha sido equipado con cámaras de alta definición y espectómetros de rayos X. Estos últimos se encargarán de realizar la clasificación espectral de 14 minerales, una pequeña porción del centenar que se han identificado en nuestro satélite. «Los recursos en la Luna están a disposición de cualquiera que pueda llegar, por eso la competición es feroz y muchos países quieren colocar una base allí», advertía Zhang.
En efecto, varias naciones, incluida China, pulen los planes para montar una presencia permanente en la Luna, pero ninguna de ellas antes de 2020. Hasta esa fecha, los esfuerzos se centran en mejorar la tecnología y los conocimientos sobre la Luna, con calendarios escalonados para alunizar y una competida carrera por ver qué pasaporte tendrá el próximo ser humano que pise la Luna. Por lo pronto, China lleva la delantera. El proyecto lunar del que forma parte el Chang'e I, iniciado en 2004 con un presupuesto que no se ha hecho público, es prioridad del Estado. Continuará con el alunizaje de un vehículo no tripulado, entre 2008 y 2010, y con los primeros taikonautas chinos caminando sobre la superficie lunar antes de 2020.
En la NASA, con un objetivo temporal idéntico, ya han reconocido que China podría ganar esta nueva maratón espacial. Y es que, desde que el líder comunista Mao Zedong se lamentó de que China no era capaz siquiera de lanzar una patata al cosmos, el programa espacial del país no ha parado de crecer. En 2003, China se convirtió en el tercer país -por detrás de la desaparecida URSS y de EEUU- que ha puesto en órbita a uno de sus ciudadanos.
Dado que el 95% de la tecnología espacial puede tener aplicaciones militares, hay países que ven con recelo el nuevo vigor de la industria espacial china. A principos de este año, China generó críticas en la comunidad internacional cuando destruyó una vieja sonda meteorológica con un misil antisatélites, en un tipo de prueba que hasta ahora sólo habían llevado a cabo, también, EEUU y la Unión Soviética.
Que el Chang'e I vaya a llevar al espacio el himno nacional y varias melodías revolucionarias es un signo más de que alimentar el orgullo nacional es un componente esencial, junto al científico, del programa espacial chino. La televisión transmitirá su lanzamiento, mientras 5.000 privilegiados tendrán la oportunidad de verlo en directo, por vez primera, en la base espacial de Xichang.
Fuente: elmundo.es, 24 de Octubre de 2007
-La Estación Espacial Internacional tiene otra pieza
Como estaba previsto, a las 17.38 hora española despegó ayer en Cabo Cañaveral el transbordador espacial Discovery. Rasgó envuelto en un trueno la capa de nubes que encapotaba el cielo de Florida y, un minuto después, ascendía a 6.000 kilómetros por hora rumbo a la órbita en que circunda la Tierra la Estación Espacial Internacional (ISS).
Momento del despegue
Dos minutos después del despegue, los dos cohetes de
propulsión que le proporcionan el 80 por ciento del impulso necesario para
vencer la gravedad terrestre, se separaron del transbordador y cayeron sobre el
Atlántico, de donde serán recuperados para su reutilización... El Discovery debe
acoplarse a la ISS el jueves, a las 13.35 horas española.
Sus siete tripulantes, dirigidos por una mujer, la comandante Pam Melroy, tienen
una misión crucial para el desarrollo de la Estación Espacial: acoplar el módulo
Harmony, catalogado como Nodo 2, indispensable para la futura instalación de los
módulos-laboratorio Columbus, la joya de la
ESA, la
Agencia Espacial Europea; y Kibo, que constituye la aportación estrella de la
agencia japonesa al proyecto multinacional. Serán los dos únicos módulos de la
ISS dedicados en exclusiva a la realización de experimentos científicos.
La Estación Espacial Internacional comenzó su andadura en 1998, cuando un cohete
ruso Protón colocó en órbita el módulo Zarya, diseñado para dotar a la estación
de la energía inicial necesaria para poner en marcha el proyecto. El final de su
construcción por etapas está previsto para 2010, cuando sea acoplado el Módulo
Portuario de Carga. Pero anticipar esto quizá sea quemar etapas, por cuanto que
es posible que nuevos proyectos, nuevas piezas del «lego», se añadan a su
construcción.
El módulo Harmony presenta el aspecto de un grueso tubo de aluminio presurizado,
es de fabricación italiana y pesa 14,3 toneladas. Mide 4,5 metros de diámetro
por casi 7 de longitud y su coste ha superado los 880 millones de euros. Se
trata del primer módulo habitable que se agrega a la ISS desde la instalación
del compartimiento acoplado ruso Pirs, en el año 2001; y es la aportación
europea más importante a la estación hasta ahora. Su instalación será realizada
durante la misión de diez días de los siete tripulantes del transbordador,
ayudados por los tres tripulantes permanentes de la estación.
La segunda misión encargada a los diez astronautas será la reorientación del
brazo robotizado -denominado P6 en la jerga de los expertos- de 16 toneladas y
20 metros de longitud que se acopló a la ISS en el año 2000. Una vez
posicionado, el P6 desplegará la tercera placa solar de las cuatro previstas, lo
que incrementará la producción eléctrica autónoma y renovable de la estación.
Cinco paseos espaciales
Para abordar estas complejas tareas en el exterior de la ISS, los astronautas
efectuarán cinco paseos espaciales -salidas orbitales- con una duración prevista
de 30 horas y media. Lo trabajos se llevarán a cabo en equipos de dos
astronautas durante los diez días que la nave estará acoplada a la estación. La
misión durará dos semanas si no surgen circunstancias imprevistas, como
ocurriera con la anterior misión.
El lanzamiento del Discovery se ha producido en esta ocasión no sin cierta
polémica entre los ingenieros y técnicos de la
NASA, ya que algunos de ellos
habían mostrado su preocupación durante las últimas semanas por el
descubrimiento de micro-fisuras de origen desconocido en tres de las 44 losetas
térmicas que recubren el borde de ataque de las alas de la nave, por lo que
solicitaron un aplazamiento de al menos dos meses en la misión.
El centro independiente de ingeniería y seguridad de la NASA había recomendado
en un informe reemplazar estos paneles, lo que habría alterado considerablemente
el calendario, ya de por sí muy ajustado, para culminar la construcción de la
ISS, prevista para 2010, que es el plazo programado para retirar del servicio
los tres transbordadores Discovery actualmente en activo.
Un italiano en la ISS
Paolo Nespoli despegó a primeras horas
de esta tarde rumbo a la Estación Espacial Internacional a bordo del
transbordador espacial Discovery de la NASA. En la zona de carga del
transbordador se encuentra el módulo Node 2, el primero construido por Europa
para su acoplamiento permanente a la estación.
El transbordador espacial Discovery despegó hoy desde el Centro Espacial Kennedy
que la NASA posee en Cabo Cañaveral, Florida, a las 11.38 hora local (17.38 CEST)
y se situó en la órbita terrestre tras casi 8 minutos de vuelo propulsado. Para
su misión STS-120, la tercera que el transbordador lleva a cabo este año, el
Discovery lleva a bordo siete tripulantes, entre ellos el astronauta de la ESA
Paolo Nespoli, procedente de Italia.
El primer día en el espacio se
dedicará a una serie de comprobaciones en vuelo para constatar que el Discovery
no haya sufrido daños en el lanzamiento. A continuación, el orbitador maniobrará
para ir al encuentro de la Estación Espacial Internacional (ISS). Está previsto
que el acoplamiento se lleve a cabo el 25 de octubre a las 14.33 CEST.
El objetivo de la misión STS-120, que durará 14 días , es el suministro y la instalación del Node 2, construido por Italia. El Node 2 es la primera elemento que se añade a la ISS en los últimos 6 años que agranda el espacio vital y de trabajo de la Estación La segunda tarea que llevará a cabo será la reubicación de la sección de soporte P6 de la ISS y el despliegue de sus paneles solares y del radiador de dispersión térmica.
Con la misión también se realizará el relevo de uno de los miembros de la tripulación de la Expedición ISS. El astronauta de la NASA Clayton Anderson, asignado a la estación desde su llegada en junio con la tripulación de la misión STS-117, será sustituido por el astronauta de la NASA Daniel Tani.
"Resulta siempre muy gratificante ver cómo se pone en marcha una misión
después de observar el duro trabajo que requiere su preparación", comenta Daniel
Sacotte, Director de Vuelos Tripulados, Microgravedad y Programas de Exploración
de la ESA. "Esta es una misión de gran importancia para Europa, ya que
suministra a la ISS el elemento Node 2, de construcción europea y que facilitará
el acoplamiento del laboratorio Columbus de la ESA en la siguiente misión que se
envíe a la Estación".
No es el primer italiano en viajar al espacio
Aunque este es el primer vuelo espacial de Paolo Nespoli, no se trata del
primer italiano que visita la ISS desde el inicio de su construcción en 1998. Le
han precedido sus compañeros astronautas de la ESA Umberto Guidoni (2001) y
Roberto Vittori (2002 y 2005).
Nespoli, que ha recibido el nombre de Esperia, que los griegos de la antigüedad dieron a la península italiana, es fruto de las seis oportunidades de vuelo concedidas a la Agencia Espacial Italiana (ASI) por el suministro de tres contenedores de carga presurizados (Multi-Purpose Logistics Modules, o MPLM) a la NASA en función de un acuerdo bilateral. La estrecha colaboración entre la ESA y la ASI condujo a la designación de Nespoli, miembro del Cuerpo de Astronautas Europeos, para ocupar la plaza de vuelo de la ASI.
Durante la compleja misión de montaje, Nespoli tendrá un papel destacado como astronauta de actividad intravehicular (IVA) en tres de los cinco paseos espaciales, que incluyen la instalación de Node 2. Como astronauta IVA, Nespoli coordinará las actividades desde el interior de la ISS durante los paseos espaciales, además de participar en preparativos tales como la configuración y prueba de los trajes y herramientas espaciales. Ayudará a los astronautas a vestir el traje espacial para salir al exterior, así como en las tareas de despresurización y represurización de las esclusas de aire.
Nespoli también tendrá otras responsabilidades durante la misión Esperia,
como llevar a cabo un programa conjunto de la ESA/ASI de experimentos sobre
fisiología y biología humanas, junto con varias actividades educativas.
El módulo Node 2 facilitará la labor del Colombus
Node 2, o ‘Harmony’, que es el nombre que se le ha dado, es el segundo de tres elementos de interconexión de la Estación Espacial. Los nodos conectan los distintos módulos presurizados para permitir el paso de astronautas y equipos, además de proporcionarles importantes recursos, como energía eléctrica y control térmico y medioambiental.
El Harmony se acoplará temporalmente al muelle de Node 1 durante el primer paseo espacial, que se llevará a cabo el 26 de octubre. Una vez que el transbordador se separe de la Estación al finalizar la misión STS-120, el Node 2 se instalará en su ubicación definitiva, en el muelle delantero del laboratorio Destiny de EE.UU., para lo que se utilizará el brazo robótico de la Estación.
El módulo Node 2 fue desarrollado por la NASA mediante contrato con la industria europea, de la que Thales Alenia Space es el principal proveedor. La ESA suministra este elemento a la NASA, junto con el Node 3, como retribución por el lanzamiento del Columbus con el sistema STS.
"Italia se enorgullece del papel que desempeña en esta misión y, por encima de todo, de su participación en el programa de la ISS. Nos proporciona una gran satisfacción cooperar con la ESA en la gestión de esta misión", declaró Simonetta di Pippo, Directora de Observación del Universo de la ASI y coordinadora de la misión Esperia por parte de la ASI. "Deseamos a Paolo y a la tripulación de la STS-120 el mayor de los éxitos en su misión. Después de la instalación del MPLM, otro módulo construido por la industria italiana será una pieza clave del conjunto de la ISS, lo cual confirma la capacidad europea e italiana para sustentar los próximos pasos de la exploración espacial".
Un riesgo "asumible"
Finalmente, la Agencia Espacial estadounidense consideró que se trataba de «un
riesgo menor y perfectamente asumible», por lo que la semana pasada dio luz
verde al despegue del transbordador.
Además, poco antes del lanzamiento, se había hallado un trozo de hielo en el
tanque externo de la nave. No obstante, fue luego reabsorbido por el calor
ambiental y se autorizó el despegue. El hielo es un serio motivo de preocupación
porque si se desprende durante el vuelo y golpea al transbordador, puede generar
daños en el recubrimiento térmico.
Nadie olvida en la NASA que el impacto de un pedazo de espuma aislante -más
ligera que el hielo-, desprendido del tanque externo, causó la desintegración
del Columbia, y la muerte de sus siete tripulantes, cuando la nave reingresaba a
la atmósfera en 2003 después de visitar la ISS.
La Estación Espacial Internacional es un proyecto presupuestado en unos 100.000
millones de dólares, que lleva nueve años en marcha y en el que participan un
total de 16 países. La comunidad científica dedicada a la investigación espacial
considera la ISS fundamental para la preparación de futuras misiones,
principalmente rumbo a Marte, y a la Luna, donde Estados Unidos planea volver en
el horizonte del año 2020.
Fuente: ABC, ESA, 24 de Octubre de 2007
Un equipo internacional de expertos se ha embarcado en la
iniciativa más ambiciosa hasta ahora en tecnología de exploración. Su fin es
sondear la Tierra hasta profundidades nunca alcanzadas. Quieren conocer el
origen y el futuro de nuestro planeta y la vida, saber por qué se producen
seísmos y contribuir a su predicción, atravesando la corteza terrestre desde el
lecho marino hasta llegar al manto, que forma el 80% de la Tierra.
El protagonista es el buque japonés de perforación submarina
Chikyu, que pretende obtener datos sismológicos, volcánicos, geológicos,
medioambientales y climatológicos en la falla de Nankai, 600 kilómetros al
suroeste de Tokio, en el Pacífico.
La corteza está formada por unos 72 kilómetros de roca sólida bajo los
continentes, pero su espesor es de menos de 8 kilómetros bajo los océanos y en
la depresión de Nankai es relativamente fina, sólo 7 kilómetros. Allí se solapan
dos grandes placas tectónicas y se origina el 90% de los terremotos que sufre
Japón, que registra el 20 % de todos los superiores a 6 grados en la escala
Richter.
Además de ofrecer pistas sobre acontecimientos del pasado, como el mortífero
maremoto que golpeó en diciembre de 2004 los países ribereños del océano Indico,
y sobre el origen y evolución de la vida en los últimos 4.600 millones de años,
el experimento de perforación de la corteza terrestre en la depresión de Nankai
permitirá conocer mejor la historia climática de la Tierra.
María José Jurado, del Departamento de Geofísica y Georiesgos del
Instituto de Ciencias de la
Tierra Jaume Almera (CSIC), en Barcelona, es el único científico español de
los 18 que integran la primera expedición a bordo del Chikyu, que partió el 21
de septiembre del puerto nipón de Shingu, como parte del experimento NanTroSEIZE,
del
Programa Integrado de
Perforación Oceánica (IODP). En este programa participan Japón, EEUU, China,
Corea del Sur y los países del
Consorcio Europeo para Investigación Oceánica (ECORD). [El consejo de ECORD
se reúne esta semana en Madrid. El Gobierno español, a través del Ministerio de
Educación y Ciencia, aportará 350.000 euros al programa en 2008, un 40% más que
el año anterior, precisamente con motivo del inicio de la actividad de Chikyu.]
"Mi grupo de trabajo establece la geología de lo que se ha perforado en el
sondeo", explicó Jurado desde el Chikyu a este diario. "Otros se encargan de
caracterizar las estructuras de deformación que se observan, de sus
características -porosidad, presiones de fluidos- y de correlacionar esa
información con los perfiles de sísmica de reflexión". Esta primera fase, "es
muy gratificante porque se trata de un grupo excelente, no sólo científico sino
también humano, y porque se intentan abordar objetivos que hasta hace poco
quedaban fuera del alcance de la tecnología existente", concluye Jurado, quien
sin embargo, también señala: "Estamos perforando en una zona que plantea
problemas importantes por ser rocas muy deformadas, por lo que puede ser difícil
alcanzar las profundidades previstas".
El padre de la iniciativa es Asahiko Taira, del Centro Japonés para la
Exploración de las Profundidades de la Tierra, responsable de la operación del
Chikyu. "Se me ocurrió esta idea en 1990, cuando pensé que si Rusia y EE UU
investigaban el espacio exterior, Japón podría liderar la exploración del
espacio interior, es decir, de las profundidades del mar", señaló Taira a este
diario. Ahora que "esta expedición es realidad me siento más entusiasmado, pero
más responsable por el apoyo popular e institucional de que goza, y porque
genera muchas expectativas", aseguró.
El barco tiene por delante un largo trabajo. En la primera etapa, que concluye
en febrero de 2008, se intentará perforar en seis sitios hasta 1,5 kilómetros de
profundidad. En la segunda (en 2008 y 2009), se taladrará de 3 a 3,5 kilómetros
bajo el lecho marino, con lo que se batirá una marca mundial, pues el pozo más
profundo excavado hasta la fecha tiene 2,1 kilómetros. En la tercera (de 2009 a
2010) se intentará hacerlo de 5,5 a unos 6 kilómetros, para instalar un sistema
de control en la falla sísmica, que permanecerá allí uno o dos años, mientras se
completan los sensores del definitivo sistema de control, que se instalarán en
la cuarta etapa (de 2010 a 2011).
Fuente: El País Digital, 24 de Octubre de 2007
-El mapa de nuestras diferencias genéticas
Aunque genéticamente somos un 99% iguales, una pequeña
fracción de ADN nos hace diferentes. Una segunda versión del mapa de estas
pequeñas variaciones ha sido publicada en la revista 'Nature'.
La investigación, que ofrece resultados más detallados que los de la primera
fase, puede servir para explicar la relación entre algunas enfermedades y la
genética.
Conocer y comprender la pequeña fracción genética que varía
de una persona a otra es importante para entender por qué unos individuos son
más susceptibles a unas enfermedades, unos fármacos funcionan mejor en algunos
pacientes o los motivos por los que una población reacciona a ciertos factores
medioambientales y otra no.
En este trabajo están involucrados 200 científicos que conforman el
Consorcio Internacional HapMap,
una sociedad pública y privada con patrocinio de agencias de Reino Unido,
Canadá, China, Japón, Nigeria y Estados Unidos. Los artículos que publica 'Nature'
corresponden a la segunda parte de la investigación que dio sus primeros
resultados en 2005.
Los científicos explican que los análisis publicados ahora contienen dos veces
más marcadores que los encontrados en la versión inicial, en concreto 2,1
millones, que sumados al millón anterior suponen 3,1 millones de variantes
genéticas o polimorfismos de nucleótidos (cambios en las letras que constituyen
la cadena de ADN). Cuantas más variaciones se registren en ese mapa, más
precisas serán las investigaciones dirigidas a buscar una base genética en
determinadas enfermedades.
De hecho, algunos resultados ya se han obtenido gracias a la información
proporcionada por el HapMap. Este verano, el
Wellcome Trust Case Control
Consortium encontró que más de 20 variantes genéticas estaban relacionadas
con un mayor riesgo de sufrir una serie de patologías, como la artritis
reumatoide, la diabetes tipo 1 y 2, la enfermedad celiaca o la coronaria.
La fase II del HapMap se realizó utilizando las mismas muestras de ADN
estudiadas en la fase I, que procedían de la sangre de 270 voluntarios sanos de
cuatro poblaciones geográficas distintas: Yoruba en Ibadan, Nigeria; Japonesa en
Tokio; Han Chinese en Pekín; y residentes de Utah con ancestros del noreste y
noroeste de Europa. Pero en esta ocasión se emplearon nuevas herramientas para
llevar a cabo estos análisis y mejores métodos estadísticos.
Cambios relacionados con la supervivencia
El nuevo mapa ha permitido conocer las tasas de recombinación genética
(redistribución de las moléculas de ADN) en el genoma humano. Así los
investigadores han detectado que los mayores cambios se han encontrado entre los
genes involucrados en la defensa del cuerpo y los que menos recombinaciones
presentan son aquellas proteínas que se encargan del correcto plegamiento de
otras proteínas. Por lo general, el mayor número de recombinaciones se da en el
material genético involucrado con la estructura celular externa.
Estas diferencias podrían indicar, según los autores, que los cambios o
recombinaciones en áreas del genoma que afectan a la respuesta frente a
organismos infecciosos u otros factores ambientales se producen porque ofrecen
una ventaja para la supervivencia.
Dentro de los planes de estos investigadores se encuentra la ampliación de estos
análisis a otras siete poblaciones para ofrecer información de otras variaciones
genéticas menos frecuentes como la de dos tribus de Kenya o la de residentes de
Los Ángeles con ancestros mexicanos. "Los datos del proyecto HapMap ofrecerán un
recurso inestimable para comprender la estructura de la variación genética
humana y su relación con el fenotipo", concluyen los autores.
Fuente: elmundo.es, 24 de Octubre de 2007
-España consume y contamina tres veces por encima de su "capacidad biológica"
La capacidad de carga del planeta es un término que se acuñó
a finales de los años 60 para definir el límite de un ecosistema natural para
absorber impactos o soportar un determinado uso. De ella se deriva un indicador
de carácter global, la llamada «huella ecológica», esto es, el territorio
necesario para producir los recursos que el hombre necesita y para asimilar los
residuos que genera. Y las hectáreas necesarias para mantener a un solo español
ascienden ya a 6,40, superando la media de la
Unión Europea, que
es de 4,7 hectáreas por persona.
Estos números no dejarían de ser precisamente eso si no fuera
porque la «biocapacidad» (la capacidad de carga) de nuestro territorio para
abastecernos y para «absorber» nuestros residuos es sólo de 2,43 hectáreas por
persona. Por tanto, estamos superando en un 260 por ciento el nivel considerado
sostenible. Así lo explicó ayer el secretario general para el Territorio y la
Biodiversidad, Antonio Serrano, en la presentación de los resultados
preliminares del informe «El análisis de la huella ecológica en España»,
elaborado por el
Ministerio de
Medio Ambiente.
Grado de urbanización
Para calcular este indicador de la huella ecológica (cultivos, pastos, bosques o
ecosistemas acuáticos necesarios para mantener a una población) se tienen en
cuenta las hectáreas necesarias para proporcionar el alimento vegetal; la
superficie necesaria para pastos que alimenten al ganado; la superficie marina
necesaria para producir el pescado; las hectáreas de bosque necesarias para
asumir el dióxido de carbono (CO2) que provoca nuestro consumo energético, y la
cantidad de hectáreas utilizadas para urbanizar, generar infraestructuras y
centros de trabajo. Por tanto, es lógico que la huella ecológica vaya ligada al
grado de urbanización y que las regiones con más territorio y menos pobladas den
como resultado un indicador, en apariencia, más sostenible. Por tanto,
atendiendo sólo a este criterio es Aragón la comunidad autónoma con una huella
ecológica mayor (7,25), seguida por Cantabria (7,02), Navarra (6,96) y Madrid
(6,75). En el lado opuesto de la tabla estarían Canarias (5,11), Extremadura
(5,50), Andalucía (5,63) y Castilla y Léon (5,75).
Un territorio único
El secretario general para el Territorio y la Biodiversidad tuvo en cuenta este
indicador para asegurar que Castilla y León y Extremadura -también citó a
Castilla- La Mancha (que tiene una huella de 6,45 hectáreas por persona,
situándose en la octava región con más huella ecológica- como regiones más
sostenibles, pero en cambio utilizó el resultado de dividir la huella ecológica
entre la biocapacidad para asegurar que Ceuta, Melilla, Madrid y Canarias
ofrecen el resultado de mayor insostenibilidad. Sobre éstos últimos lugares se
advierten rápidamente sus condicionantes de escasez de territorio y alta
densidad de población.
Además, la propia exposición de Antonio Serrano reconocía que «si una población
consume más espacio productivo por persona del que posee es porque está
importando recursos de otros territorios». Por tanto, y alejándonos de esta
pretendida descentralización, lo cierto es que los españoles consumimos 2,6
veces más recursos, y generamos más residuos, que la capacidad de recarga de
nuestro territorio.
Y es que, como reconoció Serrano, «el crecimiento de la economía, que avanza
hacia la convergencia en renta per cápita con la Unión Europea, está acarreando
notables costes ambientales». Y ahí sí que no seguimos la línea europea, pues
superamos su huella ecológica (4,7 hectáreas por persona) y, además, nuestro
ritmo de crecimiento del «rastro» que dejamos en el territorio entre 1995 y 2005
fue del 34%, frente al 14% de media en la UE.
Para ilustrar estos datos, Serrano utilizó el símil de conducir un vehículo por
encima de la línea roja de revoluciones; al final, el motor acaba fallando. A
nivel mundial esto significa que se está utilizando el planeta «en un régimen de
sobrerrevolución». Lo más preocupante, según el director general, es que los
incrementos en la huella ecológica son «tremendamente elevados», y en algunos
países los niveles son «completamente inaceptables».
Así, un ciudadano de Estados Unidos necesita 9,7 hectáreas para cubrir sus
necesidades de consumo, y un japonés 4,8. Sin embargo, el dato de Japón implica
que está superando en un 560% su capacidad de recarga. Lo cierto es que estos
países, más la Unión Europea, China (1,6 hectáreas por persona) y la India (0,8)
consumen entre todos el 75% de la biocapacidad de la Tierra.
En los últimos años, los estudios sobre el estado del planeta ponen énfasis en
la degradación sufrida por los ecosistemas a lo largo del siglo XX por la
sobreexplotación de sus recursos, que ya en el año 2003 superó en un 25 por
ciento su capacidad regenerativa. Esto significa que la Tierra necesitó un año y
tres meses para producir esos recursos. Por tanto, nos hace falta más de un
planeta para responder a nuestras necesidades. La primera vez que se superó ese
índice unitario fue en los años 80. A finales de los 60, cuando empezó a
calcularse, utilizábamos dos tercios del planeta, pero ahora la Tierra se nos
queda pequeña.
Límites de la naturaleza
La pregunta que subyace es: ¿cómo proporcionar bienestar e igualdad de
oportunidades a todas las personas sin exceder los límites de la Naturaleza? En
el caso de España, Serrano considera que si se cumple el 80 por ciento de los
objetivos de las medidas tomadas por el Ministerio de Medio Ambiente en esta
legislatura, la huella ecológica de nuestro país en 2020 se mantendría en los
niveles del año 2005. Y sólo disminuiría en el caso de que se produjera un
cambio social.
Precisamente ese cambio se analiza en el estudio «El comportamiento social
ante el desarrollo sostenible», elaborado por el
Observatorio de Prospectiva
Tecnológica Industrial y por
Valora Consultores.
Plantea tres escenarios en España en el horizonte 2025, que dependerán
fundamentalmente de la actitud de los ciudadanos y de los agentes económicos,
sociales y políticos. El estudio augura un escenario «azul» propicio para dar
respuesta a la exigencias del desarrollo sostenible y un escenario «depredador»
dominado por la ausencia de criterios sostenibles. En nosotros está la elección.
Fuente: ABC Periódico Electrónico S.A, 23 de Octubre de 2007
-En el 2020 veremos el Ártico sin hielo
Entrevista a Carlos Duarte, presidente de ASLO. El Premio Nacional de Investigación 2007 habla sobre las consecuencias irreversibles del cambio climático y la responsabilidad de los políticos.
No es difícil imaginarse a Carlos Duarte, madrileño nacido en
Lisboa en 1960, dando sus primeros pasos por las calles de la capital
portuguesa, entre el olor a peixe grelhado y el sonido del puerto.
Posiblemente, sus dos mayores aficiones, los océanos y los ríos, vienen de
entonces, de los años convulsos del Portugal del dictador Salazar, vividos con
un pie en el Atlántico y otro en el Tajo. En este tiempo, Duarte, investigador
del
Instituto Mediterráneo
de Estudios Avanzados (del CSIC y la Universidad de las Islas Baleares), ha
subido al olimpo de las ciencias acuáticas, la presidencia de la Sociedad
Americana de Oceanografía y Limnología (ASLO). El 4 de octubre, recién llegado
del Ártico, recibió el Premio Nacional de Investigación 2007.
Pregunta. ¿Cómo ha visto el Ártico?
Respuesta. Ver el deshielo en directo es abrumador. Cuando recibíamos imágenes
de satélite, con unas 12 horas de retraso respecto a cuando se tomó la
fotografía, el paisaje que teníamos delante ya no se parecía en nada. Nos costó
entender que lo que estábamos viendo era el deshielo más espectacular que ha
ocurrido jamás en el Ártico.
La placa de hielo permanente estaba retrocediendo 20 kilómetros diarios. En
otros años esta tasa de retroceso era del orden de 5 kilómetros. Pensábamos que
eran los vientos o las mareas, que movían el hielo, pero al cabo de una semana
nos dimos cuenta de que grandes bloques de hielo, capaces de abrir el Hespérides
como una lata de sardinas, al día siguiente eran agua líquida.
P. ¿Qué ocurriría si se derritiera?
R. Hay que tener en cuenta que esa cobertura de hielo, que podía tener hace unas
décadas del orden de 10 ó 14 millones de kilómetros cuadrados, es una especie de
espejo que refleja la radiación hacia el espacio. Es una radiación que no está
siendo absorbida como calor en la Tierra.
Cuando ese océano que es blanco se transforma en azul, con agua en la
superficie, la radiación que se reflejaba se absorbe. Esto supone un incremento
enorme de la cantidad de calor que está siendo retenida en el planeta y es,
probablemente, un impulso al calentamiento.
Y no sólo es el efecto local: ese agua de deshielo fluye hacia el Atlántico y
afecta a la corriente que pasa por la costa de Groenlandia, que tiene un papel
fundamental como motor de todas las grandes corrientes oceánicas. Estas
corrientes son el baño María del planeta, ya que cogen el calor de las zonas
tropicales y lo distribuyen hacia latitudes más altas.
El aumento de ese agua de deshielo podría frenar estas corrientes oceánicas y
provocar cambios climáticos bruscos, del orden de un aumento de temperatura de
cuatro grados en nuestras latitudes. Y, por contra, una disminución de
temperaturas a latitudes altas de cuatro grados, capaz de generar una glaciación
en latitudes altas. Cambios en el hielo podrían desencadenar cambios abruptos en
el clima del planeta, y eso nos afecta a todos.
P. ¿Hay una fecha de caducidad para el Ártico?
R. Desde hace décadas hay síntomas claros de que la extensión del hielo está
disminuyendo. Hasta hace dos años parecía que esa disminución era gradual.
Entonces, simplemente extrapolando esa pérdida de hielo se llegaba a predecir
que el Ártico podría estar sin hielo en verano en el año 2100. Ahora, en 2007,
la tasa se ha acelerado. Si hacemos una proyección de este nuevo ritmo,
posiblemente estaríamos hablando de un océano glacial Ártico libre de hielo
antes de 2020.
P. ¿Es reversible esta situación?
R. Creo que no, a escalas de tiempo relevantes para las personas. Nosotros, o
nuestros hijos, veremos un Ártico libre de hielo en verano. ¿Por qué hay grupos
que siguen negando los efectos del CO2? Eso es una percepción pública
que no se corresponde con el discurso científico, porque si miramos los
contenidos de cualquier gran congreso, o la literatura científica, la presencia
de teorías que pudieran negar que estamos inmersos en un proceso de cambio
climático inducido por la actividad humana sería menor de una de cada 1.000, o
quizá inexistente.
El debate en ciencia es cuál es el alcance de este cambio. La percepción pública
de que la comunidad científica no se pone de acuerdo se debe a que la presencia
de ambas teorías, los que admiten el cambio climático y los escépticos, en los
medios de comunicación es de un 50%, cuando en la comunidad científica sería de
999 a 1. A esos científicos que tienen opiniones escépticas, que normalmente no
fundamentan en publicaciones científicas, se les está dando una cancha excesiva.
P. Como presidente de ASLO, ¿cómo está viendo la postura de EEUU frente al
cambio climático?
R. Su actitud depende de quiénes son los líderes del país en la actualidad y de
los grupos de presión que les rodean, pero esto podría cambiar rápidamente.
Ahora estamos hablando de una actitud muy poco cooperativa para poner freno a
las emisiones de gases de efecto invernadero, pero en la Administración
anterior, el vicepresidente Al Gore fue uno de los impulsores del Tratado de
Kioto, y es una persona que ejerce un liderazgo mundial para intentar atajar
este problema.
Es muy posible que tras las elecciones del año que viene, EEUU tenga una
posición muy diferente. En cualquier caso, dos terceras partes de los
estadounidenses se declaran preocupados por este problema, pero en España el
porcentaje alcanza el 93%. A pesar de ello, todavía no hemos sabido buscar
fórmulas constructivas para afrontar este desafío. ¿Qué culpa tiene el
'ladrillo' de la situación de los hábitats costeros? En nuestro país el ladrillo
tiene prácticamente toda la culpa.
El 50% de las costas españolas están alteradas por la actividad humana,
fundamentalmente por la presencia de infraestructuras y urbanizaciones. El
desafío consiste en proteger lo que queda y, poco a poco, remediar los impactos
que hemos generado, para que nuestras costas puedan responder de una forma
positiva al problema del cambio climático.
P. En este tema sí es difícil dar marcha atrás...
R. Sí, es difícil, pero no imposible. En el ámbito de las políticas
medioambientales lo que se puede hacer en el plazo de una legislatura es poco.
Se requiere un consenso en la clase política de nuestro país, que haga que el
medio ambiente no sea un caballo de batalla del debate político. Que haya unos
objetivos que se puedan mantener a largo plazo. Hoy por hoy, nuestra clase
política no ha demostrado la capacidad de alcanzar esos consensos en las
cuestiones más fundamentales para nuestro país. Y ésta es una de ellas.
P. ¿Se puede contemplar la piqueta para arreglar las costas?
R. Hay dos maneras de reaccionar frente al irreversible aumento del nivel del
mar. Una es usar el dinero del contribuyente para regenerar las infraestructuras
afectadas. Y otra, más efectiva, consiste en planificar una retirada. Intentar
poco a poco mover esas infraestructuras tierra adentro, 100 ó 200 metros. Ya se
está haciendo en Australia o Canadá, no es imposible. Pero, desde luego, no es
algo que se pueda hacer en una legislatura. Ni a la fuerza.
Fuente: Público, 22 de Octubre de 2007
-La revolución de la nanotecnología
El premio Príncipe de Asturias de Investigación en 1998,
Emilio Méndez, impartió una lección magistral en la
Universidad de Zaragoza, en
la que dijo que la nanotecnología tiene posibilidades "enormes" que pueden
provocar una revolución que transforme la vida diaria de las personas.
Este físico, que actualmente dirige el nuevo
Centro de Nanomateriales
Funcionales del Laboratorio Nacional de Brookhaven (Nueva York), explicó a
los medios de comunicación que dicha revolución puede producirse en campos tan
dispares como el de la salud, el medio ambiente o las comunicaciones.
Esta es una revolución "potencial y embrionaria", agregó, pero que acabe siendo
una realidad depende de muchos factores, algunos internos a la ciencia y otros
externos, como de seguridad, de comercialización, económicos e "incluso
políticos".
Pero si en algún campo destaca la nanotecnología es en el de la informática,
hecho que queda patente con la concesión del Premio Nobel de Física a dos
europeos por el descubrimiento de la llamada magnetorresistencia gigante, que
"ha jugado y juega" un papel "capital" en el almacenamiento de información en
los discos duros, en los ordenadores portátiles o en los reproductores de
música.
Méndez, que ha sido colaborador del Premio Nobel de Física de 1973 Leo Esaki,
señaló que el futuro se centra no solo en mejorar la capacidad de almacenaje,
sino en la de generar y reproducir información.
Para ello, agregó, se trabaja actualmente en sustituir los transistores de
silicio por otros materiales como los nanotubos de carbono y, "soñando un poco
más", en reemplazar estos últimos por moléculas, que es lo que se conoce como
"electrónica molecular", algo a lo que quizás se llegue "en 15 ó 20 años", dijo.
Por otra parte, afirmó que la nanociencia, "como ciencia y no como tecnología",
goza de "muy buena" salud en España, país en el que existen muchos grupos, como
en Madrid, Barcelona o San Sebastián, que pueden competir a nivel internacional
"sin ningún problema".
Lo único que le falta a España, y en general a Europa, comentó el físico
leridano, es dar el salto de la ciencia a la nanotecnología, que viene a ser "su
aplicación práctica".
"La ciencia está muy bien, es la base", pero subrayó que las cosas no se pueden
quedar así, ya que hay que tener iniciativa y dar el salto "innovativo" para
aplicar todos los descubrimientos. Respecto al panorama actual y futuro de los
jóvenes investigadores, Méndez dijo que aprecia en este colectivo "ilusión y
entusiasmo", pero "sobre todo preparación", ya que "siempre dejan el pabellón de
España bien alto" por todo el mundo.
Fuente: EFE, 22 de Octubre de 2007
-El "Eureka" de cinco magníficos
Los españoles que han sido portada de las más prestigiosas revistas científicas se cuentan con los dedos de las manos. Cinco días antes de que «Nature» y «Science» reciban el Príncipe de Asturias, los genios recuerdan sus descubrimientos.
Son críticos con el sistema; en España,
denuncian, no se invierte lo suficiente y eso, por supuesto, se traduce en que
los investigadores que han logrado llegar a la portada de Nature y Science sean
la excepción. Con una historia centenaria a sus espaldas, las dos revistas, la
primera británica y la segunda editada en EEUU, son las publicaciones
científicas más prestigiosas del mundo, los principales altavoces mediáticos que
tiene la ciencia para llegar a la comunidad internacional.
En ellas han escrito Isaac Newton o Charles Darwin y en sus páginas se ha
explicado desde la Teoría de la Relatividad hasta el genoma humano. Por ello,
publicar en estos semanales es el sueño de cualquier investigador. Aunque muy
pocos son los elegidos. «El 95% de los trabajos enviados son rechazados. Ha
habido premios
Nobel a los
que les han dicho que no», apunta el astrofísico de la
Universidad del País Vasco
Agustín Sánchez-Lavega, el único compatriota que ha logrado dos portadas por sus
estudios sobre las tormentas y vientos en Saturno.
Incluso los datos que facilita el
Consejo Superior de Investigaciones Científicas (CSIC) pueden dar lugar al
sonrojo. A escala mundial y según el número de artículos publicados, nuestro
país ocupa las posiciones 12 en Nature y 14 en Science, un nivel que no se
corresponde con el hecho de que seamos la octava potencia económica mundial. ¿La
razón? El número de científicos es bajo y la calidad media, comparada con otros
países, discreta. «Sólo hay que tener en cuenta que Ramón y Cajal, el único
Nobel español en una disciplina científica, lo obtuvo hace 101 años. Y lo logró
porque sus investigaciones costaron cuatro duros. Así de claro», responde Jaume
Baguñà, catedrático de Genética y portada en Science en 1999.
Un ejemplo claro de que el sistema no cuida como se merece a nuestros
científicos lo encontramos en el oceanógrafo Xavier Irigoyen, uno de los muchos
casos de españoles que tienen que salir fuera para poder hacer su trabajo. Su
estudio sobre ecosistemas marinos terminó en la portada de Nature en 2002. Eso
sí, un equipo internacional firmaba la investigación.
Salvador Moyà -director del
Institut Català de Paleontología-, Juan Luis Arsuaga -codirector del
yacimiento de Atapuerca-, Jesús Muñoz -del
Real Jardín Botánico de Madrid-
y Ángel Felicísimo, de la
Universidad de Extremadura, también forman parte de la exclusiva lista de
españoles de portada y celebrarán que el próximo viernes, 26 de octubre, estas
dos revistas reciban el premio Príncipe de Asturias de Comunicación y
Humanidades. Como homenaje a su esfuerzo, Magazine les ha pedido que recuerden
el momento en el que, como Arquímedes hace 2.200 años, cantaron el '¡Eureka,
eureka!', '¡Lo encontré, lo encontré...!'.
Juan Luis Arsuaga, el cráneo más completo.
Jose Luis Arsuaga
Portada: 'Nature', 8 de abril de 1993.
Artículo: sobre el descubrimiento, en 1992, del cráneo humano más completo del
registro fósil de la Humanidad, el C-5.
Momento del 'Eureka': tras 10 años trabajando en Atapuerca (Burgos), el 7 de
julio de 1992, encontraron el primer parietal. El resto, apareció poco a poco.
El cráneo, de más de medio millón de años, estaba desarticulado y la cara fue la
última en salir. Era la hora de brindar con cava...
La ciencia es como las competiciones deportivas. Contra todo pronóstico, un
etíope que ha estado entrenando sin zapatillas llega a una Olimpiada y resulta
que en la prueba reina de velocidad gana a un alemán preparadísimo que ha
invertido muchísimo dinero en estar a punto para la cita. Y así es precisamente
como vive Juan Luis Arsuaga, 53 años, cabeza visible del equipo que desde hace
más de 25 años trabaja en la sierra de Atapuerca, el hecho de que sus
descubrimientos «hayan hecho historia». Sobre todo, el que mereció la portada de
Nature en abril de 1993.
Llevaban casi una década rescatando pequeños fósiles, como dientes, trozos de
mandíbulas..., nada que no apareciera en otros lugares del mundo. Hasta que el 7
de julio de 1992 dieron con el filón del yacimiento de la Sima de los Huesos que
les catapultaría a la primera división del estudio de nuestros antepasados: un
verdadero 'trofeo' científico, más de 30 esqueletos humanos que vivieron hace
medio millón de años. Entre ellos el famoso cráneo C-5, uno de los 10
descubrimientos más importantes de la historia, según Nature. Por algo se trata
del cráneo más completo del registro fósil de la Humanidad. "No quiero más
medallas, la fama no me impresiona; lo que pido es más apoyo, más becas, más
contratos para mis investigadores", reclama este gran referente internacional de
la paleontología y Príncipe de Asturias de Investigación Científica (1997).
Jesús Muñoz y Ángel Felicísimo. Musgos y viento
Muñoz y Felicísimo (centro, derecha)
Portada: 'Science', 21 de mayo de 2004.
Artículo: demostraba que las zonas de Sudáfrica y Suramérica que están
conectadas por los vientos comparten el mismo tipo de especies florísticas. En
este caso estudiaron los musgos y líquenes.
Momento del 'Eureka': después de un par de años recopilando información, en
marzo de 2003 tenían ya procesados los datos de los vientos que les interesaban.
A partir de ese momento, supieron que habían dado en la diana.
Desde su pequeño despacho en el Real Jardín Botánico, Jesús Muñoz (Asturias,
1964) no tiene vistas a los árboles y plantas que pueblan este pulmón verde de
la capital. Sin embargo, en las estanterías que visten sus paredes se condensa
su vida profesional, cientos de libros que recogen todo lo publicado sobre
musgos, líquenes y helechos a nivel mundial. Y fue así, comparando especies
sudafricanas con otras existentes en América Latina, cuando germinó la pregunta
que, con los años, terminaría en la portada de Science.
¿A qué se debe que el mismo tipo de musgos sean endémicos de estas dos zonas
separadas por miles de kilómetros? Con la ayuda del también asturiano Ángel
Felicísimo, 49 años y profesor de la Universidad de Extremadura, y de otros tres
investigadores (Ana Rosa Burgaz, Francisco Cabezas e Isabel Martínez), y con el
insustituible apoyo de la información que recibían en su ordenador de la ruta de
los vientos en el hemisferio Sur, que regularmente actualizaban los satélites,
dieron con la respuesta a la pregunta: las zonas terrestres que están conectadas
por el viento en Suramérica y Suráfrica comparten más especies que aquellas
otras que no lo están. El coste de la investigación fue, ¡sorpresa!, cero euros.
Los datos botánicos salieron de los libros que invaden su despacho; los del
viento, a través de los satélites de la
NASA, vía Internet, de forma
gratuita. Recibieron felicitaciones sinceras, pero también despertaron rencores
en algunos colegas. "En esta profesión prima más la antigüedad que la
excelencia".
Agustín Sánchez-Lavega. La obsesión por Saturno
Agustín Sánchez-Lavega
Portadas: 'Nature', 3 de octubre de 1991 y 5 de junio de 2003.
Artículo: único científico español con dos portadas: por su estudio sobre las
tormentas en Saturno (1991); y sobre los vientos en el mismo planeta (2003).
Momento del 'Eureka': fue por casualidad. En octubre de 1990, le avisaron por
teléfono, a las dos de la madrugada, de que el fenómeno que llevaba estudiando
desde que publicó su tesis doctoral en 1986 acababa de 'estallar'. Logró hacer
las mejores fotos hasta la fecha de las tormentas de Saturno.
De entrada, para un lego en la materia, tener datos de las atmósferas de
planetas gigantes que giran muy rápido, como Júpiter o Saturno, es casi como si
a un niño de 5 años le regalan una potente motocicleta. No le sirve para nada.
Sin embargo, para este astrofísico de la Universidad del País Vasco, de 52 años,
entender por qué en ellos hay vientos de hasta 1.000 km/h puede significar
encontrar la respuesta a los procesos que se suceden en la atmósfera terrestre y
que tanto nos preocupan: cambio climático, agujero de ozono, efecto
invernadero...
Y en ello estaba, estudiando las tormentas de Saturno, una especie de «gota
fría» de 20.000 km de tamaño que parecía repetirse cada 30 años, cuando recibió
una llamada de teléfono que marcaría para siempre su carrera profesional. Sus
colegas franceses del Observatorio del Pic-du-Midi en el Pirineo le avisaron de
que el fenómeno había «estallado». «El nuestro fue así el mejor estudio
realizado hasta la fecha de este fenómeno y terminó en portada», recuerda. En
2003, repetiría la hazaña con otro trabajo sobre los vientos en el mismo
planeta.
Salvador Moyà. El estudioso de los primates.
Salvador Moyá
Portada: 'Nature', 11 de enero de 1996.
Artículo: estudio sobre un esqueleto parcial de un gran antropomorfo de 9,5
millones de años (Dryopithecus laietanus).
Momento del 'Eureka': el proceso fue largo. Se inició en 1991 y tras el análisis
de los restos encontrados durante años de excavación, el director del Institut
Català de Paleontología se dio cuenta de que habían encontrado un fósil clave
para comprender un momento fundamental de la evolución de los primates de
nuestra propia familia (Hominidae).
Los huesos correspondientes a una mano. Ésa fue la foto elegida para la portada
de Nature. Al fin y al cabo, el mérito del trabajo versaba sobre el origen del
tipo de locomoción que caracteriza a los grandes antropomorfos modernos
(orangutanes, gorilas...), capaces de moverse de árbol en árbol, con todo el
cuerpo suspendido de las manos que se sujetaban de las ramas. «Se hacen
esfuerzos para mejorar, pero todavía estamos lejos de invertir lo mismo que los
países de nuestro entorno. Y esto es un gran lastre. Conseguiremos más portadas
si mejoramos la inversión y modificamos el sistema», palabra de científico.
Jaume Baguñà. El estudio de la simetaría bilateral
Jaume Baguñà
Portada: 'Science', 19 de marzo de 1999.
Fuente: elmundo.es, 22 de Octubre de 2007
Artículo: el equipo que dirigía encontró un eslabón clave en la evolución de los
animales. Demostró que un grupo de gusanos marinos muy simples (Platelmintos
Acelos) son los antepasados vivos más antiguos de los seres con simetría
bilateral (lado izquierdo y derecho), entre ellos, también el hombre.
Momento del 'Eureka': tras casi tres años de trabajo, en 1998, este catedrático
de Genética de la
Universidad de
Barcelona comprobó cómo los análisis que habían hecho indicaban que la
hipótesis de la que partían era real.
Lo tenían muy cerca de casa y de su centro de trabajo, en las aguas de Sitges.
Allí, en la capa superficial de la arena marina de la playa localizaron a unos
diminutos gusanos planos que, según sus investigaciones, podrían ser parecidos a
los primeros seres con simetría bilateral, es decir, con un diseño corporal con
un lado izquierdo y derecho, que aparecieron en la Tierra hace más de 550
millones de años. Saber cómo era aquel ancestro permitiría determinar cómo
pudieron surgir los primeros animales con un diseño corporal más complejo, como
es el caso del hombre. Sin embargo, a pesar de la satisfacción propia de haber
logrado publicarlo en Science, el 'reconocimiento' científico se volvió en
contra del equipo investigador. "A partir de entonces tuvimos más dificultades
para recibir financiación para nuevas investigaciones. Éste es un país lleno de
envidiosos e incompetentes".
Fuente: elmundo.es, 22 de Octubre de 2007
-La pastilla antisida llega a Europa
El primer tratamiento contra el sida que
reúne tres fármacos en una sola pastilla podría estar disponible en Europa antes
de que finalice el año. De momento, el comité de expertos de la
Agencia Europea del
Medicamento (EMEA) que evalúa estos productos ha dado el primer paso al
hacer un dictamen favorable para su autorización.
El fármaco, conocido como Atripla, es una
combinación de tres de los antirretrovirales más utilizados por los pacientes
seropositivos: efavirenz (comercializado según el país por
Bristol-Myers Squibb o
MSD), tenofovir y emtricitabina
(ambos de
Gilead Sciences).
Para llegar a la polipíldora ha sido necesaria una colaboración sin precedentes
de estos tres laboratorios farmacéuticos, que esperan poder comercializar el
producto en los 27 países de la UE a finales de año.
La opinión positiva del comité de la EMEA sobre Atripla destaca su capacidad
para "mantener la carga viral (la cantidad de virus en sangre) en niveles bajos"
y, sobre todo, que simplifica la terapia, ya que es suficiente con un comprimido
una vez al día, mientras que hace tan sólo una década los infectados por el VIH
tenían que tomar hasta 30 pastillas diarias.
Este fármaco 'tres en uno' se recomienda a aquellos pacientes con VIH que llevan
más de tres meses en supresión virológica gracias al cóctel de antirretrovirales
que toman. Sin embargo, no está indicado para aquellos pacientes que hayan
tenido algún fracaso con la terapia o que hayan desarrollado resistencias a
alguno de los tres medicamentos que componen Atripla.
Entre los efectos secundarios más comunes que puede dar están las náuseas, los
mareos, la fatiga, la diarrea, los dolores de cabeza y las pesadillas, entre
otros.
"Cada uno de los componentes de Atripla ha mostrado por separado su eficacia y
tolerabilidad en pacientes con VIH", ha declarado el doctor Brian Gazzard,
presidente de la
Asociación
Británica de VIH. "Lo mejor es que, al ser una sola pastilla, facilita mucho
seguir la terapia, algo fundamental para que tenga éxito".
Un ano de éxito en Estados Unidos
La FDA (la agencia que regula
los medicamentos en EEUU) aprobó Atripla en julio de 2006 y, desde entonces, se
ha convertido en el tratamiento más recomendado para los pacientes seropositivos
que inician la terapia.
Además de en Estados Unidos, la aprobación de la FDA también incluía la
distribución del fármaco en los países en vías de desarrollo que se benefician
del programa PEPFAR, el proyecto del presidente George W. Bush para ayudar a
controlar la epidemia en las zonas más desfavorecidas.
Tras la experiencia estadounidense, la
Organización Mundial de la Salud
(OMS) decidió en marzo de este año añadir Atripla a su lista de Medicamentos
Esenciales. Canadá ha sido, por el momento, el último país que ya ha aprobado la
comercialización de esta polipíldora.
Fuente: elmundo.es, 22 de Octubre
de 2007
-Cambio de horario: más molesto que rentable
El próximo domingo de madrugada los ciudadanos de la UE retrasaremos nuestros relojes, una medida de dudosa rentabilidad que nos permitirá dormir una hora más pero provocará molestias en el sueño a muchas personas, sobre todo a niños y ancianos.
El cambio de hora, de obligado cumplimiento en toda la Unión, comenzó a generalizarse a partir de 1974, cuando por la primera gran crisis del petróleo algunos gobiernos decidieron adelantar una hora los relojes durante los meses de más luz -entre marzo y finales de septiembre- para reducir el consumo de electricidad.
En 1981 se adoptó una primera directiva comunitaria, que fue renovada cada cuatro años hasta que en enero de 2001 el Parlamento y el Consejo de la Unión aprobaron la novena, que daba carácter indefinido al cambio horario.
El Gobierno español decidió en marzo de 2002 incorporarla mediante un real decreto a nuestro ordenamiento jurídico, y así el último domingo de marzo los relojes se adelantan una hora y se retrasan el último de octubre, como en todo el territorio comunitario.
Muchos son los detractores de una medida cuyos resultados económicos ni la propia UE conoce con exactitud, ya que sus repercusiones, especialmente en verano, son muy distintas en función de la situación geográfica de los países y también diferentes en cada sector de actividad. "De ahí la dificultad -reconoce la UE- de alcanzar conclusiones universales".
El ahorro energético pretendido no es pues el mismo en un país del norte que en uno del sur. Más concretamente en España, no tiene las mismas consecuencias en Baleares que en Galicia, zonas entre las que existe una diferencia solar de una hora.
"Resulta muy sospechoso -dijo Manuel Toharia, director del Museo de las Ciencias de Valencia- que una medida como ésta sea efectiva al mismo tiempo en Dinamarca o Alemania que en España, Grecia o Italia. Incluso en un mismo país. ¿De verdad ahorran lo mismo los gallegos que los andaluces?".
"Por otra parte -continúa- ¿cuál es la fecha idónea para ese cambio? ¿Porqué no duran la hora de invierno y la de verano exactamente medio año, que sería lo justo si de verdad el ahorro se debe al descenso o aumento progresivos de horas de sol entre equinoccio y equinoccio?".
La Comisión Europea reconocía en 2000 que el ahorro energético era "relativamente modesto", entre un 0 y un 0,5%, tesis que corrobora Red Eléctrica de España, que lo considera "insignificante, no relevante". "De no producirse el cambio horario -informó un portavoz de Red Eléctrica- el consumo de más estaría en torno a los 40.000 megavatios hora al año, una cantidad insignificante frente a los cientos de miles de gigavatios que se consumen anualmente".
Según estimaciones del Instituto para la Diversificación y Ahorro de la Energía (IDAE), el ahorro doméstico en iluminación desde finales de marzo hasta el próximo fin de semana puede representar un 5%. "Si el consumo medio de una familia española es de 3.200 kilovatios hora, el ahorro sería de más de 6 euros por hogar y más de 60 millones para el conjunto".
A ello habría que sumar, procedente del comercio y los servicios, según el IDAE, un ahorro del 3% -más de 6 millones de euros- en concepto de reducción de consumo de aire acondicionado.
"Obviamente -destaca Toharia- lo que se ahorra por la mañana se gasta de más por la noche, o viceversa, pero el tiempo bruto de actividad, con o sin luz solar, es el mismo que si no cambiáramos la hora".
La patronal de las eléctricas, Unesa, estima "eficaz" la medida y "efectivo" el ahorro que conlleva, aunque no lo cuantifica. "Si no hubiera ahorro no se haría", comentó un portavoz de la organización. "Si se retrasara, por ejemplo, una hora el encendido de las luces navideñas en toda España ahorraríamos lo que produce una unidad nuclear", agregó.
El cambio de hora, según los expertos consultados, se soporta mejor en otoño que en verano, pero en ambos casos afecta al reloj biológico de las personas y provoca trastornos en el sueño especialmente en niños y ancianos.
Según dijo el pediatra José García Sicilia, del madrileño hospital infantil de La Paz, el cambio de otoño "afecta mucho a los bebés, pero menos que a los adultos. Para los más pequeños es peor el de verano, pues les supone levantarse antes".
En ambos casos, las consecuencias no son graves, "los problemas duran poco y nuestro organismo acaba acostumbrándose. Es cuestión de días", añade. "Es necesario -afirma la Comisión Europea en un informe- de uno a siete días para que la hora de despertar, la temperatura y la calidad del sueño se adapten al nuevo horario. En general -continúa- las perturbaciones desaparecen al cabo de una o dos semanas".
Todos los años, desde hace cinco, el profesor Juan Antonio Madrid realiza un estudio con sus alumnos de la Universidad de Murcia sobre las consecuencias que tiene en ellos el cambio de hora de octubre, y siempre la conclusión ha sido la misma: los trastornos en el sueño son pequeños.
"En marzo, cuando nos quitan una hora -comenta el docente- la adaptación del organismo es bastante negativa, se tolera mucho peor. Los trastornos en el sueño son mayores en pequeños y ancianos, pero no superan la semana". El cerebro humano, "nuestro reloj biológico", continúa el profesor, "no se deja manipular fácilmente, de ahí que se resista durante unos días. Más brusco es el cambio que experimenta un joven cualquier fin de semana que sale de marcha; el lunes ya lo tiene superado".
Manuel Toharia pone el acento en la "inutilidad" de la medida y destaca que los trastornos en el sueño son evidentes, "pero una hora es muy poco comparado con las seis de jet-lag por viajar a Nueva York o las nueve a California". "Lo que pasa -dice- es que a la Unión Europea le costó muchos decenios llegar a un acuerdo, y ahora va a costar otro tanto o más deshacerlo, a pesar de algunos intentos por parte, entre otros, de Francia".
En la madrugada del sábado al domingo próximos, los más de veinte trenes de Renfe que circularán esa noche -internacionales o de largo recorrido- pararán sesenta minutos en una estación para no descuadrar la operativa de circulación, previa información a los viajeros. Los aviones de Iberia no sufrirán el cambio, "pues a esas horas no hay prevista ninguna salida", informó un portavoz de la compañía.
Fuente: elmundo.es, 21 de Octubre de 2007
-Por primera vez, una mujer al frente de la Estación Espacial Internacional
Una astronauta asumirá hoy, por vez primera, el mando en la Estación Espacial Internacional (EEI), según ha anunciado el Centro de Control de Vuelos Espaciales (CCVE) de Rusia. "La estadounidense Peggy Withson se convertirá en la primera mujer comandante de la EEI", informó un portavoz del CCVE a la agencia Interfax.
Peggy Withson
Si ya es novedoso que una astronauta asuma el mando, lo es aún más que sea una norteamericana la que dirija una estación espacial rusa. La ceremonia de traspaso de poderes tendrá lugar esta tarde entre Withson, integrante de la decimosexta expedición a la Estación Espacial Internacional, y el ruso Fiódor Yurchijin, que abandonará dentro de unos días el ingenio espacial.
"Eso nunca ha ocurrido antes, ni en la estación orbital 'Saliut' ni en la 'Mir'", añadió. El director de la Agencia Espacial Rusa Roscosmos, Anatoli Permínov, manifestó su "confianza" en la astronauta norteamericana, aunque reconoció que en Rusia algunos han expresado "suspicacias" al respecto.
Withson, astronauta de la NASA y bióloga de formación, viajó por primera vez a la Estación como tripulante de la expedición EEI-5, ocasión en la que desempeñó el puesto de ingeniera de a bordo. La estadounidense, de 47 años, recibió como regalo antes de viajar a la EEI un tradicional látigo kazajo, aunque se mostró convencida de que no tendrá que recurrir a ese instrumento para hacerse respetar.
La Estación Espacial Internacional recibió el pasado 12 de octubre a Withson y a otros dos cosmonautas, el ruso Yuri Malenchenko y el primer malasio, Sheij Muszaphar Shukor, que llegaron a bordo de la nave rusa 'Soyuz'. Roscosmos ha calificado la actual misión EEI-16 como "la más complicada en la historia de la Estación Espacial" por el gran volumen de trabajo que le espera en la órbita.
Durante los 192 días que permanecerán en el espacio, la EEI-16 recibirá dos naves de carga rusas 'Progress', el primer carguero europeo, 'Julio Verne', y tres transbordadores estadounidenses que traerán para su ensamblaje tres nuevos módulos de la estación, uno norteamericano, otro europeo y otro japonés.
El matriarcado en la EEI se reforzará con la llegada la próxima semana del transbordador estadounidense 'Discovery', también comandado por una mujer, Pamela Melroy, una veterana de la Guerra del Golfo.
-Científicos españoles descubren que el cuerpo carotídeo crea células madre convertibles en neuronas
El equipo que dirige en Sevilla el científico José López Barneo publica en la revista 'Cell' un trabajo que describe, por primera vez, que el cuerpo carotídeo genera células madre -aquellas capaces de autorreproducirse- y que pueden cultivarse en laboratorio para convertirse en neuronas.
López Barneo ha destacado la doble trascendencia de este
trabajo, tanto en su vertiente de investigación básica como en su futura
aplicación para la práctica clínica en enfermedades neurodegenerativas, como el
párkinson.
El trabajo de este equipo de científicos sevillanos, del que forman parte los
investigadores Ricardo Pardal, Patricia Ortega-Sáenz y Rocío Durán, describe en
primer lugar y de forma pionera la existencia de células madre en el cuerpo
carotídeo, una pequeña glándula localizada junto a la arteria carótida. Ello
confirmaría que el sistema nervioso periférico, del que forma parte el cuerpo
carotídeo, es capaz de generar células madre neuronales, posibilidad que hasta
ahora se circunscribía al sistema nervioso central.
El estudio también determina que el cultivo in vitro de estas células madre
permite caracterizarlas en neuronas, células cerebrales ricas en dopamina,
neurotransmisor cuya pérdida acelera las enfermedades neurodegenerativas, como
el párkinson, así como sustancias neuroprotectoras que previenen estas
patologías.
La investigación del equipo de López Barneo consolida sus anteriores trabajos
relacionados con el trasplante de células del cuerpo carotídeo a enfermos de
párkinson, para que aumentasen la producción de dopamina. "Este descubrimiento
describe, por primera vez, células madre en el cuerpo carotídeo, donde no se
había descubierto hasta ahora este nicho neurogénico y, en segundo lugar, que
esas células se desarrollan in vitro en laboratorio, donde se obtienen neuronas,
lo que supone un avance en terapias celulares para enfermedades
neurodegenerativas", ha explicado.
López Barneo ha subrayado la importancia de que este trabajo se haya realizado
íntegramente en Andalucía y de que un equipo científico publique en Cell, una
prestigiosa revista donde son escasas las publicaciones de científicos
españoles.
López Barneo es catedrático de Fisiología de la
Universidad de Sevilla,
coordinador de Investigación del complejo hospitalario
Virgen del Rocío de Sevilla y
director del Instituto de Biomedicina de Sevilla (IBIS) y del
Centro de
Investigación Biomédica en Red (CIBER) de Enfermedades Neurodegenerativas
que reúne a los principales investigadores españoles en este campo.
Este investigador, nacido en 1952 en Torredonjimento (Jaén) ya logró en 1998 un
tratamiento experimental contra el párkinson basado en el autotrasplante en
ratas de células del cuerpo carotídeo. Este trabajo fue seguido con
autotrasplantes en humanos, cuyo resultado resultó menos espectacular al
tratarse de pacientes con avanzado grado de enfermedad neurodegenerativa.
López Barneo ha sido elegido recientemente presidente de la
Sociedad
Española de Terapia Génica y Celular y ha publicado más de cien artículos en
revistas científicas de elevado factor de impacto, como Cell, Science, Neuron,
Nature Neuroscience o New England Journal of Medicine, entre otras.
Fuente: EFE, 19 de Octubre de 2007
-La ley de biodiversidad se echa al mar
Hoy en día, sólo el 3% de los ecosistemas marinos españoles cuenta con algún tipo de protección, aunque el objetivo de España ante la ONU es llegar al 10% en 2010.
La Ley de Biodiversidad y Patrimonio Natural, aprobada
ayer en el
Congreso de los
Diputados, prevé la creación de Áreas Marinas Protegidas, figura que
pretende equiparar la protección de los hábitats y especies del mar con la
terrestre. La norma, que se tramitará ahora en el
Senado, actualiza la Ley de
Conservación de 1989, que no recogía ninguna protección específica para el medio
marino.
La Red de Áreas Protegidas podrá incluir zonas marinas comprendidas hasta las
doce millas en el Mediterráneo y hasta las 200 millas en la costa atlántica
española, explica Pilar Marcos, del Programa Marino de
WWF/Adena.
Para configurar la Red, se han elaborado informes con propuestas de hábitats y
ecosistemas representativos y únicos. "Tras el hundimiento del Prestige frente a
las costas gallegas, surgió la idea de inventariar la biodiversidad marina, ya
que no se sabía lo que había ni cómo se distribuían las comunidades biológicas
marinas", añade Marcos. La Ley de Biodiversidad también incluye la realización
del primer inventario nacional de hábitats y especies terrestres y marinos.
La organización
Oceana ha
propuesto, por su parte, que se incluyan en las áreas protegidas los ecosistemas
de montañas submarinas, desiertos marinos, arrecifes de coral, jardines de
gorgonias, campos de esponjas, arrecifes de moluscos bivalvos, y prados de algas
verdes y algas rojas, entre otros.
Qué se prohibe
Las reservas marinas contarán con un Plan de Ordenación de Recursos Naturales,
como se hace ya en las terrestres, que deberá contemplar qué actividades deben
quedar prohibidas y cuáles se permiten.
WWF/Adena cree que la pesquería de superficie podría permitirse, por ejemplo, en
el Banco del Danés para la pesca de bonito y caballa, pero no la de fondo porque
arrasa la biodiversidad. "Hay que trabajar con los pescadores y, tras cinco o
diez años de funcionamiento de la reserva, se dan cuenta de que aumenta la
biomasa y hay más pesca fuera de la zona protegida", destaca Marcos.
Entre las actividades que deberían restringirse, se encuentran los proyectos
eólicos marinos en el caso de zonas de paso de aves y cetáceos, como el Estrecho
de Gibraltar, las extracciones de petróleo y gas, y la limpieza de barcos, así
como controlar el turismo de avistamiento de cetáceos y las inmersiones de buceo
deportivo para disminuir las molestias en la fauna y flora. "En el caso de
tránsito de buques, debería desviarse la ruta o aminorar la marcha a su paso por
la zona protegida", propone Marcos.
Otra novedad de la norma es la posibilidad de crear reservas transfronterizas,
tras un acuerdo con los países vecinos. Entre las candidatas a formar parte de
esta nueva figura, destacan el Cap Bretón en el Golfo de Vizcaya
(España-Francia), y las montañas submarinas y conos volcánicos de Alborán
(España-Marruecos).
En el ámbito terrestre, la Ley de Biodiversidad también da mayores garantías
para impedir el urbanismo, nuevas carreteras o vías férreas en zonas de la
Red Natura, y evitar casos como el de las Navas del Marqués (Ávila).
Fuente: Público, 19 de Octubre de 2007
-Descubren un agujero negro junto a una estrella
El telescopio gigante Gemini, de Hawai, en colaboración con el observatorio espacial Chandra, acaba de registrar el mayor agujero negro estelar que se conoce, con una masa 16 veces superior a la de nuestro Sol.
El astro forma un sistema binario junto a una gran
estrella a la que se encuentra casi pegado, en la galaxia espiral Messier 33. La
estrella acompañante pasa directamente frente al agujero negro en su órbita de
tres días, eclipsando así la emisión de rayos X del agujero negro.
Esto permitió a los científicos calcular las masas de los dos objetos estelares
de forma más precisa de lo habitual. La estrella acompañante también es la más
masiva que se ha descubierto en un sistema binario, y alcanza las 70 masas
solares.
«Esta es una estrella gigante acompañada por un agujero negro gigante», señala
Jeffrey McClintock, uno de los autores de la investigación, cuyos resultados se
publican hoy en
Nature.
«Eventualmente, la acompañante también se hará supernova [es decir, estallará] y
entonces tendremos un par de agujeros negros», asegura este científico, que
trabaja en el
Centro
Astrofísico Harvard-Smithsonian, en Massachusetts.
Existen dos clases de agujeros negros: los estelares, formados al colapsarse el
núcleo de estrellas algo mayores que nuestro Sol, y los supermasivos, que forman
inmensos campos gravitatorios en el centro de las galaxias y alcanzan masas de
hasta miles de millones de soles. Los agujeros negros estelares, por el
contrario, no deberían pesar más de 10 soles, de acuerdo con los modelos que
habían manejado los científicos hasta ahora, y que el nuevo hallazgo obligará a
revisar.
El descubrimiento de este insólito sistema binario es también importante por
otro motivo, que tiene que ver con la estructura misma del cosmos. Los expertos
llevan décadas intentando detectar las llamadas ondas gravitacionales, es decir,
las partículas responsables de producir la atracción gravitatoria, que serían
como diminutas arrugas u ondulaciones en el espacio.
Aunque hay dos observatorios, uno en Estados Unidos y otro en Italia, dedicados
a la caza de estas partículas, nadie ha logrado aún detectarlas, pero sabemos
que han de estar ahí. De hecho, los sistemas binarios como el recién descubierto
«serían las mayores fuentes de ondas gravitacionales del cosmos», tal y como
señala el astrónomo Tomasz Bulik, de la
Universidad de Varsovia,
en un comentario que publica hoy también Nature.
El nuevo sistema, en concreto, resulta de especial interés porque se cree que
los dos objetos que lo forman han debido pasar por una fase en la que el menor
de ellos se vio atraído por el otro y comenzó a acercarse a él girando en
espiral. Entretanto, las fuerzas generadas por esta danza entre astros
provocaron que el mayor de ellos escupiera al espacio sus capas exteriores.
En este caso, la estrella que originó al actual agujero negro debió perder mucha
materia antes de estabilizarse en un órbita tan cercana a su compañera. Pero, al
mismo tiempo, tuvo que conservar la bastante masa como para generar un agujero
negro con el peso de 16 soles.
Por todo ello, parece que sistema binario desafió todas las barreras con que
contaban los científicos durante su convulsa formación. De acuerdo con Tomasz,
«este sistema podría darnos los límites tanto superiores como inferiores de la
cantidad de pérdida de masa y acercamiento orbital que pueden ocurrir. Tales
datos son importantes en la contínua búsqueda de los rizos del espacio-tiempo
conocidos como ondas gravitacionales, ya que éstos determinarán el número y las
propiedades de los binarios consistentes en dos agujeros negros».
Fuente: elmundo.es, 18 de Octubre de 2007
-Animales en peligro de extinción
Un gran macho de oso polar avanza penosamente sobre una muy delgada capa de hielo: no puede todavía nadar, pero como a cada paso lo que pisa se rompe, tampoco camina. Se tambalea, se arrastra, chapotea, zozobra... Le aguarda una penosa agonía por hambre o ahogamiento, algo que ha sucedido últimamente, y por primera vez, con otros congéneres.
Qué está pasando? El carnívoro más grande del planeta, uno
de los mejores cazadores que la evolución ha conseguido, está siendo derrotado
por el calor que está desmantelando el Polo Norte. Este prodigio de adaptaciones
a los máximos rigores del Ártico está atrapado en ese cepo que es la falta de
suficiente hielo.
En cualquier caso, aquellas soledades heladas aún acogen los empeños de osas
blancas y sus oseznos. Toda la imaginable ternura maternal se asocia a la más
arriesgada infancia para un mamífero en este planeta. De la misma forma que
podemos asomarnos al fracaso, queda izada la esperanza a través del éxito que
supone la llegada a la independencia familiar de los cachorros de oso polar.
A la actual fragilidad del hielo sigue enfrentándose la vieja vida con toda su
pasión. Ésa, tan legítima, de querer seguir siendo.
Océanos de incertidumbre
Queda aún bastante para que seamos consecuentes con lo que sabemos. Sobre todo
en relación con nuestra casa, que es líquida. Aunque endeble y frágil, el agua
todo lo yergue y sujeta en este mundo. Incluso a las más grandes criaturas
vivientes que jamás hayan existido: las ballenas.
La migración de las ballenas, seres capaces de recorrer la literal totalidad de
los océanos del mundo, se ha repetido incesantemente desde hace, al menos, tres
millones de años. Una navegación ininterrumpida a bordo de descomunales cuerpos
que, asombrosamente, se alimentan de uno de los recursos más pequeños pero más
abundantes del planeta: ingentes masas de krill. Como estos cetáceos nacen en
aguas cálidas ecuatoriales y tropicales, su supervivencia va de la mano de un
viaje que puede suponer alrededor de 12.000 kilómetros cada temporada.
Los océanos, que son la fuente de todo lo que vive en este planeta, están dando
demasiados síntomas de cansancio. Baja su productividad biológica; el
calentamiento afecta ya a las corrientes; los climas del agua han comenzado
también a equivocarse; disminuye la regularidad en los ciclos... Pero a estos
desajustes se enfrenta la vieja destreza de esos inmejorables sextantes,
barómetros y termómetros que el cerebro de las ballenas alberga.
Insaciable desierto
De cuanto puebla nuestro mundo, nada con tanto apetito como el desierto. Ha
engullido, tan sólo en los últimos 60 años, el equivalente a 16 veces España.
Partía de unos dominios casi insuperables para ninguna otra de las formas de
organización de la vida en la Tierra. De hecho, ya era dueño de una cuarta parte
de la misma. Ahora casi un tercio de lo que podemos pisar en nuestro mundo es
erial. De ahí que poco pueda estremecernos más que la mayor y más honda pisada
hollando el polvo del desierto, la de los elefantes.
La piel de los enormes mamíferos africanos ya parece el resultado de una sequía
sin piedad. Al sur de África, el desierto de Kalahari es el sorprendente hogar
para animales que deben ingerir hasta 300 kilos diarios de materia vegetal. Que
llegan a beber, cuando pueden, hasta 200 litros de agua de una sola vez. La
capacidad para sortear dificultades está también en los elefantes. Unos pocos, a
los que podríamos considerar los más arriesgados del planeta, han conseguido
colonizar la aridez.
La película
Todo lo anterior, osos polares atrapados por el deshielo, ballenas jorobadas,
elefantes del desierto buceando... puede contemplarse en 100 minutos de hermosa
película en alta definición. Se titula 'Tierra'
y se estrena en menos de dos semanas.
Dirigida por el naturalista Alastair Fothergill, coproducida y distribuida por
los hermanos José María y Miguel Morales y su Wanda Visión, 'Tierra' fascina
desde el primer fotograma.
Todo ha sido posible gracias a cinco años de trabajo, a casi 20 millones de
euros de presupuesto, miles de horas de espera en los lugares más duros del
planeta y el uso de las tecnologías más recientes. Queda aquí patente la
tenacidad del planeta para seguir siendo bello y vivaz. Por si todo ello fuera
poco, esta película cumple la función de conciencia y de memoria. Nos demuestra
que nuestro mundo es débil. Que está siendo vapuleado y hasta desmantelado. Pero
no lo hace con apocalipsis visuales o estadísticas. Una propuesta que en nada
conmina, pero que nos propone reconciliarnos con el primer principio de todas
las filosofías morales dignas de tal nombre. La del derecho de toda la vida a su
continuidad. La de nuestra obligación de ayudar a conseguirlo.
Fuente: elmundo.es, 17 de Octubre de 2007
-Estirpes de ratones noqueados para descifrar sus genes
El Proyecto Genoma ha desvelado que el hombre, al igual que otros mamíferos, posee entre 20.000 y 25.000 genes diferentes. Un nuevo reto es comprender la función de cada uno de ellos. Ser capaces de generar un ratón knockout en el que un determinado gen es suprimido y ver cómo esto afecta a su fisiología supone una herramienta muy valiosa.
Además, como muchas enfermedades hereditarias son debidas
a mutaciones que hacen que la proteína codificada por el gen mutado deje de
funcionar correctamente, un ratón knockout de dicho gen constituye un modelo
animal de la enfermedad para estudiar por qué la pérdida de función del gen
acaba desembocando en la patología y para ensayar posibles nuevas terapias. Los
científicos Mario R. Capecchi [EE.UU.], Martin J. Evans [Reino Unido] y Oliver
Smithies [EE.UU.] han recibido el Premio Nobel de Fisiología o Medicina
precisamente por el descubrimiento del procedimiento para generar estirpes de
ratones en las que un determinado gen es modificado gracias al uso de células
madre embrionarias.
Las colecciones de estirpes mutantes de organismos más simples, tales como
bacterias, levaduras, o incluso insectos como la mosca del vinagre, que tienen
ciclos vitales más cortos y genomas mucho más pequeños que los de los mamíferos,
son una herramienta clave y clásica en biología. En estos organismos más simples
es posible introducir mutaciones genéticas al azar mediante radiaciones o
sustancias químicas que alteran el ADN para después seleccionar estirpes
individuales y, finalmente, identificar la mutación concreta incorporada en cada
estirpe.
En el caso de las bacterias, que tienen un ciclo vital de minutos o de horas, la
selección de una estirpe entre millones se realiza en una pequeña placa de
laboratorio. En el caso de la mosca del vinagre, que tiene un ciclo vital de
tres semanas, la selección de entre cientos de estirpes se realiza en un tubo de
vidrio. Un proceso similar en mamíferos de laboratorio como el ratón, con un
ciclo vital de tres a cuatro meses, es inviable tanto desde un punto de vista
práctico como económico, pues sería un proceso muy largo y que requeriría
instalaciones gigantescas para la cría de los ratones y la secuenciación de sus
genomas. Una alternativa para generar ratones knockout de una manera eficiente
radica en que, en lugar de introducir mutaciones al azar a lo largo de todo el
genoma, esa mutagénesis se haga apuntando al gen concreto que se quiere
modificar o suprimir.
Capecchi y Smithies investigaron la posibilidad de modificar un gen concreto en
células de mamífero cultivadas in vitro. Para ello, aprovecharon una propiedad
inherente de las células denominada recombinación homóloga. Esta desempeña un
papel fundamental en la evolución de las especies, pues origina la variabilidad
genética que resulta de combinar la información de cada una de nuestras parejas
de cromosomas al entrecruzar fragmentos del ADN del cromosoma heredado de la
madre y del heredado del padre.
La idea de Capecchi y Smithies consistía en preparar in vitro un fragmento de
cromosoma en cuya posición central se encuentra la versión del gen que querían
que reemplazara a la normal. Cuando introdujeron estos fragmentos de ADN en el
interior de células de mamífero en cultivo vieron que era posible seleccionar
aquellas células en las que, gracias al proceso de recombinación homóloga, el
fragmento de ADN exógeno se había insertado en su sitio homólogo del genoma del
ratón, reemplazando así a la secuencia endógena.
Simultáneamente, los trabajos de Evans se centraron en cómo conseguir estirpes
de ratones mutantes a partir de embriones en los que introducía células
modificadas genéticamente (por inserción de una secuencia exógena de ADN en una
posición desconocida de sus cromosomas). La clave de los trabajos de Evans
radicó en el uso de células madre embrionarias. De hecho, él fue uno de los
pioneros en conocer las propiedades de estas células y en establecer las
condiciones para su cultivo in vitro de manera indefinida. Estas células pueden
originar todos los tejidos del cuerpo, y Evans comprobó que si los órganos
sexuales del ratón resultante se formaban a partir de las células madre
modificadas genéticamente, la mutación se propagaba a la siguiente generación,
estableciéndose así una nueva estirpe de ratón mutante.
La combinación de los hallazgos de Evans y de los de Capecchi y Smithies hizo
posible la publicación, en 1989, de los primeros ratones en los que un
determinado gen había sido sustituido por una versión nula del mismo. Se trataba
de los primeros ratones knockout.
Desde entonces, esta técnica se ha implantado en la práctica totalidad de los
centros de investigación biomédica de todo el mundo que, a su vez, han tenido
que adaptarse para albergar el cada vez mayor número de líneas de ratones
knockout generadas.
En la actualidad, se dispone de versiones de ratones knockout de unos 10.000
genes, de las que unas 500 constituyen modelos animales de enfermedades humanas.
Además, varios consorcios internacionales persiguen generar líneas de ratones
knockout de los genes restantes y hacer que todas estén disponibles para la
comunidad científica.
En cuanto a la utilidad de esta técnica para la investigación biomédica, ya se
han mencionado los modelos animales que resultan de noquear los genes
responsables de enfermedades hereditarias monogénicas como la fibrosis quística,
muchas formas de hemofilia, la talasemia o la gran mayoría de las metabolopatías
congénitas.
Sin embargo, esta técnica también ha servido para comprender el mecanismo
patogénico de muchas enfermedades más complejas como el cáncer, la hipertensión,
las enfermedades inflamatorias y autoinmunes y las neurodegenerativas, pues
permite verificar o descartar el posible rol patogénico de un determinado gen.
Así, por ejemplo, el ratón knockout de un gen que se sospecha que es un supresor
de tumores tendría que mostrar una mayor susceptibilidad a desarrollar cáncer.
En el caso de las enfermedades neurodegenerativas por priones como la de las
vacas locas, se vio que el prión anómalo inoculado no transmitía la enfermedad a
los ratones knockout carentes de la proteína del prión endógena, demostrando así
que el prión infeccioso requiere la presencia de la proteína priónica normal a
la que le transmite la capacidad patogénica. Además, la técnica ha experimentado
mejoras sucesivas que permiten noquear un gen sólo en determinados tejidos o
sólo a partir de una determinada edad, lo que ha multiplicado su potencial en
investigación, tanto básica como aplicada.
Fuente: El País, 17 de Octubre de 2007
-Microsoft quiere patentar un lector de mentes
Microsoft ha presentado la solicitud para patentar un
lector de mentes, que sin necesidad de conocimientos médicos y por muy poquito
dinero (esto debe ser importante, porque lo subrayan hasta la saciedad) puede
medir la actividad cerebral de cualquiera mientras interactúa con su ordenador.
¿El objetivo? Dicen que mejorar la relación entre el cerebro humano y la
máquina, para adaptar mejor la informática a sus usuarios. Pero siempre habrá
malpensados que se pregunten si no será al revés.
La compañía dispensa con cuentagotas la información, que
de momento sólo ha sido objeto de debate en la blogosfera tecnológica. Allí las
opiniones están divididas entre los que creen que lo que Microsoft quiere
patentar es una barbaridad, y los que creen que es imposible. No es esa la
creencia de Desney Tan, investigador de Microsoft en Redmond. Formado en Francia
y en los Estados Unidos, antiguo ingeniero de las fuerzas armadas de Singapur,
su campo de estudio es la interacción cerebro humano-ordenador, y su más
reciente obsesión, medir las señales eléctricas que mantienen unida y en acción
la mente.
No es el primero que lo intenta. Scott Mackler, un profesor de la
Universidad de Pensilvania
víctima de una terrible enfermedad degenerativa, se comunica con su ordenador y
con el mundo gracias a un software que lee sus ondas cerebrales a través de 16
electrodos. Así puede, por ejemplo, cambiar el canal de la televisión.
Según cuenta el mismo Desney Tan en la defensa escrita de sus experimentos, la
«pega» que tenían todos los intentos anteriores de medir las señales eléctricas
del cerebro era que requerían, o cirugía muy invasiva, o exponerse a
radiaciones, o hacer grandes desembolsos de dinero. Él cree haber simplificado
enormemente el asunto.
Su innovación no es tanto tecnológica como metodológica. Pongamos que intentamos
evaluar el grado de concentración de una persona dedicada a una actividad mental
o su grado de satisfacción o frustración con la misma. Podemos preguntarle a
ella, pero lo más fácil es que obtengamos un informe «pobre». Mejor que conteste
una máquina. El equipo de Tan tomó a 8 voluntarios, 5 hombres y 3 mujeres de
entre 29 y 58 años de edad, les plantó los electrodos y los puso a hacer tres
tareas: descansar, multiplicar 7 por 836 e imaginarse un pavo real rotando.
El objetivo era acumular la máxima cantidad de datos estables sobre la señal
cerebral durante cada una de estas tareas, para aprender a reconocerlas y a
distinguirlas unas de otras. El sistema actúa entonces como un clasificador de
estados de la mente cuando está atareada haciendo esto o aquello.
El principal problema, claro, es que lo de que estamos leyendo la mente es un
decir. Y no sólo porque leemos señales eléctricas y no pensamientos, sino porque
las mismas señales pueden venir de muchos sitios. Los electrodos pueden captar
señales sin valor cognoscitivo propio, tales como el parpadeo, la contracción
espontánea de la piel bajo los electrodos, un temblor de la mano, etc. Esta es
una de las razones de ciertas oleadas de escepticismo que ha levantado esta
patente.
Pero Tan, en lugar de luchar contra los elementos, se ha unido a ellos. Lejos de
perder tiempo y recursos limpiando la señal de impurezas, ha incorporado estas a
la ecuación. ¿Qué más da si un parpadeo no es actividad cerebral pura, si
siempre se siguen el uno a la otra, como el trueno al rayo?
Entonces vino el segundo experimento. Esta vez los ocho voluntarios ya estaban
ante una pantalla de ordenador, jugando al archipopular juego «Halo». Las tres
tareas diferenciadas eran el descanso absoluto, el jugar solo -navegando aquí y
allá, pero sin enfrentarse a ningún oponente concreto- y el jugar con
«enemigos». Según Tan, si el primer experimento había dado un 80.4% de éxito
clasificatorio entre tareas, el segundo ya alcanzó casi un 93%.
Las conclusiones se obtienen de un sistema de cálculo de probabilidades que en
la actualidad, por ejemplo, se utiliza para prever las posibilidades de que
alguien acabe contrayendo una enfermedad. Es decir, que todo es opinable. Pero
queda esbozada una tecnología capaz de aprender a distinguir unas señales
cerebrales de las otras, con creciente -¿alarmante?- exactitud.
Fuente: ABC Periódico Electrónico, 17 de Octubre de 2007
-Descubren en la Patagonia argentina una nueva especie de dinosaurio herbívoro
El futalognkosaurus dukei, como han bautizado al fósil sus descubridores, es además el más completo de los descubiertos hasta ahora y pertenece al nuevo grupo de titanosaurios (denominado Lognkosauria) exclusivos de la región de Patagonia.
La especie encontrada a orillas del Lago Barreales pudo llegar a medir entre 32
y 34 metros de largo, según los paleontólogos, y no comía carne.
Este futalognkosaurus dukei falleció por causas desconocidas y se cuenta con
restos bastante completos del ejemplar: cuello, región dorsal y pelvis, así como
la primera vértebra de la cola. Según los investigadores, parte del esqueleto
del animal habría sido separado por animales carnívoros.
En el descubrimiento participaron investigadores del
Museu Nacional de
Río de Janeiro, de la
Universidad Nacional de Comahue, en Neuquén (Argentina), y del Laboratorio
de Paleovertebrados de la
Universidad Nacional
de Cuyo, en Mendoza. Los paleontólogos presentaron la réplica de una de las
vértebras del dinosaurio, de un metro y diez de largo, y otra de la cola.
El paleontólogo argentino Jorge Calvo aseguró que durante las excavaciones se
encontraron, asimismo, fósiles de varios dinosaurios, como las de un megaraptor,
especie carnívora que llegaba a medir siete metros. Además de la nueva especie,
en la zona se encontraron varios fósiles de otras especies y más de 500 dientes
de dinosaurios.
El nombre dado al dinosaurio deriva de la lengua mapuche y significa "el jefe
gigante de los saurios" y homenajea, asimismo, a la compañía argentina Duke
Energy, que financió la mayor parte de las excavaciones.
-El 90% del proceso tumoral ocurre sin que nos demos cuenta
Del 3 al 6 de octubre se reunieron en Madrid reputados
investigadores en cáncer, en un simposio copatrocinado por el
Centro Nacional de
Investigaciones Oncológicas (CNIO) y la revista científica
Nature. El motivo
fue conmemorar la identificación o aislamiento del primer oncogén humano en
EE.UU. por el equipo del investigador español Mariano Barbacid, promotor y
director del CNIO. Un primer trabajo, publicado en mayo de 1982 en la
revista de la Academia de las
Ciencias de EE.UU., y tres más aparecidos a lo largo del mismo año en Nature,
marcaron el comienzo de una nueva era en la investigación oncológica.
Aunque Mariano Barbacid, su principal investigador,
subraye que es el resultado de muchos esfuerzos y también del trabajo
desarrollado antes por otros científicos, admite que "supuso un paso importante,
pero un paso más en una larga e interminable caminata". No obstante, insiste en
que este hito fue posible gracias al desarrollo de una avanzada tecnología por
científicos como el holandés Van der Erb y los norteamericanos Michael Wigler y
Richard Axel. Tampoco olvida citar al español Ángel Pellicer, que formaba parte
del equipo de Wigler y Axel, y que alertó a Barbacid de la existencia de esa
tecnología y le instruyó en ella.
En estos 25 años se han identificado más de 360 genes mutados (casi el 2% del
genoma humano) en al menos uno de los más de cien tipos de tumores malignos
conocidos. "Quizás esta aportación haya representado el inicio de la llamada
oncología molecular en el cáncer humano, disciplina que ha revolucionado su
investigación al dejarnos penetrar en algunos misterios de las alteraciones
genéticas que inducen la aparición del tumor. Sin embargo, el gran problema de
esta enfermedad es que el 90% del proceso tumoral ocurre sin que nos demos
cuenta. Y, cuando da la cara, la lucha es dura y difícil", reconoce.
Barbacid advierte que hay que distinguir entre la prevención del cáncer y su
detección precoz: "Prevención es un término que gusta mucho emplear a los
políticos. Pero debemos ser realistas y aceptar que la mayoría de los tumores
hoy no se pueden prevenir. Y con los que sí podríamos hacerlo, como es el de
pulmón, no nos lo tomamos en serio".
El director del CNIO se lamenta de que, aunque todo el mundo dejase de fumar y
de exponerse en exceso al sol, o se erradicaran mediante la vacunación los virus
de la hepatitis B y del papiloma humano, responsables del hepatocarcinoma
primario y del cáncer de cérvix o cuello de útero, respectivamente, el cáncer
seguiría siendo uno de los principales retos de la medicina actual, puesto que
"un importante porcentaje de tumores, como mama, colon, páncreas, próstata,
linfomas o sarcomas, no son hoy en día prevenibles".
Otra cosa, según aclara, es la detección precoz, que no diagnóstico precoz, en
tanto que "el diagnóstico del tipo de tumor siempre es posible tras la
detección". Además subraya que los tumores, antes de diseminarse por el
organismo, no representan en su mayoría una seria amenaza para la salud, ya que
serían extirpados quirúrgicamente.
"La metástasis", asegura, "es una de las áreas más complejas de la oncología.
Investigaciones como las del grupo del español Joan Massagué, del
Memorial Sloan-Kettering
Cancer Center de Nueva York, y publicadas este año en Nature, suponen un
gran avance. Es verdad que en más del 90% de los casos de neoplasia maligna, el
proceso de metástasis es el responsable del mal pronóstico y de la muerte".
La trascendencia clínica del descubrimiento del primer oncogén es obvia, según
Barbacid, "porque sin mutaciones que generen oncogenes e inactiven genes
supresores de tumores no hay cáncer". Desde aquel año de 1982 se han
identificado más de 360 genes mutados en algún tipo de tumor, pero "si
contásemos los genes implicados, aunque no necesariamente mutados, el número
ascendería notablemente, tal vez hasta alcanzar el 10% del genoma humano",
añade.
Asegura que la identificación del primer oncogén y la posterior definición del
genoma humano son dos descubrimientos no ligados entre sí conceptualmente:
"Pienso que el genoma se habría conocido igual con o sin oncogenes. Gracias a
ese conocimiento y a la simplificación de las técnicas de secuenciación del ADN
es posible también secuenciar los genomas de los tumores", explica.
"Los primeros resultados", añade, "son estremecedores, ya que revelan una gran
cantidad de mutaciones. Ahora habrá que ver cuáles de ellas son relevantes y
cuáles son accidentales. Esto llevará tiempo. Si, como se prevé, en los próximos
años secuenciar un genoma, sea de una célula sana o de un tumor, puede hacerse
en pocas semanas y a costes asequibles, seremos testigos de una auténtica
avalancha de información molecular que, sin duda, arrojará datos relevantes para
comprender los complejos mecanismos del cáncer".
¿Para cuándo se establecerá en la práctica clínica de forma rutinaria el
diagnóstico genético o molecular de cada tumor, con independencia de su
localización? "Ya se está haciendo", responde, "aunque no con todos los tipos de
tumores. Evidentemente, esto no se hará hasta que la información que aporte sea
de interés vital para el oncólogo a la hora de tratar a sus pacientes".
Barbacid no ve viable, para un diagnóstico precoz, realizar análisis genéticos
de susceptibilidad a padecer determinados tumores, exceptuando el cáncer
familiar. El riesgo o las probabilidades de presentar hoy en día un tumor, sin
componente hereditario, son tan escasas y aportan tan poca información, que no
justifican los chequeos periódicos de este tipo.
"Otra cosa", matiza, "es el conocimiento y macroanálisis de las diferencias de
unos elementos llamados nucleótidos, que hacen que cada ser humano sea distinto
a otro. Éste sí es un área de la genética con mucho futuro".
¿Por dónde van, entonces, los tiros para atajar, controlar o curar el cáncer? A
este respecto Barbacid advierte de que la sociedad "debe tener muy presente que
el cáncer son más de cien enfermedades". Y destaca que, del mismo modo que los
procesos infecciosos se han ido controlando a lo largo de los siglos pero aún
quedan algunos por curar, se irá avanzando en el control y curación de los
distintos tipos de cáncer, incluidos los que ya se curan, que son en torno al
50%.
Reconoce, no obstante, que los tumores más indolentes o fáciles de combatir por
el momento son ciertas neoplasias de la sangre que pueden mantenerse en estado
crónico durante años, al igual que ciertos tumores hormonodependientes, como el
de próstata.
Barbacid apuesta por la investigación traslacional, que pretende llevar a la
práctica clínica lo antes posible las investigaciones básicas. Así, manifiesta
que en el CNIO se está dedicando la mitad de los recursos a ese tipo de
investigación, incluyendo el Programa de Terapias Experimentales, uno de los
pocos desarrollados en Europa exclusivamente dedicado al descubrimiento y diseño
de nuevos fármacos al margen de la industria farmacéutica.
Fuente: El País Digital, 16 de Octubre de 2007
-Un lugar de Marte donde situar una nave terrestre
Esta imagen muestra las capas del interior del cráter Holden, en el Hemisferio Meridional de Marte. Es uno de los posibles lugares donde podría aterrizar una nave espacial humana.
La imagen ha sido tomada con una cámara fotográfica 'HiRISE (High Resolution Imaging Science Experiment) ubicada en la 'Orbiter', la nave de reconocimiento del planeta rojo. El color ha sido reforzado para resaltar los detalles. El cráter Holden es uno de los 12 lugares en los que podría aterrizar una nave terrestre. En él hay planicies aluviales formadas en lo que antes fueran lagos.
Recientemente, la nave europea 'Mars Express' obtuvo unas nuevas imágenes de Valle de Tiu, en la que se aprecian varios montículos alargados en forma de cresta, junto a lo que parece ser el lugar donde desembocaba un sistema de riachuelos o canales.
Fuente: elmundo.es, 12 de Octubre de 2007
-Un granjero creó minicerditos
Los animales, 80% más pequeños que un cerdo normal, son una atracción para los visitantes de Pennywell Farm.
Un conocido presentador de la televisión británica -Jonathan Ross- pagó US$600 por dos cerditos a los dueños de la granja, que han recibido ofertas de lugares tan lejanos como Australia. Los cerdos pigmeos son una variedad de la especie exótica kune kune, nativa de Nueva Zelanda. Chris Murray, copropietario de la granja, comenzó a hacer cruces de raza hace nueve años, y está convencido de que logró producir el cerdito perfecto como animal de compañía.
"Los cerdos comunes son muy lindos cuando son jóvenes, pero después el ambiente de un hogar se les hace pequeño y se pueden volver agresivos cuando crecen", señaló Murray.
Sin embargo, añadió, "estos cerditos se sienten como en casa tanto en el interior como el exterior".
En el pasado, algunas variedades de cerdo, como el "barrigón" vietnamita, se utilizaban como animales de compañía en Gran Bretaña. Pero la moda decayó cuando quedó claro cuánto podían llegar a crecer. Los diminutos cerditos de Pennywell Farm, no obstante, no darán grandes sorpresas: un adulto miniatura pesa sólo 70Kg, frente a los 500 kg que suelen pesar los adultos de la variedad más común. Según Murray, esta variedad es fácil de albergar y entrenar, y además tiene un buen carácter. Su "creador" duda de que puedan acabar servidos como menú en un restaurante, ya que "son muy pequeños".
"No sería económico, así que es muy improbable que se usen para producir carne... y ya hay una variedad enorme de carne de cerdo disponible en el mercado".
Fuente: BBCmundo, 16 de Octubre de 2007
-A la búsqueda de vida extraterreste
Financiado por el cofundador de Microsoft, Paul Allen, el sistema tendrá 350 antenas de seis metros y será uno de los más grandes del mundo. Llamado formalmente Allen Telescope Array (ATA), el sistema será capaz de rastrear más de un millón de sistemas estelares con el fin de detectar señales generadas por seres inteligentes. Sus creadores esperan que el ATA les ayudará a localizar hacia el 2025 signos definitivos de vida extraterrestre.
Paul Allen
Primera luz
El ATA es administrado por el Instituto de Búsqueda de Inteligencia Extraterrestre (SETI, por sus siglas en inglés) y la Universidad californiana de Berkeley.
"Para SETI, las capacidades técnicas de ATA aumentan exponencialmente nuestra capacidad para buscar señales inteligentes, y podrían llevar al descubrimiento de seres pensantes en otras partes del universo", dijo Seth Shostak, astrónomo de SETI, en una declaración.
El 11 de octubre, las primeras 42 antenas del sistema comenzaron a recolectar datos para analizar los posibles signos de vida extraterrestre y ayudar con radioastronomía convencional. Las primeras imágenes de prueba producidas por el sistema son mapas radiales de las galaxias de Andrómeda y del Triángulo.
Pioneros
El ATA es un sistema pionero por el novedoso diseño de las antenas que escanearán el cielo. Cada antena de 6 metros de largo está compuesta de un platillo producido en serie y de componentes listos para ser usados. Cuando operen las 350 antenas, dicen sus creadores, se podrá recolectar información a una escala "sin precedente". El instrumento final podrá estudiar un área del cielo 17 veces más grande que el que alcanza el sistema que se encuentra en Nuevo México.
Se espera que ATA ayude entender mejor fenómenos como las supernovas, los agujeros negros y los objetos astronómicos exóticos que han sido pronosticados, pero nunca observados. El sistema se encuentra en el observatorio de Hat Creek, California, situado unos 467 kilómetros al norte de San Francisco.
Fuente: BBC Mundo, 12 de Octubre de 2007
-La NASA celebra los diez años del lanzamiento de Cassini
El 15 de Octubre de 1997, la sonda Cassini-Huygens inició su camino hacia Saturno en el interior del cohete Titán 4B. Su misión era la de estudiar durante cuatro años el planeta y sus satélites. Acoplado a Cassini iba la sonda Huygens que se despegó de su compañera para caer sobre la superficie de una de las lunas de Saturno, Titán.
Momento del lanzamiento de Cassini
Una gran cantidad de información ha sido enviada por la nave desde que alcanzó su destino, hace tres años y medio. No nos ha dejado de fascinar con sus espectaculares fotos. Imágenes que han sido portada de muchos periódicos y revistas del mundo entero. Millones han sido las visitas que han recibido las páginas de la NASA dedicadas a la sonda. Es habitual encontrarnos en estas webs con sorprendentes descubrimientos.
Dennis Mason científico que trabaja en la misión Cassini, cree que Saturno es el mayor laboratorio existente en el sistema solar. Es como un diminuto sistema planetario donde existen anillos, satélites y campos gravitatorios. Su comprensión es importante para entender los procesos físicos que gobiernan al Sístema Solar.
Gracia a Cassini se ha podido descubrir que los geysers de agua helada de Encelado alimentan uno de los anillos de Saturno. También se ha podido conocer más de cerca a Titán y su compleja superficie cubierta de lagos y mares de hidrocarburos.
Fuente: NASA, 11 de Octubre de 2007
-Al Gore, Premio Nobel de la Paz
El ex vicepresidente de EEUU Al Gore y el Grupo Intergubernamental sobre el Cambio Climático (IPCC) de la ONU, y su presidente, el indio Rajendra Pachauri, son los ganadores del Premio Nobel de la Paz 2007, anunció el Comité Nobel en Oslo.
En su argumentación, el Comité Nobel destacó los esfuerzos de los galardonados por "construir y divulgar un mayor conocimiento sobre el cambio climático causado por el hombre y por fijar la base de las medidas que son necesarias para contrarrestar ese cambio".
El anuncio no sorprendió, puesto que Gore y el IPCC figuraban entre los favoritos.
El año pasado, el Comité Nobel distinguió también el trabajo comprometido de una persona y un organismo, en aquel caso fue el del bengalí Mohamed Yunus, conocido como el 'banquero de los pobres', y su banco, el Grameen Bank.
El Comité Nobel quiso destacar los esfuerzos de los galardonados en la lucha contra el cambio climático, como uno de los factores que pueden amenazar "las condiciones de vida de gran parte de la humanidad", pues originarían, entre otras cosas, migraciones a gran escala, una mayor competencia por los recursos naturales y conflictos violentos entre países".
Con los informes emitidos durante las últimas dos décadas el IPCC ha creado un "consenso amplio sobre la conexión entre la acción del hombre y el calentamiento global".
Gore, por su parte, ha sido, según destacó el Comité, uno de los principales políticos medio-ambientalistas.
"Su gran compromiso, reflejado en su actividad política, sus ponencias, sus películas y sus libros han reforzado la lucha contra el cambio climático. Es probablemente la persona que a título individual ha hecho más para crear una conciencia mundial sobre las medidas que deben adoptarse", subrayó el Comité en su comunicado.
Con este premio, el Comité Nobel ha querido no sólo llamar la atención sobre el problema, sino instar activamente a que se tomen medidas urgentes "antes de que el cambio climático escape al control del hombre".
El Nobel de la Paz está dotado con 10 millones de coronas suecas (1,1 millones de euros) y se entregará junto al resto de los galardones el 10 de diciembre, aniversario de la muerte de su fundador, Alfred Nobel.
"Me siento muy honrado de recibir el Premio Nobel de la Paz", señaló Gore en una declaración. "Encaramos una verdadera emergencia planetaria", añadió. "La crisis del clima no es un asunto político, es un reto moral y espiritual para toda la humanidad".
En su declaración, Gore dijo que donará su porción del premio a la Alianza para la Protección del Clima, una organización en la cual él es el presidente de la junta directiva.
Fuente: elmundo.es, 12 de Octubre de 2007
-El investigador alemán Gerhard Ertl es el ganador del Premio Nobel de Química
Pese a la imagen popular del científico chiflado mezclando fluidos en su laboratorio, muchas de las reacciones químicas de mayor importancia en el mundo actual no se producen en soluciones líquidas, sino sobre superficies sólidas.
La Academia de Ciencias de Suecia ha querido destacar este
año con el Nobel a la rama de la química que estudia esta clase de reacciones,
de vital importancia en la industria automovilística, la creación de abonos
artificiales o el estudio de la atmósfera terrestre.
El galardonado ha sido uno de los pioneros de la química de superficies, el
científico alemán Gerhard Ertl, nacido en 1936 y perteneciente al Instituto
Fritz Haber, a su vez
adscrito al
Max Planck Gesellchaft,
en Berlín. Ertl fue uno de los primeros en ver, allá por los años 60, las
enormes posibilidades que se abrían en el campo de la química del estado sólido,
por lo que se llevará en su integridad los 10 millones de coronas suecas que
acompañan al Nobel.
El área de aplicación de las investigaciones pioneras de Ertl es tan amplio que
la Academia de Ciencias sueca no ha destacado ningún logro en concreto, y más
bien ha querido premiar toda una carrera y el haber desarrollado un nuevo campo
de acción para futuros investigadores: "Por sus estudios de los procesos
químicos en superficies sólidas", ha sido la fórmula que ha empleado el comité
que concede el Nobel para justificar su decisión de este año.
Los campos de aplicación de esta rama de la Química son enormes. Uno de ellos ha
sido la electrónica. Sus investigaciones han proporcionado la base teórica sobre
la que se basan los semiconductores; lo que es decir, todo el 'hardware'
informático.
Uno de los mayores logros de Ertl se debe a su capacidad para desarrollar nuevas
formas de estudiar las reacciones en superficies sólidas. La Academia de las
Ciencias dice del galardonado que "paso a paso fue creando una metodología para
demostrar cómo diferentes procedimientos experimentales pueden proporcionar una
imagen de las reacciones químicas en la superficie". En este sentido, son
relevantes los experimentos desarrollados con aislamiento en cámaras de vacío o
salas limpias.
Sus primeras investigaciones se basaron en el comportamiento del hidrógeno
gaseoso sobre superficies metálicas, cuyas aplicaciones van desde las placas
solares a las pilas de hidrógeno, es decir, dos eficaces sistemas para obtener
energía limpia.
También el estudio del agujero de la capa de ozono en la estratosfera terrestre
se beneficia de los avances propiciados por Ertl, ya que algunos de los procesos
involucrados en este fenómeno se desarrollan sobre cristales sólidos.
El Nobel de Química se entregará junto al resto de los galardones el 10 de
diciembre, aniversario de la muerte de su fundador, Alfred Nobel. Precisamente
hoy Ertl cumple 71 años. Desde su despacho en el Instituto Fritz-Haber de Berlín
ha agradecido este "segundo regalo de cumpleaños". Dijo que suponía que estaba
entre los candidatos, y que esperaba que el premio "no me cambie mucho la vida,
aunque todos los ganadores me han dicho que sí lo hace", agregó a EFE.
Fuente: elmundo.es, 11 de Octubre de 2007
Las recientes imágenes enviadas por Cassini muestran lagos y mares del satélite de Saturno, Titán. Las nuevas imágenes obtenidas con el radar muestran que el Polo Sur del satélite también tiene lagos.
Estas imágenes fueron obtenidas el pasado 2 de Octubre, en un sobrevuelo que hizo la sonda.
Aproximadamente el 60% del polo norte, por encima de los 60º, ha sido mapeado por el radar de Cassini. Un 14% de la región estudiada está cubierto por lo que los científicos han interpretado como lagos de hidrocarburos líquidos. Según Rosaly Lopes, científico que trabaja con el radar de la sonda. la región reconocida equivale lo que en la Tierra sería Canadá, Groelandia, Escandianavia y el norte de Rusia.
Lagos y mares son muy abundantes en las altas latitudes del hemisferio norte de Titán, donde ahora es invierno. Los científicos creen que la lluvia de etano y metano rellenan estos lagos y mares. También forman ríos y canales. Ahora Cassini se esta desplazando hacia las regiones desconocidas del sur donde es verano. En Titán las estaciones duran 7,5 años.
Los científicos están ahora comprendiendo la formación de los lagos. Posiblemente estos lagos se han formado por actividad volcánica o por erosión cárstica. En esas depresiones se acumula el líquido. Este tipo de lagos es común en la Tierra.
El ciclo hidrológico que llenan estos lagos puede ser similar al existente en la Tierra, lo que hace a este cuerpo celeste ser una rareza en el sistema solar.
Los lagos tienen una gran variedad de tamaños, desde 1 kilómetro cuadrado a 100000 kilómetros cuadrados.
Fuente: ESA, 11 de Octubre de 2007
-El Nobel de Física premia a los descubridores de la "magneto resistencia gigante"
La Real Academia de Ciencias Sueca ha decidido honrar los
trabajos de los dos científicos europeos, que descubrieron "la
magneto-resistencia gigante", conocida en el mundo de los entendidos por sus
siglas "GMR", la tecnología que se utiliza en la lectura de los datos de los
discos duros.
En 1988 ambos descubrieron por separado un efecto físicamente totalmente
desconocido hasta entonces, la GMR. En un sistema como la GMR unos mínimos
cambios magnéticos generan grandes resistencias en la resistencia eléctrica, lo
que se convierte en el instrumento idóneo cuando se trata de convertir en
corriente eléctrica información registrada de forma magnética.
Segundo Nobel 2007
El físico Fert nació en 1938 en Carcassone, Francia, y actualmente trabaja como
director de la unidad mixta de física en el Centro Nacional de Investigación
Científica CNRS/THALES en Orsay. El alemán Grünberg nació en 1939 en Pilsen, la
actual República Checa, y actualmente es profesor en el Instituto de
Investigación de Cuerpos Sólidos del centro de investigaciones de Jülich, en el
oeste de Alemania.
Peter Gruenberg
El año pasado, la Academia premió las investigaciones de dos astrofísicos
estadounidenses en torno al nacimiento de las galaxias.
El Nobel de Física está dotado con 10 millones de coronas suecas (1,1 millones
de euros o 1,5 millones de dólares) y se entregará junto al resto de los
galardones el 10 de diciembre, aniversario de la muerte de su fundador, Alfred
Nobel.
Precursores de los discos duros actuales
Poder controlar las propiedades electrónicas de un
sistema mediante la aplicación de un campo magnético externo dio lugar a una
nueva disciplina, la espintrónica, en la que al uso de la carga eléctrica del
electrón que se hacía en los dispositivos electrónicos, se sumaba el poder
explotar además su espín, lo que les hacía sensibles a los campos magnéticos.
Ejemplo de la relevancia tecnológica de este descubrimiento es su aplicación en
las cabezas lectoras en los discos duros de ordenadores, que utilizan sensores
que detectan los minúsculos campos magnéticos que emanan de los bits de
información escritos en el disco. Poder fabricar una cabeza lectora muchísimo
más sensible implica poder leer bits mucho más pequeños y, por tanto, aumentar
el número de bits que un disco duro alberga. Antes, un ordenador personal podía
tener un disco duro con 20 megabytes de información. Hoy el disco duro de un
ordenador personal, cuya cabeza lectora se basa en la MG, puede albergar
fácilmente 200 gigabytes, 10.000 veces la cantidad de información que hace 20
años.
Fuente: EFE, elpais.com, 10 de Octubre de 2007
-El Nobel de Medicina va a parar a tres científicos estadounidenses
La Academia sueca ha galardonado a los estadounidenses Mario Capecchi (de origen italiano) y Oliver Smithies (nacido en Reino Unido) y al británico Sir Martin Evans con el Premio Nobel de Medicina y Fisiología 2007 por sus trabajos sobre células madre y manipulación genética en modelos animales.
Sus descubrimientos han permitido "poner en marcha una
tecnología de una importancia inmensa para manipular genes en modelos animales",
según ha reconocido el jurado.
La técnica desarrollada por los científicos premiados forma parte de la rutina
diaria de los laboratorios de investigación biomédica de todo el mundo.
Esta tecnología permite a los científicos crear ratones con mutaciones en
cualquier gen que se desee y elegir tanto sobre qué gen se quiere actuar como de
qué forma alterarlo. Su aplicación más común consiste en inactivar un gen
concreto. La técnica ha sido crucial para estudiar las funciones de diferentes
tipos de genes en ratones y crear modelos de enfermedades.
Hasta la fecha, se han manipulado con este método más de 10.000 genes de
roedores, aproximadamente la mitad de los que componen su genoma.
En su anuncio, el comité del Nobel ha dicho que el empleo de la tecnología de
manipulación genética desarrollada por estos investigadores ha arrojado luz
sobre el desarrollo embrionario, el envejecimiento y la enfermedad. "Su impacto
en la comprensión de la función de los genes y sus beneficios para la humanidad
seguirán creciendo en los años venideros", ha señalado el
Instituto Karolinska en un
comunicado.
Mario R. Capecchi, que reside en Salt Lake City, estaba dormido cuando le llamó
por teléfono el comité de los Nobel. "La voz sonaba muy seria, por eso mi
primera reacción fue pensar que esto era real", ha declarado a la agencia de
noticias AP.
Por su parte, Oliver Smithies ha destacado que, después de trabajar en el mismo
proyecto durante más de 20 años, "es muy grato ser reconocido a este nivel".
Además, este experto confía en que el galardón le asegure una financiación más
estable para otras investigaciones.
Ratones manipulados genéticamente
Los tres premiados trabajan en diferentes laboratorios de Estados Unidos y el
Reino Unido. Aunque han desarrollado sus carreras por separado, han mantenido
contactos puntuales desde mediados de los años 80. Cuando en 2001 les
concedieron el Premio Lasker, el llamado Nobel americano, Evans recordaba en la
revista 'Nature' los inicios
de esta colaboración.
En octubre de 1985, el británico pasaba un mes de intensas investigaciones en el
Instituto Whitehead (Massachusetts,
EEUU) cuando recibió una llamada de Smithies. "Le respondí que sólo por él
rompería mi trabajo en el laboratorio", relata. Evans le llevó unas muestras de
cultivos de células madre y pasó un fin de semana en Wisconsin con Smithies. De
vuelta en Cambridge (donde Evans trabajaba por entonces), fue Capecchi quien
pasó una semana recogiendo células y aprendiendo las técnicas.
"El resto de la historia es bien conocida. Se han hecho cientos de mutaciones de
ratón específicamente diseñadas y la técnica, aunque no es trivial, no merece
más que unas cuantas líneas de mención en los artículos de genética", relataba.
En el año 1989 crearon el primer ratón 'knockout', es decir, el primer roedor al
que se le canceló el funcionamiento de un gen durante la fase embrionaria. El
propósito era analizar los efectos de esta desactivación.
La exquisita precisión con que estos investigadores han manipulado el material
genético de roedores fue merecedora del Lasker. El trío de científicos ha creado
modelos animales de enfermedades humanas como la aterosclerosis, el cáncer, la
hipertensión y la fibrosis quística. Esa misma tecnología también contribuye a
avanzar en el conocimiento de procesos biológicos normales.
Predominio estadounidense
En los últimos cinco años el galardón en la categoría de Medicina ha estado
protagonizado casi en exclusiva por científicos estadounidenses. En 2006 la
Academia sueca reconoció los trabajos en el campo de la genética de Andrew Z.
Fire y Craig C. Mello, que descubrieron la función del ARN de interferencia.
En 2005 el Nobel premió a los australianos Barry Marshall y Robin Warren,
descubridores de la bacteria 'Helicobacter pylori', relacionada con algunos de
los principales problemas de estómago.
El Nobel de Medicina en 2004 premió las investigaciones de Richard Axel y Linda
Buck sobre el sentido del olfato.
Un año antes, en 2003, Peter Mansfield (británico) y Paul Lauterbur
(estadounidense) lo compartieron por sus hallazgos sobre la resonancia
magnética.
En la edición de 2002, Sydney Brenner, Robert Horvitz y John Sulston
compartieron los 10 millones de coronas suecas del galardón (algo más de un
millón de euros) por sus estudios sobre los mecanismos genéticos que controlan
la muerte celular programada (apoptosis).
Fuente: elmundo.es, 9 de Octubre de 2007
-Craig Venter, el padre del genoma, anuncia que ha logrado sinterizar un cromosoma artificial
Craig Venter, el polémico investigador del ADN implicado en la carrera para descifrar el código genético humano, ha conseguido engendrar un cromosoma sintético a partir de elementos químicos en su laboratorio, como paso previo a la creación de la primera forma de vida artificial de la Tierra.
[Una portavoz del centro de investigación del científico, Heather Kowalski, matizó el sábado a EL MUNDO que "no estamos preparando ningún anuncio sobre vida sintética. Cuando este trabajo haya terminado, se escribirá un artículo científico y entonces haremos un anuncio público. Es probable que todavía pasen meses hasta que el doctor Venter realicen ese anuncio", informa Pablo Pardo desde Washington.]
Una vez que el hallazgo se publique oficialmente, no cabe duda de que despertará un acalorado debate sobre la ética relacionada con la creación de nuevas especies, y podría abrir las puertas a nuevas fuentes de energía y técnicas para combatir el calentamiento global.
Venter explicó que pensaba que este hito histórico sería "un paso muy importante en la historia de nuestra especie. Vamos a pasar de la lectura de nuestro código genético a la capacidad de escribirlo, algo que nos facilita la hipotética capacidad de hacer cosas jamás imaginadas hasta el momento".
De momento, un equipo de 20 de los mejores biólogos moleculares reunidos por Venter, y dirigido por el galardonado premio Nobel Hamilton Smith, ya ha creado un cromosoma sintético, una hazaña de virtuosa bioingeniería jamás lograda hasta ahora. Mediante el uso de sustancias químicas fabricadas en el laboratorio, han conseguido coser minuciosamente los fragmentos de un cromosoma de 381 genes de longitud, y que contiene 580.000 pares de bases de código genético.
La secuencia de ADN está basada en la bacteria Mycoplasma genitalium, que el equipo redujo a los elementos básicos necesarios para constituir vida, eliminando una quinta parte de su constitución genética. El cromosoma de reconstrucción genética total, que el equipo ha bautizado como Micoplasma laboratorium, fue marcado con tinta para su fácil reconocimiento.
A continuación, se trasplantó en la célula de una bacteria viva, y en la fase final del proceso, se espera que tome el control de la célula, y que por tanto se convierta en una nueva forma de vida. El equipo de científicos ya ha logrado transplantar con éxito el genoma de un tipo de bacteria en la célula de otra, cambiando así la especie de la célula. Venter aseguró tener "confianza al 100%" en que la misma técnica funcionará en el cromosoma creado de manera artificial.
La nueva forma de vida dependerá de su capacidad de replicarse por sí misma y de metabolizar en la maquinaria molecular de la célula en la que haya sido inyectada, y en ese sentido, no será una forma de vida totalmente sintética. Sin embargo, su ADN será artificial, y es el ADN lo que controla la célula, y se cree que es la parte constructora de la vida.
Venter afirmó haber llevado a cabo una detallada revisión bioética antes de completar el experimento. "Creemos que se trata de buena ciencia", explicó. Además, ha acentuado la controversia que rodea a su potencial descubrimiento mediante la solicitud de una patente para la bacteria sintética.
Pat Mooney, director de la organización de bioética canadiense Grupo ETC, considera que este avance es un desafío inmenso para que la sociedad debata los riesgos implicados. "Los gobiernos y la sociedad en general están muy atrasados en este tema. Ésta es una voz de alarma: ¿qué significa crear nuevas formas de vida en una probeta?".
Explicó también que Venter estaba formando un "chasis sobre el que construirlo prácticamente todo. Podría ser una contribución a la Humanidad, mediante el desarrollo de nuevos fármacos, o una grave amenaza, si se utilizara para construir armas biológicas mortíferas". Venter cree que los genomas de diseño tienen un enorme potencial si se controlan adecuadamente.
A largo plazo, espera que puedan constituir fuentes de energía alternativa antes impensables. Según especula, podría ser posible crear bacterias sintéticas que ayudarían a limpiar el exceso de dióxido de carbono, contribuyendo así a solucionar el problema del calentamiento global, o producir combustibles como el butano o el propano, completamente a partir del azúcar.
El anunció de Venter ya suscitó el sábado algunas reacciones críticas. El genetista católico italiano Angelo Vescovi aseguró que el investigador estadounidense "no ha descubierto absolutamente nada nuevo" y que "no ve un Frankenstein a las puertas". En declaraciones a Radio Vaticano, este experto explicó que "lo que ha logrado es un organismo genéticamente modificado de algo que ya existía, no se trata de la creación de un nuevo organismo".
Fuente: elmundo.es, 8 de Octubre de 2007
-Hallan una estrella gemela al sol
Un equipo de
astrónomos norteamericanos y australianos acaba de anunciar el descubrimiento de
la estrella más parecida al Sol encontrada hasta ahora. Tanto, que ambas podrían
considerarse como «gemelas», a pesar de que están separadas por doscientos
millones de años luz.
La similitud entre el
Sol y HIP56948 es tal que no ha sido posible apreciar entre ambas diferencias de
tamaño, masa, temperatura o composición química. Se trata del lugar ideal para
la búsqueda de planetas similares a la Tierra, donde podría haber vida.
Otras estrellas parecidas al Sol habían sido identificadas antes de ahora, entre
ellas 18 Scorpii, HD98618 y HIP100963. Pero las tres tenían en común el hecho de
tener una cantidad de litio muy superior a la que tiene el Sol. Por el
contrario, HIP56948 es idéntica al Sol incluso en eso. Un detalle clave, ya que
las observaciones han demostrado que cuanto menos litio contenga una estrella,
menos violentas y continuadas serán las erupciones en su superficie y, por
tanto, la radiación letal con la que bombardean sus respectivos planetas.
Los científicos no saben si ser igual que el Sol es una condición necesaria para
que los planetas de una estrella puedan albergar vida, pero sí están seguros de
que es el mejor punto de partida para empezar la búsqueda. Después de todo, la
única civilización conocida, la nuestra, ha surgido al amparo de una estrella de
ese tipo. A partir de ahora, pues, todos los ojos e instrumentos se dirigirán
hacia HIP56948. Podría ser el final de nuestra larga soledad en el universo.
Fuente: ABC, 5 de
Octubre de 2007
-Japón lanza un satélite a la Luna
Este primer explorador lunar japonés coloca al país en la carrera espacial con Estados Unidos, Rusia, China e India. La agencia espacial japonesa (Jaxa) informó que la sonda, llamada Kaguya, desplegará dos pequeños satélites que, en un año, recogerán información sobre el origen y la evolución de la Luna.
La sonda, lanzada al espacio en septiembre, es descrita por los científicos japoneses como la misión lunar más compleja desde el programa Apollo, de la Nasa, en las décadas de los años 60 y 70, cuando los astronautas caminaron sobre el satélite.
"Creemos que es un paso grande", dijo Yoshisada Takizawa, uno de los administradores del proyecto de Jaxa.
Lanzamiento de la sonda
El explorador, con un peso de 3 toneladas, tiene el nombre formal de Selena, pero su apodo, Kaguya, hace referencia a una princesa en un cuento popular que ascendió a la Luna..
La principal unidad del explorador estará colocada al final a 100 km sobre la superficie de la Luna.
Los otros dos satélites -más pequeños- se deplegarán en órbitas polares, recogiendo datos geológicos y de topografía y medio ambiente.
Japón lanzó su primer satélite en 1970, pero en años recientes su programa espacial ha sufrido serios reveses debido a problemas técnicos y financieros.
Kaguya deja a la zaga a China, que en 2003 se convirtió en el primer país asiático en poner un astronauta en el espacio. Tanto China como India esperan lanzar sus sondas lunares en los próximos meses.
Jaxa ha estado trabajando para expandir sus actividades. Su objetivo declarado es lograr vuelos espaciales tripulados en el año 2020.
Fuente: BBC Mundo, 5 de Octubre de 2007
-Concedidos los Ig Nobel del año 2007
Brian Wansik,premiado por con el Ig Nobel de nutrición por su estudio sobre la saciedad producida cuando se toma una sopa en un recipiente sin fondo |
Estatuilla del Ig Nobel. Hace alusión a la clásica pregunta sin respuesta: ¿que fue antes, el huevo o la gallina? |
Los premios Ig Nobel son a los premios Nobel lo que los premios Razzie son a los premios Oscar; o sea, su parodía. Cada año, y por las mismas fechas que se conceden los Nobel, la revista humorística científica 'Annals of Improbable Research' (AIR; es decir, 'aire' en mayúsculas) premia las investigaciones científicas más disparatadas, inútiles o, simplemente, sorprendentes. Los premios se llaman Ig Nobel porque en inglés esas dos palabras juntas significan 'innoble'.
Lo realmente interesante de los premios Ig Nobel es que los estudios premiados son serios. Es decir, han sido publicados en revistas científicas serias -quizás no de primera línea-, por científicos serios, y como resultado de investigaciones serias. O, al menos, eso se supone.
Los premios fueron entregados en la Universidad de Harvard, una de las más prestigiosas del mundo. Este año los galardonados han sido los siguientes:
El premio Nobel Ig de la paz se lo llevó el Laboratorio de la Fuerza Aérea Patterson Wright, en Dayton (Ohio), que sopesó la posibilidad de fabricar una 'bomba gay' para provocar la homosexualidad en el enemigo y con ello minar la moral y la disciplina de las tropas. El proyecto fue presentado con toda seriedad en 1994, con un presupuesto previsto de 7,4 millones de dólares, según un documento secreto que salió a la luz en 2005.
España ha ganado un premio Ig Nobel. En concreto, en 'lingüística'. Juan Manuel Toro, Josep Trobalon y Nuria Sebastián Gallés, de la Universidad de Barcelona, realizaron un fascinante estudio que demuestra que las ratas a veces no distinguen entre el japonés y el holandés cuando las personas hablan esas lenguas al revés.
El galardón de 'aviación' se lo llevaron los argentinos Patricia Agostino, Santiago Plano y Diago Golombek, por descubrir que los hamsters se recuperan mejor del desfase horario si previamente toman Viagra.
Aunque las posibilidades médicas del anterior estudio son considerables, AIR ha decidido otorgar el premio Ig Nobel de 'medicina' al británico Brian Witcombe y el estadounidense Dan Meyer por un análisis de los efectos secundarios de introducirse espadas por la garganta. Llegaron a la conclusión de que ocasionaban irritaciones. Al respecto, presentaron el caso de un hombre que se hizo daño en el esófago y al que se le inflamó la membrana protectora de los pulmones "cuando le distrajo un papagayo que tenía en el hombro y que se estaba portando mal". También relataron el de una bailarina del vientre que sufrió una hemorragia "cuando una persona le colocó billetes en el cinto, lo que hizo que se cortase con las tres cuchillas que tenía en el esófago".
La japonesa Mayu Yamamoto ganó el premio de 'química' por su método para extraer esencia de vainilla de los excrementos de la vaca.
Por su parte, L. Mahadevan, de la Universidad de Harvard, y Enrique Cerda Villablanca, de la Universidad de Santiago, en Chile, fueron reconocidos en 'física' por su estudio sobre cómo se arrugan las sábanas.
En 'economía' ganó el taiwanés Kuo Cheng Hsieh, que patentó un dispositivo que lanza una red para capturar a atracadores de bancos.
La holandesa Johanna van Bronswijk obtuvo el premio de 'biología' por realizar un censo de los ácaros, arañas, crustáceos, bacterias, algas, helechos y hongos que residen en las camas de los seres humanos.
El Ig Nobel de la literatura (inglesa) ha recaído en Glenda Browne, de Australia, por su estudio de la palabra 'the' (se traduce, según los casos, por 'el', 'la', 'los' y 'las') y los problemas que causa su indexación.
Y en 'nutrición' ganó Brian Wansink, de la Universidad de Cornell, por estudiar el apetito de las personas, al darles un plato de sopa sin fondo en el que nunca se acababa su contenido. Wansik no sólo estuvo en la ceremonia, sino que se prestó de buen grado a hacer una exhibición pública de su invento, vestido con un espléndido delantal de cocina rojo.
Muchos de los premiados asistieron a la ceremonia y recogieron su galardón, una estatuilla sin valor de una gallina que trata de comer un enorme huevo del que está saliendo; símbolo de la pregunta de imposible respuesta de qué fue antes, el huevo o la gallina.
Fuente: elmundo.es, 5 de Octubre de 2007
-El agujero de la capa de ozono se reduce un 30% con respecto a 2006
El agujero de ozono sobre la región antártica se ha reducido este año en un 30 por ciento con respecto al récord registrado en 2006, informó la Agencia Espacial Europea (ESA).
Según las mediciones
realizadas por el satélite Envisat de la ESA, este año la pérdida de ozono
alcanzó un tope de 27,7 millones de toneladas, frente a los 40 millones del año
pasado, indicó la agencia en un comunicado.
Para los científicos, el hecho de que el agujero sea inferior este año no es una
señal de una tendencia a largo plazo sino que se debe a las variaciones
naturales de temperaturas y de dinámica atmosférica, según la ESA.
Para conocer la pérdida de ozono se miden la superficie y la profundidad del
agujero. El espesor de la capa se mide en unidades Dobson. Este año el área del
agujero -donde el ozono es inferior a 220 unidades Dobson- es de 24,7 millones
de kilómetros cuadrados, o sea, aproximadamente la superficie de Norteamérica,
mientras que el valor más bajo de la capa de ozono ronda las 120 unidades Dobson,
precisó la ESA.
"Aunque el agujero es algo más pequeño que de costumbre, no podemos llegar a la
conclusión de que la capa de ozono ya se está recuperando", advirtió un
científico del
Instituto
Meteorológico Real de Holanda, Ronald van der A, citado en la nota.
El investigador explicó que este año el agujero de ozono estaba menos centrado
en el Polo Sur que en otros años, lo que le permitió mezclarse con un aire más
caliente, con la consiguiente reducción de su crecimiento.
Fuente: EFE, 4 de Octubre de 2007
-Las células madre de las células óseas potencian la metástasis en el cáncer
Las células madre son
como el doctor Jekyll y Mr. Hyde. Ese preciado tesoro biológico en el que se
fundamenta la nueva medicina regenerativa posee también su lado oscuro.
Científicos del Instituto de Investigación Biomédica Whitehead de la
Universidad de Cambridge (EE.UU.),
dirigidos por el prestigioso investigador Robert Weinberg, acaban de mostrarlo.
La principal fuente
de las células madre mesenquimales es la médula ósea. Son células multipotentes,
es decir, poseen la capacidad de convertirse en casi cualquier tejido y reparar
daños del organismo. Pero esas propiedades regenerativas que las hacen tan
valiosas también las convierten en un enemigo poderoso para las personas con
cáncer de mama. El grupo de Weinberg ha demostrado que estas células madre ponen
en marcha la metástasis, el proceso por el que un cáncer se extiende a otros
órganos y en el que reside la clave para reducir la mortalidad de la enfermedad.
Hoy en la revista científica «Nature»
detallan cómo al entrar en contacto con las células tumorales estimulan la
secreción de una quimioquina. Esta proteína -CCL5- ayuda a las células
cancerosas a salir al torrente sanguíneo, donde encuentran una vía perfecta para
llegar hasta otros órganos sanos.
El peligro del efecto reparador
Las células mesenquimales circulan por el sistema sanguíneo, como «sanitarios»
que esperan una señal para acudir con rapidez y reparar el daño. El problema
surge cuando la llamada procede de un tumor. En el interior del estroma -el
armazón celular- del tumor es donde entran en contacto las células madre
mesenquimales con las cancerosas y donde se desencadena la metástasis. El grupo
de Weingberg reprodujo ese proceso en el laboratorio. Primero mezclaron células
de cáncer de mama de pacientes con células madre de médula ósea, también
humanas. Ese cóctel se inyectó en ratones. La inyección provocó la aparición de
un cáncer de mama en los ratones y en poco más de doce semanas, el tumor se
extendió a sus pulmones.
En otro grupo de ratones, los investigadores inyectaron células de cáncer de
mama, pero sin células madre. Ellos también desarrollaron un cáncer de mama,
pero con menor velocidad. Y, lo más importante, el cáncer no se extendió a los
pulmones. No hubo metástasis.
«Demostramos que cuando las células madre mesenquimales se mezclan con otras
células cancerosas en proceso de metástasis se incrementa el potencial
metastásico del tumor», escriben en «Nature». El contacto entre ambas estimula a
las células madre para liberar la quimioquina CCL5 que, de alguna manera, enseña
a las células tumorales a crecer rápidamente y a extenderse hacia otros tejidos
sanos.
También en otros tumores
De momento, este mecanismo sólo se ha probado con cáncer de mama. Aunque
Weinberg piensa que «es probable, aunque todavía especulativo» que todo este
proceso se repita de la misma manera con otros tumores y otras metástasis.
El experimento del grupo de Cambridge muestra una nueva ruta de comunicación
entre las células mesenquimiales y los tumores, aunque no es el único proceso
que dirige la metástasis. El estudio de Weinberg se une a los trabajos del
científico español Joan Massagué para intentar explicar el complicado proceso de
la metástasis.
El pasado mes de abril un equipo de investigadores, liderado por Massagué,
identificó un grupo de cuatro genes «multifuncionales» que también intervienen
en la metástasis de pulmón causada por el cáncer de mama. Uno de los puntos
fuertes de esta investigación es que se podían esperar beneficios clínicos casi
inmediatos.
No se había descubierto sólo una nueva diana. Se identificaron los genes y se
comprobó que una combinación de fármacos era eficaz para luchar contra esta
metástasis. Massagué también dijo entonces tener la esperanza de que esos
medicamentos fueran útiles en otros tumores con metástasis diferentes en otros
órganos.
Las células madre, sanas o tumorales, son protagonistas de la investigación
oncológica. El propio Massagué advertía el miércoles, durante una reunión de
investigación oncológica celebrada en Barcelona, que había que prestarlas
atención. Advirtió que las células madre tumorales son capaces de reproducirse
indefinidamente como lo hacen las células madre sanas. Y este mecanismo de
renovación constante de los tejidos puede ser la causa del fracaso de los
tratamientos actuales contra el cáncer. La clave está en encontrar nuevas dianas
terapéuticas.
Fuente: ABC, 4 de Octubre de 2007
-Arranca la "guerra del Ártico"
La semana pasada, el Senado de Estados Unidos puso en
marcha una comisión aparentemente técnica y aburrida sobre "el tratado de la Ley
del Mar". Expertos en política internacional, en derecho marítimo y militares
desfilarán por la Cámara para ver si EE.UU. ratifica, 25 años después, este
tratado internacional que regula y concede el derecho sobre las aguas
territoriales. ¿Por qué ahora Estados Unidos se interesa por un tratado de
Naciones Unidas que ha
despreciado desde 1982? La respuesta está en el círculo polar ártico.
La Ley del Mar establecía un plazo para que, a partir de
2009, los países pidiesen extender las 200 millas que la ONU les concedió como
aguas territoriales. "Si un país demuestra que su plataforma continental, el
lecho marino anexo al continente, se extiende más allá de las 200 millas, puede
reclamar su soberanía", explica Kim Holmen, director del
Instituto Polar Noruego, el organismo oficial
del país sobre el Ártico.
Así que la Administración de Bush necesita ratificar el tratado pronto porque,
como señala Holmen, ya han comenzado los estudios geológicos sobre su fondo
marino para demostrar que su plataforma continental llega hasta el Polo Norte y
así reclamar su parte del Ártico. Al ratificar el tratado más tarde, EE.UU.
tiene más años para presentar los estudios. Pero si tarda, puede encontrarse con
que otros países ya han logrado la soberanía. Hay prisa.
No es el único país. Ralph Rayner, director del
Instituto de Ingeniería Marina de Londres y
reputado consultor para las petroleras que quieren operar entre hielos, afirma
que "todos los países involucrados, Noruega, Rusia, Estados Unidos, Canadá y
Dinamarca, por Groenlandia, tienen en marcha esos estudios para reclamar su
soberanía hasta el polo".
Los estudios son complicadísimos -hay que investigar el lecho marino; a
temperaturas bajo cero y durante meses enteros es imposible porque la oscuridad
es total-. Es difícil, pero no imposible, demostrar que esa plataforma existe,
ya que la cordillera submarina de Lomonosov recorre el Ártico de punta a punta,
tiene casi 4.000 metros de alto y sus picos se encuentran a menos de 1.000
metros de la superficie. "Sale de Groenlandia y llega hasta Rusia, y a todos los
países les toca una parte", explica Holmen.
Aprovechando esa cordillera, Rusia colocó una bandera bajo el Polo Norte el
pasado 3 de agosto y reclamó su soberanía. Noruega prepara su informe, los
daneses trabajan en las extremas condiciones de Groenlandia y Canadá lleva
cuatro años recabando datos sobre su lecho marino para exigírselo a la ONU.
Sólo Rusia ha publicado sus pretensiones de dominar el Ártico hasta el Polo
Norte, pero, conociendo el lecho marino y la situación, nadie duda de que "todos
pedirán hasta el mismísimo Polo Norte" para intentar repartirse la tarta y
acabar con la actual indefinición.
Pablo Pareja, profesor de Relaciones Internacionales de la
Universidad
Pompeu Fabra y autor de un estudio sobre los
límites del Ártico y sus implicaciones legales, afirma que el Polo no es de
nadie: "El Ártico es un territorio en disputa, en proceso de regulación. No es
de nadie, pero tampoco son aguas internacionales. Durante la guerra fría hubo
gran interés, porque era una plataforma magnífica para lanzar misiles entre
EE.UU. y la URSS, pero acordaron dejar el problema congelado. Ahora resurge por
la proximidad de 2009, cuando comienzan las reclamaciones sobre nuevas aguas
territoriales y porque ningún país puede presentarse ante su opinión pública sin
reclamarlo".
Pareja asegura que la disputa puede tardar años en resolverse, ya que puede
desbordar a la ONU: "No sé si Naciones Unidas será capaz de decidir algo o dirá
que se pongan de acuerdo entre ellos. EE.UU. tramitará su adhesión a la Ley del
Mar, pero a la vez intentará alcanzar un acuerdo con Rusia en el Consejo Ártico
y dárselo hecho a la ONU antes que jugárselo a lo que decidan los geólogos de la
ONU". Aunque en Naciones Unidas hay mucha política, en las decisiones influyen
mucho las opiniones de los geólogos.
Además de la fecha marcada por la Ley del Mar, hay otros factores que explican
esta disputa, unos energéticos y otros ambientales, pero que van de la mano.
Los energéticos comienzan con un informe del servicio geológico de Estados
Unidos de 2000 que afirmó que "el Ártico alberga un 25% de las reservas
desconocidas de petróleo y gas". Rayner explica que la cifra "es más una
adivinación que un cálculo", pero la frase sirvió para excitar a los jefes de
Estado de la zona. Explotar esas reservas será complicado, pero, con el precio
por las nubes y las reservas agotándose, cada vez más factible.
El pasado 13 de septiembre se encendió por primera vez la chimenea de la planta
de gas natural licuado que la sociedad estatal noruega Statoil, junto a Gaz de
France y Total, construye desde 2002 en Hammerfest, la ciudad más al norte del
país -ellos dicen que del mundo, pero hay varios lugares que se colocan ese
cartel-. La planta extrae el gas mediante un sistema submarino a 130 kilómetros
de la costa y 250 metros de profundidad. Se trata de la mayor planta de gas
licuado de Europa y la más al norte del mundo.
La exploración ha comenzado por la costa noruega porque la corriente del golfo
de México hace que el clima sea menos frío que en Groenlandia o Canadá.
Hammerfest se ha convertido en un ejemplo perfecto de la nueva fiebre del oro en
el Ártico. Allí, 2.700 profesionales de medio mundo (hay ingenieros y técnicos
rusos, canadienses y finlandeses, y personal poco cualificado hasta de
Afganistán) han trabajado por enormes sueldos y bajo un frío infernal para
levantar la planta. En el pueblo, de 9.000 habitantes, sólo hay dos bares y en
uno de ellos, el Kai Kanteen, las pintas de Mack, la cerveza del Ártico, se
tiran sin cesar. No hay apenas mujeres y hay tantas drogas y peleas como en
Berlín. En el centro del pueblo, una estatua al oso polar recuerda que un día
fue el origen de las primeras expediciones para conquistar el polo.
Al este de ese yacimiento, ya en la zona rusa, la empresa estatal Gazprom se
apresta a explotar el yacimiento de Stockman, una enorme bolsa de gas. Las
principales petroleras están perforando allí en busca de yacimientos y en medio
del conflicto, ya que Noruega afirma que parte de esas aguas son suyas, no
rusas. Lo llaman "la zona en disputa", y Statoil intenta llegar a algún acuerdo
con Gazprom para explotarlo conjuntamente. "Tratándose de Rusia y Noruega, lo
normal es que Gazprom comience a explotar el yacimiento y luego el conflicto se
dirima en los tribunales", explica Pareja. La zona en disputa es la primera,
pero habrá muchas más.
"No hay plataformas capaces de soportar la presión del hielo, así que estamos
diseñando dispositivos submarinos o que no sean permanentes y que funcionen
cuando en verano no haya hielo. Estos yacimientos son mucho más caros que los
normales, pero el petróleo llegará a 100 dólares pronto -ahora está en 80, y en
2003, en 28- y cada vez la restricción será menor", explica Rayner, cuya empresa
hace trabajos de ingeniería sobre los impactos del cambio climático en los
sistemas de explotación desde el golfo de México hasta el Ártico. Aunque muchas
petroleras niegan el cambio climático, en sus planes a medio y largo plazo sí
que lo tienen en cuenta.
Y es que el calentamiento global es el segundo factor que ha acelerado la
carrera por el polo. El Ártico es la zona del mundo más vulnerable al
calentamiento -al fundirse el hielo, deja paso al agua, que, en vez de reflejar
la luz solar, la absorbe y funde más hielo-. El pasado 16 de septiembre registró
el mínimo histórico de extensión de hielo, muy por debajo del mínimo de 2005.
"El deshielo se está acelerando. Si esto no es el punto de no retorno, no sé
cómo será", sostiene el investigador principal del
Centro Nacional del Hielo de EE.UU., Mark
Serreze, cuyos satélites miden desde 1979 casi a diario la extensión del hielo.
El deshielo se ha acelerado y en verano de 2040 puede quedar completamente libre
de hielo (otros estudios dicen que en 2070).
Este año, por primera vez, ha quedado abierto durante unas semanas el Paso del
Noroeste, una ruta que acorta un 23% el trayecto entre Tokio y Nueva York. El
del noreste, que cruza por Siberia, sigue cerrado, pero se abrirá en unos años.
Y ahí surge la tercera gran disputa, tras la ampliación de las aguas
territoriales y la lucha por las reservas de gas y petróleo: quién controlará
las rutas marítimas cuando estén abiertas.
Desde 1973, Canadá sostiene que el Paso del Noroeste es suyo. Los barcos cruzan
entre islas canadienses y sobre la plataforma continental canadiense. Así que es
canadiense, es su argumento. El primer ministro, el conservador Stephen Harper,
se plantó el pasado 10 de agosto en Resolute Bay, un remoto asentamiento de 200
personas (inuits, empresarios del turismo de aventura e investigadores) para
anunciar que construiría allí una base militar con 1.000 personas.
"El Gobierno canadiense comprende que el primer principio de la soberanía del
Ártico es o la usas o la pierdes", dijo entonces en pleno círculo polar, en el
centro del paso del noroeste, cerca de las tumbas de una expedición que en 1845
falleció allí buscando el paso. Las cosas han cambiado tanto que este verano,
por primera vez, los habitantes de Resolute apenas han visto hielo desde sus
ventanas. Canadá construirá, además, tres nuevos rompehielos para controlar la
ruta.
El nuevo paso sólo será accesible unos meses al año, pero puede permitir en unas
décadas sacar con petroleros o gaseros los recursos de esas prospecciones. Según
Rayner, ya hay empresas noruegas y rusas diseñando "buques contenedores
semirrompehielos, porque siempre puede haber un iceberg".
La batalla por el Ártico está ya abierta y, como explica Pareja, "habrá
vencedores y vencidos".
-Cuidado, astrónomos, con la energía oscura
La búsqueda de una verdad más profunda, una teoría fundamental que yace bajo todas las demás, es una poderosa fuerza motivadora en el campo de la física. Pero no es la única. Igualmente válidos son la curiosidad y el sobrecogimiento ante las riquezas de la naturaleza, por el modo en que procesos que aparentemente no guardan relación pueden producir orden, belleza y diversidad a partir del caos.
La primera motivación es evidente para los físicos de
altas energías, donde la idea de encontrar una teoría del todo mantiene ocupados
a muchos teóricos con talento. La segunda se encuentra en campos como la
biología evolutiva y la astronomía. Hasta hace poco, los dos planteamientos
apenas interactuaban, pero ahora el descubrimiento de la energía oscura está
creando un matrimonio de conveniencia entre los físicos de altas energías y los
astrónomos de observación. Como cualquier matrimonio de este tipo, éste presenta
peligros además de oportunidades.
La energía oscura, que parece impulsar la expansión acelerada del universo, es
un área de interés teórico fundamental para los físicos de altas energías.
Explorarla de manera experimental requerirá mediciones precisas de la historia
de la expansión del universo y el crecimiento de la estructura cósmica. Esto
exige datos de observación de enormes muestras de galaxias y supernovas, y los
astrónomos están colaborando con los teóricos de altas energías para diseñar los
estudios adecuados.
El problema es que la física y la astronomía hacen progresos por caminos muy
diferentes. En la física gobiernan los experimentos controlados, pero los
astrónomos observan lo que la naturaleza les muestre. Me temo que aplicar a
ciegas el diseño experimental de la física a los proyectos astronómicos corre el
riesgo de un costoso fracaso, además de socavar la base metodológica de la
astronomía y su atractivo para los jóvenes científicos y la ciudadanía.
Tradicionalmente, los instrumentos astronómicos fomentan una variedad de usos.
El telescopio espacial Hubble es un ejemplo clásico de cómo un nuevo
observatorio puede forzar los límites de lo que podemos observar ampliando la
sensibilidad, la cobertura de la longitud de onda o la resolución. El Hubble lo
ha utilizado toda la comunidad de astrónomos. Sin embargo, no puede decirse lo
mismo de la WMAP (siglas de Wilkinson Microwave Anisotropy Probe, la sonda
Wilkinson de anisotropía en microondas), que ha trazado la radiación de fondo
del Big Bang. Como un experimento tradicional de física, fue diseñada y puesta
en funcionamiento con éxito por un grupo muy unido de científicos para abordar
una tarea específica. El gran impacto de sus resultados ha animado a mucha gente
a esperar un éxito similar de los estudios sobre la energía oscura.
Esto se expone al desastre. En primer lugar, no es posible predecir la precisión
de tal estudio, ya que depende de factores inciertos, como la naturaleza de las
supernovas cuando el universo tenía la mitad de la edad que tiene en el
presente. Si no tenemos suerte, podría mejorar sólo ligeramente nuestra
comprensión de la energía oscura. El dinero se habrá desperdiciado y se culpará
a los astrónomos.
Aunque dichos proyectos sí nos ayuden a comprender la energía oscura, no
avanzarán en otras áreas de la astronomía, así que hacer demasiado hincapié en
ellos puede ralentizar el desarrollo de nuestro campo. Los nuevos observatorios
posibilitan los descubrimientos y los conocimientos que impulsan la astronomía.
El apoyo a los estudios de la energía oscura puede entorpecer los observatorios
de rayos X, de radio y de longitudes de onda en ultravioleta o infrarrojo.
Finalmente, este cambio de enfoque se opondría a la cultura subyacente de la
astronomía. Si nos desplazamos hacia grandes proyectos a largo plazo como los
que dominan la física de altas energías en la actualidad, el trabajo se
desarrollará en grandes equipos y se centrará en tareas técnicas como garantizar
la calidad de los datos. Los mejores científicos jóvenes verán pocas
oportunidades de dejar su impronta y puede que se vayan a otra parte. Dar
prioridad a una cuestión fundamental en lugar de la variedad tradicional de
temas también hará que la astronomía sea menos atractiva para el público
general, con lo que se socavará el apoyo de los contribuyentes a las caras
instalaciones que necesitamos para dedicarnos a nuestra ciencia.
Tenemos que aplicar un exhaustivo análisis de costes y beneficios a los
proyectos de energía oscura. Debemos reconocer las diferencias culturales entre
la física de altas energías y la astronomía, y estar dispuestos a sostener que
los descubrimientos astronómicos -que el universo se expande, que los elementos
químicos estaban presentes en las estrellas, que existen los agujeros negros,
que hay planetas orbitando alrededor de otras estrellas- no son menos
importantes para la humanidad que aclarar la naturaleza subyacente de las
fuerzas y las partículas.
Cualquier nuevo proyecto astronómico de gran envergadura debería diseñarse para
ampliar las fronteras en muchos ámbitos de la astronomía. Por ejemplo, los
estudios de las supernovas para rastrear la historia de la expansión del
universo deberían almacenar suficiente información como para explorar el
mecanismo de funcionamiento de las supernovas. Y deberíamos garantizar
oportunidades para los científicos jóvenes fomentando un conjunto diverso de
objetivos científicos y concediendo inequívocamente el mérito a los responsables
de las principales reflexiones científicas.
Si no hacemos estas cosas, podemos perder tanto los cerebros creativos como los
instrumentos que necesita nuestro campo para conservar su efervescencia. La
energía oscura es el flautista de Hamelin, que atrae a los astrónomos
desviándolos de su propio terreno para seguir a los físicos de altas energías
por el camino de la extinción profesional.
Fuente: El País Digital, 3 de Octubre de 2007
Déjame ver tu cerebro... y te diré quién eres. Te diré, en
concreto, a quién votas; si eres sincero o mentiroso; o si, como Enrique
Iglesias, eres capaz de tener una experiencia religiosa. Y si además de ver tu
cerebro me dejas tocarlo, podré inducirte desde un orgasmo a un viaje astral.
Cantantes y metáforas aparte, los propios neurocientíficos advierten de que
conviene tomarse en serio las posibles consecuencias derivadas del hecho de que
empiezan a investigarse en el cerebro las bases biológicas, el hardware, de
cuestiones tan íntimas y en apariencia intangibles como la ideología o la
personalidad. No en vano la neuroética es un área en auge.
Los autores de un trabajo publicado recientemente en la
revista
Nature Neuroscience
aseguraban haber hallado diferencias en el funcionamiento de un cerebro liberal
frente a otro conservador. En pocas palabras: el primero reacciona mejor ante
los cambios, mientras que el segundo es más rígido.
Los investigadores hicieron electroencefalogramas a 43 hombres y mujeres
diestros mientras reaccionaban ante un estímulo que solía repetirse, pero a
veces cambiaba. Cuando ocurría esto último, en la gran mayoría de los sujetos
que previamente se habían declarado liberales se detectaba una actividad más
intensa en un área de la corteza cerebral relacionada con los conflictos, lo que
sugiere "una mayor sensibilidad neurocognitiva" a los cambios, escriben David
Amodio y su grupo en su artículo. Se ve, por tanto, la firma de la ideología en
el cerebro.
"Esta investigación demuestra que se empieza a dilucidar cómo un producto
abstracto, aparentemente inefable de la mente, como la ideología, tiene su
reflejo en el cerebro humano", dice Amodio. ¿Alguien se escandaliza por esta
afirmación? ¿Alguien piensa que es absurdo que pueda verse algo así en un
escáner cerebral? No los neurocientíficos, desde luego. Para ellos está
clarísimo, y es perfectamente esperable, que cerebros que piensan distinto, que
reaccionan distinto ante un mismo estímulo, funcionen de forma diferente; medir
esa diferencia es sólo cosa de tener el instrumento adecuado.
"Todo, y todo es todo, está en el cerebro", dice Alberto Ferrús, director del
Instituto Cajal de Neurociencias del CSIC,
en Madrid. "La sensación de estar enamorado o enfadado, la religión... todo se
traduce en moléculas, en algo físico que hay en el cerebro".
En los años noventa, cuando aparecieron las primeras técnicas para estudiar el
cerebro humano en vivo y en directo -en acción-, se supo que la corteza cerebral
de muchos ciegos muestra diferencias apreciables respecto a la corteza de
personas que ven; que el cerebro de los taxistas tiene más sitio para
información espacial; o cómo actúa el cerebro de los ajedrecistas al jugar. ¿Qué
hay de raro en dar un paso más y buscar la marca de la mentira o la
espiritualidad? Nada de nada, dice Ferrús.
Pero volvamos al trabajo sobre los cerebros políticos. En él se hacen las
siguientes analogías: pensamiento menos rígido equivale a ideología liberal;
pensamiento menos rígido equivale a más actividad en áreas cerebrales implicadas
en afrontar conflictos; y, por tanto, más actividad en áreas cerebrales
implicadas en afrontar conflictos equivale a ideología liberal.
Puestos a analizar, dicen los expertos, el eslabón frágil del razonamiento no es
que un estilo de pensamiento tenga su sustrato biológico, sino lo no absoluto
del término liberal. En el trabajo de Nature Neuroscience la mayoría de los
autodefinidos liberales votaron por John Kerry, y los conservadores por Bush.
¿Se puede sustituir eso por Zapatero versus Rajoy? Y en un país musulmán,
¿quiénes tienen el cerebro flexible y quiénes rígido? Y los liberales del
Trienio Liberal en España, entre 1820 y 1823, ¿qué cerebro tenían?
Ahora bien, no hay que equivocarse: que haya un sustrato biológico no implica ni
que ese hardware nos ha sido transmitido genéticamente, ni que es inmutable.
"Nosotros no examinamos si la orientación política se hereda, si nos viene dada
de nacimiento", explica Amodio. "El cerebro es maleable, así que incluso si
nacemos con un sistema neural más sensible a información conflictiva, es posible
que este sistema neural cambie con el tiempo". Y ¿es fácil de cambiar el
hardware que nos viene de fábrica? En otras palabras, ¿Qué pesa más, lo heredado
o el ambiente?
"Puede que esa no sea la manera correcta de formular la pregunta", responde
Amodio. "Los genes proporcionan unos mecanismos de base para la supervivencia.
Pero lo bonito es que la expresión génica es muy sensible al ambiente".
Otra posible pregunta sobre este trabajo es si los cambios sociales globales -el
cambio de postura respecto a la homosexualidad, el divorcio o el trabajo
femenino-, implican un cambio colectivo en el funcionamiento del cerebro.
¿Tenemos todos un cerebro más liberal? "Tal vez", responde Amodio, para quien
sin embargo la sociedad tiende ahora hacia un mayor conservadurismo -una prueba
más de lo confuso de estos términos-. Pero "no está claro si estos cambios a
gran escala tienen algo que ver con cambios heredables. Podrían estar más
relacionados con la globalización y los cambios culturales".
En cualquier caso, lo cierto es que a la luz de los tentáculos que está
desarrollando la neurociencia la intimidad empieza a emerger -también- como un
concepto de lo más borroso. Con lo que ello implica, como señala Carlos
Belmonte, director del
Instituto de Neurociencias de Alicante:
"Los problemas éticos que plantea la capacidad de analizar la actividad del
cerebro vinculada a conductas, o la capacidad de modular desde fuera esa
actividad cerebral, de encender o apagar genes, la neuro-estimulación, son
importantes". Se podría llegar a descubrir cómo es el cerebro de un maltratador,
por ejemplo, y entonces "¿Estaría bien tratarle para que no llegue a serlo?
¿Hasta dónde podemos llegar? Se van a plantear debates muy serios, y vamos a una
velocidad espeluznante", dice.
Fuente: El País Digital, 2 de Octubre de 2007
-Los neardentales llegaron a Siberia
Los neandertales llegaron mucho más lejos de lo que se pensaba. Restos de ADN que se han extraído de unos fósiles hallados hace décadas han demostrado que esta especie humana, desaparecida hace unos 30.000 años, llegó hasta las estribaciones de Siberia, 2.000 kilómetros más lejos de lo que se pensaba hasta ahora.
Investigadores del
Instituto Max
Planck de Alemania, dirigidos por Steve Pääbo,
han revelado que las secuencias de ADN mitocondrial de los neandertales
encontrados en las montañas de Altai, en el extremo oriental de Siberia
(Kazajstán), son prácticamente idénticas a las de los que habitaron en el centro
de Europa.
Dada esta similitud, el equipo de Pääbo concluye que esta especie de homínidos,
que apareció en este continente hace unos 400.000 años y posteriormente se
extendió hacia Asia, no mantuvo sus poblaciones separadas durante mucho tiempo.
De hecho, sugieren, en el trabajo que publican en a revista 'Nature',
que los neandertales no se extendieron hacia Rusia antes de un periodo
excepcionalmente cálido que tuvo lugar hace 125.000 años. Fue por entonces
cuando el Mar Caspio redujo su tamaño debido al cambio climático. Los expertos
incluso especulan con que esta especie humana pudiera haber llegado hasta
Mongolia y China, pero es algo que aún no se ha probado.
Para realizar el análisis genético los científicos alemanes extrajeron el ADN
mitocondrial cuatro huesos poscraneales hallados en el yacimiento kazajo de
Okladnikov. Hasta ahora se pensaba que estos restos pertenecían a humanos
modernos y también se habían relacionado con el 'Homo erectus'.
Estos fósiles, datados hace entre 37.000 y 43.000 años, se compararon con los de
neandertales hallados en Uzbequistán en los años 30 del siglo pasado y que eran
los localizados más al Este del continente hasta ahora.
Fuente: elmundo.es, 2 de Octubre de 2007
-Alcatel Lucent inventa la TV inteligente de banda ancha
Resulta efectivo para los anunciantes someter (sin piedad)
a los telespectadores durante doce minutos cada hora a un paquete de publicidad
en mitad de una película policíaca? ¿Ha contratado alguna vez los servicios de
un operador de telefonía fija o móvil que le interrumpe a las tres de la tarde,
mientras come?
Muchos expertos coinciden en que la publicidad invasiva y
agresiva tiene los días contados, en tanto que los contenidos audiovisuales y
los canales tradicionales de venta experimentarán grandes cambios en poco
tiempo. Lo que se avecina son nuevos modelos de mercadotecnia basados en el
respeto al consumidor, las ofertas individualizadas en función de los gustos de
cada uno y la facilidad de acceso a través de una auténtica televisión
interactiva -no como la actual, que es caricatura-, estrechamente ligada a la
banda ancha.
Los ingenieros de
Alcatel-Lucent lo tienen
claro y llevan trabajando mucho tiempo en desarrollar nuevas tecnologías
convergentes, capaces de convertir al televisor en una auténtica «caja
inteligente», que en estrecha alianza con el teléfono móvil relega a un segundo
plano al ordenador de sobremesa. No se trata de un visión futurista condenada al
ostracismo, sino de una realidad tecnológica ya tangible, cuya implantación
dependerá en gran medida de los modelos de negocio que se creen. En otras
palabras, de cómo se repartirán la nueva y jugosa tarta las cadenas de
televisión, las operadoras de telefonía fija o móvil, los creadores de
contenidos, los anunciantes...
El desarrollo de Alcatel Lucent para generar el nuevo modelo audiovisual se basa
en tecnologías que permiten trabajar por debajo de la unidad mínima de
contenido, es decir, por debajo del «freim»). ¿Y qué son los «freim»? Marcos
HTML que permiten a los canales de televisión ofrecer vistas múltiples, que
pueden ser ventanas o subventanas independientes. Por ejemplo, si a un
espectador le gusta el horno que utiliza Carlos Arguiñano para cocinar, podrá
visualizarlo en el momento, obtener información detallada sobre el producto, el
precio de venta y encargarlo de forma inmediata, mientras el cocinero vasco
prosigue con su programa. De forma que el usuario del futuro, además de escoger
el programa de TV que desee, podrá interactuar con los contenidos de una forma
hasta ahora desconocida, porque al estar conectado a la red los objetos serán «clikeables»
y navegables.Entre las distintas aplicaciones que Alcatel Lucent ha desarrollado
para la «caja inteligente» del futuro destacan la posibilidad de crear canales
individuales con contenidos personales que otros pueden visionar previa
invitación, acceder de forma remota a los canales contratados desde el móvil o
el portátil, grabar en la red la serie preferida y visualizarla en el celular o
TV cuando se desee, o gestionar las llamadas de voz, correos electrónicos,
videollamadas, etcétera.
Interactividad y dinamismo
La interactividad también se traducirá en una TV más participativa y dinámica,
de manera que, por ejemplo, si en un programa del corazón el aludido se ofende
por las declaraciones de un contertulio, podrá participar activamente en el
programa mediante la integración de vídeo y voz.
En el terreno publicitario también se producirán notables cambios. Los usuarios
gestionarán sus propios canales de publicidad directa elegidos por ellos mismos
(publicidad consentida), los anuncios serán más reales gracias al 3D y los
móviles podrán captar y almacenar publicidad estática de la calle, cuyo
contenido será descargado en la TV al llegar a casa. Toda una revolución.
Fuente: ABC, 1 de Octubre de 2007
-El fotón abre una nueva vía en el procesamiento de información
El fotón mensajero, un átomo artificial que puede
multiplicar de forma exponencial la capacidad de un ordenador actual para que
trabaje miles de veces más rápido, fue utilizado por primera vez por científicos
para transmitir información a través de un cable.
Dos equipos de físicos en Estados Unidos consiguieron
utilizar un fotón mensajero para transmitir datos de un 'qubit' (bit cuántico) a
otro en una distancia de 20 milímetros, lo que puede abrir la vía a distancias
más grandes, explica el miércoles la revista británica
Nature,
que publica los trabajos de los científicos.
Contrariamente a los bits tradicionales, cuyo valor es igual a 0 ó a 1, un qubit
puede tomar esos dos valores a la vez. El interés es que la potencia teórica de
las calculadoras con esa tecnología se duplica con cada qubit añadido, lo que
aumenta de forma exponencial, para permitir así dar un gran salto adelante y
poner en práctica un ordenador cuántico súper rápido.
"No es la primera vez que los científicos consiguen enlazar un qubit con otro,
pero es la primera vez que lo hacen a una distancia relativamente grande, el
equivalente a un microprocesador", declaró a la AFP Johannes Mayer, que dirige
el equipo de la
Universidad de Yale.
Por su lado, el equipo del
National
Institute of Science and Technology logró
construir el cable que unió a los dos qubits, y que almacenó la información
necesaria durante 10 nanosegundos (10 millonésimas de segundo).
"Es un paso importante hacia la construcción de ordenadores cuánticos", según
Raymond Laflamme, director del Instituto de Cálculo Cuántico de la
Universidad de Waterloo, en Canadá.
La dificultad de la operación reside en el control de los fotones, partículas
sin masa que se desplazan a la velocidad de la luz. "Tenemos que controlar las
señales eléctricas que corresponden a un único fotón", explicó Mayer, quien
subrayó que un teléfono móvil emite unos 100.000 trillones (es decir, un 1
seguido por 23 ceros) de fotones por segundo.
Para conseguir construir un ordenador cuántico, "hay que unir mucho más qubits,
al menos centenares, sino miles", reconoció Majer. Otro problema reside en la
temperatura. Para aislar el fotón mensajero y transmitir la información, el
cable tuvo que ser enfriado hasta diez miligrados por encima del cero absoluto
(la temperatura teórica más baja posible, que en la práctica nunca fue
alcanzada), es decir -273,13 grados centígrados.
Fuente: La Vanguardia Digital, 1 de octubre de 2007
-50 años del lanzamiento del Sputnik
«El comienzo de la era espacial fue un gesto propagandístico y de intimidación», reconoce medio siglo después Borís Chertok, mano derecha de Serguéi Koroliov, el gran constructor de cohetes del régimen de Stalin. A sus 95 años, Chertok es el último testigo vivo de aquel equipo de científicos militares soviéticos. Diseñador de cohetes y rampas de lanzamiento, especialista en radioelectrónica y académico, Chertok admite que «la guerra fría, el enfrentamiento entre las dos grandes potencias, fue el motor para el desarrollo de la cosmonáutica»
El 4 de octubre de 1957, los soviéticos
dejaron al mundo boquiabierto lanzando desde la base de Baikonur (Kazajstán) el
primer ingenio espacial de la historia, el Sputnik-1, palabra que en ruso
significa acompañante o satélite. Aquel evento provocó temor en Washington. Era
evidente que los soviéticos poseían la tecnología balística necesaria para hacer
llegar a territorio americano misiles cargados con bombas atómicas. «Nosotros no
estábamos mucho más adelantados que los americanos en tecnología balística; al
contrario, en muchos aspectos ellos nos superaban con creces», recuerda Chertok.
En los primeros lanzamientos de prueba, los rusos sufrieron multitud de
fracasos, pero lograron imponerse a los estadounidenses.
Según Chertok, «el Gobierno soviético ordenó que nuestro primer satélite
artificial fuera un pesado laboratorio con material científico para el estudio
de la estratosfera, pero los americanos estaban pisándonos los talones y
Koroliov decidió que su fabricación llevaría mucho tiempo. Había que hacer algo
antes para impedir que se nos adelantaran». Lo importante era demostrar que se
podía poner algo en órbita.
Una esfera de aluminio
Así que se creó una esfera de aluminio, que tenía 58 centímetros de diámetro,
algo más 80 kilos de masa y estaba provista de cuatro antenas y un
radiotransmisor, ideado por el propio Chertok. Emitía un pitido cada 0,4
segundos y fue bautizado con el nombre de Sputnik-1. Su denominación codificada
fue Obiekt-D (objeto-D). «No tenía nada de particular, lo único que hacía era
emitir un continuo bip-bip». Lo importante realmente era el cohete, un R-7
diseñado por Koroliov, no para volar al espacio, sino para portar cabezas
nucleares a una distancia de más de 8.000 kilómetros. Era un misil
intercontinental de dos fases. «La puesta en órbita del Sputnik-1 causó
entusiasmo en el propio pueblo americano, que ignoraba que habíamos demostrado
cómo podíamos alcanzarle con nuestras armas atómicas».
El «bip-bip» del nuevo satélite pudo oírse desde Tierra en cualquier hogar en el
que hubiera un receptor de radio. Por eso, el acontecimiento produjo sensación
en todo el planeta. Al día siguiente, los periódicos de todo el mundo abrían sus
portadas con la noticia de que el hombre había conseguido por primera vez poner
un aparato en el espacio. El Sputnik-1 cayó de su órbita justo tres meses
después, tras haber efectuado 1.367 rotaciones.
El enorme éxito obtenido con el Sputnik-1 hizo comprender al entonces líder
soviético, Nikita Jrushiov, que la aventura espacial constituía un potente
instrumento propagandístico para aglutinar a las masas en torno al Partido
Comunista. Jrushiov quiso que continuase la fiesta y ordenó nuevos lanzamientos.
«Nos dieron sólo un mes para preparar el envío al espacio de un ser vivo»,
rememora Chertok.
El 3 de noviembre de 1957 fue puesta en órbita la perrita Laika. Se dijo que el
infeliz animal estuvo unos días dando vueltas alrededor de la Tierra hasta que
la cápsula se desintegró. Sin embargo, hace cinco años se supo que Laika murió
seis horas después del lanzamiento, por un fallo en el sistema de suministro de
oxígeno. Pese a ello, en el mundo se consideró que el lanzamiento había sido un
logro. Los norteamericanos respondieron por fin el 31 de enero de 1958,
arrojando al cosmos su primer satélite artificial, el Explorer-1.
La llegada a la luna
Los rusos estuvieron mucho tiempo por delante de los estadounidenses en la
carrera espacial. En 1959, la URSS consiguió que una nave no tripulada llegara a
la Luna y obtuviera las primeras fotografías de la cara oculta del satélite
terrestre. También los soviéticos fueron los primeros en conseguir que un
hombre, Yuri Gagarin, viajase al espacio y regresase sano y salvo. Sucedió el 12
de abril de 1961. Pero el primero en poner un pie en la Luna fue el americano
Neil Armstrong, en 1973.
La desintegración de la URSS trajo consigo una etapa de terribles penurias. Los
drásticos recortes que sufrieron las subvenciones provenientes de las arcas
estatales pusieron la industria espacial rusa al borde de la desaparición. La
única salida para Rusia fue colaborar con Occidente en la construcción de la
Estación Espacial Internacional (ISS) y vender su enorme experiencia en vuelos
tripulados de larga duración.
Durante los largos períodos de inactividad de los transbordadores
estadounidenses, a causa de los accidentes sufridos, han sido las naves rusas
Soyuz las únicas que han podido asegurar los relevos de las tripulaciones en la
ISS. El turismo espacial es ahora otra de las fuentes de ingresos que ayudan a
Roskosmos, la agencia rusa del espacio, a mantenerse en forma. Desde 1957, Rusia
ha puesto en órbita más de 3.000 aparatos espaciales, incluyendo satélites
artificiales, sondas, las estaciones orbitales Saliut y Mir, además de algunos
de los módulos de la ISS.
Fuente: ABC, 1 de Octubre de 2007