Inicio |
|
|
|
|
NOTICIAS
CIENTÍFICAS
Octubre 2010
TITULARES DE LAS NOTICIAS DEL MES
Creadas células "zombies" que se activan con luz
El Sol desde otra perspectiva
Las "buckybolas" pueden ser el origen
de la vida
La última frontera del universo
Mundos oscuros en los confines del universo
La ciencia se acerca a la lectura
del pensamiento
Hallan la estrella de neutrones más masiva
El rayo que nos cambió la vida
Textiles inteligentes integrados en redes
inalámbricas para ocio y salud
¿Y si el
universo fuera un hologroma?
Vegetación autóctona clave para recuperar territorios contaminados
Bienvenidos a la segunda era espacial
La NASA descubre plata en la cara oculta de la Luna
El LHC busca universos paralelos
"Esto
puede ser muy parecido a `Gran Hermano´"
La sonda LCROSS confirma la presencia de agua helada en la Luna
La ONU pesimita con respecto a los acuerdos de Cancún
La nueva "arca de Noé" es una torre de 100
metros
El canibalismo del "Tiranosaurio rex"
Cazando leones en Atapuerca
"Las matemáticas siempre han ayudado al progreso de las ciencias"
El nitrógeno
antropogénico, una amenaza para la flora y la fauna
Un yacimiento de gas junto al "Prestige"
Objetivo: detectar el cáncer en la sangre
La mano de obra sale a 4,6 euros por iPhone en China
EEUU trata al primer paciente con células madre embrionarias
"No
he visto un nivel de destrucción así en mi vida"
El primer ministro húngaro habla de "negligencia humana" tras el
vertido tóxico
Google diseña un coche
sin conductor
Naves interestelares: un grupo de científicos
diseña una máquina para ir más allá del Sol
Mil millones
de toneladas de hielo del polo Sur para observar neutrinos
Aragón registra un caso de malaria autóctono
El vertido tóxico ya alcanza el Danubio
Terremotos: ¿esta la naturaleza fuera de control?
California tiembla por la amenaza del "Big
One"
Así robó el Sol a Marte su atmósfera
La fuga de una sustancia tóxica deja al menos tres muertos en
Hungría
Nobel de Física para dos científicos rusos por sus
trabajos sobre el grafeno
Los océanos pueden esconder 750000 especies marinas
La mosca de la fruta se expandió por el mundo desde África
Nuevo telescopio de rayos X para estudiar agujeros negros
Pseudociencia en el campus
La muerte de un planeta
Los dinosaurios que surgían de la tierra
Archivo
-Creadas células "zombies" que se activan con luz
|
|
Un equipo de la Universidad Duke (EEUU) ha desarrollado
células que cambian su estado cuando se les proyecta un simple rayo de luz
azul. La investigación, publicada en Nature Methods, tiene el
objetivo de desarrollar células modificadas que puedan regenerar tejido
cerebral dañado o incluso segregar un medicamento en tejidos enfermos, según
Chandra Tucker, investigadora principal del proyecto. Se
trata de una técnica a muy largo plazo cuyos primeros frutos se centrarán en
la investigación básica o animal, reconocen los autores.
Los investigadores usaron células de levadura, así como células de hígado
y del cerebro de ratones. Introdujeron en ellas dos proteínas de la planta
Arabidopsis thaliana. Cuando se exponen a la luz, las proteínas se
activan dentro de las células, lo que podría ayudar a controlar sus
funciones. Hasta ahora, los trabajos previos en este campo necesitaban
inocular otros productos en las células modificadas para que sus
interruptores se encendiesen o apagasen cuando se les aplicaba luz.
"Este nuevo sistema, con una de las moléculas ya dentro de las
células, hace mucho más fácil construir un interruptor de luz",
explica Tucker. El interruptor de Tucker permite controlar la
interacción de diferentes proteínas dentro de las células.
Si se logra perfeccionar la técnica, podría contribuir a que células
enfermas se suicidasen o que otras segregasen medicamentos a zonas dañadas.
Como también funciona en células cerebrales, se podrían reconstruir
conexiones neuronales |
Fuente:
publico.es, 31-10-10
-El
Sol desde otra perspectiva
Esquema de un torbellino horizontal (las flechas
representan la velocidad). | CSIC
|
|
El telescopio solar Sunrise ha desvelado una
"inesperada" actividad en el Sol, según los primeros resultados
de esta misión publicados en doce artículos en la revista
The
Astrophysical Journal Letters.
La misión, cuyos resultados
proceden en su mayoría del magnetógrafo IMaX, diseñado
y construido en España, ha revelado una "espectacular" actividad en
regiones de la superficie solar que se consideraban en calma. El
magnetógrafo es el instrumento que registra los componentes del campo
magnético de un astro y fue construido bajo la dirección del
Instituto de Astrofísica de
Canarias y con la participación de la
Universidad de
Valencia, el
Instituto
Nacional de Técnica Aeroespacial y el
Instituto de Astrofísica de
Andalucía.
"Tan sólo con el análisis de dos períodos de observación de media
hora cada uno hemos obtenido resultados espectaculares, la mayoría con
datos de IMaX/Sunrise, lo que constituye un verdadero éxito de
la misión y de la tecnología desarrollada por el equipo español",
ha remachado el investigador del
CSIC José
Carlos del Toro.
El
telescopio Sunrise, durante
un viaje de cinco días en globo circunvolando el Ártico, estudió la
superficie solar con una resolución sin precedentes, de casi 100
kilómetros. Despegó en junio de 2010 desde Suecia y se situó durante
cinco días a una altura de 40 kilómetros sobre la superficie terrestre. |
Varios hallazgos
Los recientes resultados aportan luz a algunos de los más antiguos
problemas de la física solar, como el calentamiento de la cromosfera, la
capa inmediatamente superior a la fotosfera, la superficie del Sol.
Hasta ahora se desconocía por qué, si la temperatura de la fotosfera se
estima en 6.000 grados, en la cromosfera se alcanzaban hasta 20.000. IMaX/Sunrise
ha hallado que en las regiones por debajo de la fotosfera se produce
el doble de energía acústica de lo que se pensaba, "lo que se
acerca a los valores necesarios para explicar el calentamiento cuando dicha
energía se transporta hacia arriba".
Esta energía se produce por los movimientos convectivos en el Sol, es
decir, por material caliente que asciende hacia la superficie, se enfría y
vuelve a descender. Esta convección genera cambios de presión que se
propagan en forma de ondas que, al transportarse, liberan energía
térmica y aumentan la temperatura. IMaX/Sunrise también ha
permitido obtener pruebas directas de la existencia de tubos de
flujo magnético a pequeña escala, considerados los ladrillos del
magnetismo solar desde los años 70, pero cuya existencia había sido
imposible de demostrar de forma directa por su pequeño tamaño. Otro de los
hallazgos se relaciona con la granulación solar, fenómeno
producido por el gas caliente que sube hacia la superficie desde el interior
solar (similar al burbujeo del agua al hervir) y que se manifiesta en forma
de gránulos con un tamaño medio de aproximadamente 1.000 kilómetros y una
duración de cinco minutos.
Se han descubierto torbellinos horizontales que avanzan a través de las
celdas de los gránulos y pequeñas estructuras magnéticas horizontales que
aparecen y desaparecen. En definitiva, Sunrise "ofrece una
panorámica del Sol inédita y caracterizada por una actividad
constante a pequeña y gran escala", según Del Toro. En un segundo vuelo,
previsto para 2013, Sunrise completará una trayectoria alrededor del polo
Sur de entre 12 y 14 días.
Fuente: elmundo.es, 30-10-10
-Las "buckybolas" pueden ser el origen
de la vida
El pasado mes de julio, el
telescopio Spitzer de la NASA descubrió en una nebulosa planetaria un
raro fenómeno que nunca antes había sido hallado en el espacio.
Consiguió detectar «buckybolas», unas moléculas de carbono con forma de
balón de fútbol y con propiedades únicas cuya existencia más allá de la
atmósfera resultaba una auténtica sorpresa. El asombro fue tan grande que
los científicos llegaron a plantearse que podría tratarse de algo
anecdótico, y que, simplemente, habían tenido suerte al encontrarlas. Nada
de eso. Estas esferas de carbono no solo existen allá arriba, sino que son
muy abundantes. El Spitzer las ha encontrado alrededor de tres estrellas
moribundas en la Vía Láctea y cerca de una cuarta en una galaxia cercana,
donde hay tantas que su masa equivale a quince lunas como la nuestra. El
hallazgo puede tener importantes repercusiones en la comprensión de cómo se
formó la vida en la Tierra.
Las
«buckybolas», también conocidas como
fullerenos, son moléculas que constan de 60 átomos de carbono
unidos. Toman su nombre del parecido con las cúpulas geodésicas del
arquitecto Buckminster Fuller, como las que se encuentran en la entrada
del parque temático Epcot de Disney, en Orlando, Florida (EE.UU.). Estas
esferas en miniatura fueron descubiertas por primera vez en un
laboratorio hace 25 años, y son muy comunes en el hollín de las velas y
en las capas de rocas y meteoritos, pero no fue hasta el pasado julio
que pudo confirmarse su existencia en el espacio.
«Resulta que las
buckybolas son mucho más comunes y abundantes en el Universo de lo que
inicialmente se pensaba», explica la astrónoma Letizia Stanghellini, del
Observatorio Nacional de Astronomía Óptica en Tucson, Arizona. «Spitzer
las había encontrado recientemente en una posición específica, pero
ahora las hemos visto en otros entornos. Esto tiene implicaciones para
la química de la vida.
Es posible que las buckybolas del espacio exterior proporcionaran las
semillas para la vida en la Tierra». |
|
|
Quince veces la masa de la Luna
Los investigadores,
liderados por Aníbal García-Hernández, del
Instituto de Astrofísica de Canarias, encontraron las esferas alrededor
de tres estrellas moribundas similares al Sol, conocidas como nebulosas
planetarias, en nuestra Vía Láctea. Todas las nebulosas donde se han
detectado buckybolas son ricas en hidrógeno. Esto contradice lo que los
investigadores han pensado durante décadas, ya que creían que el hidrógeno
contaminaría el carbono, provocando que se formasen cadenas y otras
estructuras en lugar de esferas.
El equipo también
localizó estas bolas en una nebulosa planetaria dentro de una galaxia
cercana conocida como
Pequeña Nube de Magallanes. Y hay muchísimas: juntas tienen un 2% la
masa de la Tierra, lo que es lo mismo a
quince veces la masa de la Luna.
Cestas para la vida
Las implicaciones de este
descubrimiento son de gran alcance. Los científicos han especulado en el
pasado con las buckybolas, las cuales pueden actuar como cestas para
moléculas y átomos, y podrían haber transportado sustancias a la Tierra para
el inicio de la vida. Las pruebas para esta teoría proceden del hecho de que
se han encontrado buckybolas en meteoritos que portan gases extraterrestres.
«Las buckybolas son una
especie de diamantes con agujeros en el centro», dice Stanghellini. «Son
unas moléculas increíblemente estables y difíciles de destruir, y podrían
transportar otras moléculas interesantes en su interior. Esperamos aprender
más sobre el importante papel que pueden desempeñar en la muerte y el
nacimiento de estrellas y planetas, y tal vez en la propia vida».
En la Tierra, el estudio de estas
moléculas se aplica a la investigación en fármacos, superconductores,
dispositivos ópticos y potabilización de agua, entre otros ejemplos.
Fuente: abc.es, 29-10-10
-La última frontera del universo
Un mínimo punto de luz, casi invisible, indetectable
durante miles de millones de años, aparece de pronto en el fondo negro del
Universo. Como un signo de puntuación escrito en el espacio, los telescopios
dejan de leer para detenerse y enfocar lo más posible sus objetivos. Esa
pequeña nota luminosa es el objeto más distante jamás detectado, una galaxia
de complejo nombre bautizada como UDFy-38135539, cuya luz
ha tardado 13.000 millones de años en llegar a la Tierra. Ningún cuerpo
celeste más lejano ni más antiguo ha sido visto jamás por el ser humano.
A medida que las técnicas de detección se han ido
desarrollando, los astrónomos han sido capaces de encontrar objetos cada vez
más lejanos en el espacio; galaxias, estrellas o quasares que aparecieron
apenas unos cientos de millones de años después de la gran explosión del Big
Bang, cuando el Cosmos, mucho más pequeño y menos «concurrido», era muy
diferente del que hoy conocemos, y la aparición de la Tierra ni siquiera
estaba apuntada en la agenda de la creación.
En el centro del cuadrado blanco galaxia más lejana de la
conocidas |
|
La galaxia que ha batido todos los records
fue detectada por primera vez por la nueva Cámara de Gran Angular 3 (WF3)
del telescopio espacial Hubble en 2009. Ahora, científicos del
Observatorio Europeo Austral (ESO) han confirmado en una investigación
publicada en la revista Nature, su antiquísima naturaleza. No ha sido nada
fácil dar con ella, ya que su luz, emitida tan sólo 600 millones de años
después del Big Bang, ha llegado a la Tierra de forma extremadamente
débil, en gran parte porque hasta esa época una densa nube de hidrógeno
neutro cubría casi todo el Universo.
Descubrirla es como encontrar una aguja en una pajar... lleno de niebla.
Para ello, han utilizado la técnica de espectroscopia, la más fiable para
echarle años a las galaxias.
«Estamos asistiendo, si no a la primera
generación de estrellas, a una de las primeras que aparecieron en el
Universo, y eso tiene un impacto cosmológico muy fuerte», explica Miguel
Mas Hesse, investigador del Centro de Astrobiología (INTA-CSIC). Es
cierto. La carrera de hallazgos ha sido impresionante en los últimos diez
años. La última galaxia ha desbancado en el puesto de objeto más lejano a
una estrella descubierta el pasado año, cuya muerte en forma de estallido
de rayos gamma, una potente explosión de energía, llegó a la Tierra tras
viajar también cerca de 13.000 millones de años. A su vez, este «ejemplar
de Neandertal», como fue descrita por los científicos españoles que
participaron en su detección, le quitó el puesto a una lista de galaxias y
quasares formados cuando el Universo tenía de 700 a 800 millones de años. |
La edad oscura
Ahora, los científicos se enfrentan a un reto aún
mayor, descubrir objetos de un tiempo incluso anterior, cuando el Universo
entero no tenía más de 500 millones de años, estructuras que pertenecen al final
de la llamada «edad oscura», la época tras la que aparecieron las primeras
estrellas y de la que se aún se sabe muy poco. «Estamos seguros de que en los
próximos años, con los instrumentos que ya tenemos -entre ellos destaca el Gran
Telescopio de Canarias-, vamos a ser capaces de alcanzarlo», augura Mas. Pero
serán dos grandes telescopios, el espacial James Webb, que se lanza en 2014,
optimizado para trabajar en la longitud de onda en la que llegan las emisiones
de este tipo de estrellas «arqueológicas», y el potentísimo y gigantesco E-ELT,
que abrirá su gran ojo tres años más tarde en Chile, los que podrán analizar en
profundidad estas maravillas . Cuando entren en funcionamiento, el Universo
tendrá menos secretos.
Los objetos más antiguos tras el Big Bang:
1) 13.074 millones de años: La galaxia UDFy-38135539, descubierta en
2009, es el objeto más lejano y antiguo
2) 13.035 millones de años: El estallido de rayos gamma GRB 090423, en
cuyo descubrimiento participó el CSIC
3) 12.968 millones de años: Galaxia A1689-zD1. Su edad pudo ser
confirmada hace un par de años
4) 12.888 millones de años: Galaxia A2218, donde se forman estrellas
masivas de manera intensa
5) 12.882 millones de años: Galaxia OIK 1. Su edad fue confirmada por
espectroscopia en 2006
6) 12.797 millones de años: El quásar CFHQS J2329-031, una galaxia
dominada por un agujero negro muy masivo.
Las capas de cebolla¿Cómo saben los científicos que
lo que o es tan lejano y antiguo? Básicamente, el quid de la cuestión lo tiene
un fenómeno de la Física llamado
corrimiento al rojo, que pone a cada objeto su medalla en el ranking.
«Cuanto más lejos está un objeto, su espectro se desplaza hacia las longitudes
de onda del rojo, lo que permite calcular la distancia a la que se encuentra»,
indica Miguel Mas. La galaxia ganadora tiene un corrimiento al rojo de 8,6; la
estrella en segunda posición, uno de 8,2. «Hace diez años, el límite estaba
tan solo en 2 ó 3, lo que demuestra lo mucho que hemos avanzado». señala el
investigador del CSIC. «Es como quitar capas a una cebolla -continua-, cuanto
más lejos están los objetos vamos más atrás en el tiempo y podemos conocer
cómo ha evolucionado el Universo».
Fuente: abc.es, 29-10-10
-Mundos oscuros en los confines
del universo
Rebuscando en los archivos de imágenes digitales tomadas por el telescopio
espacial Hubble, un equipo de astrónomos ha detectado recientemente 14 nuevos
vecinos de Plutón. El estudio de tales objetos trans-Neptunianos, oscuros y
helados, sirve para comprender los momentos iniciales de la formación de nuestro
Sistema Solar hace ahora 4.500 millones de años.
Comparación de tamaños y colores de los mayores TNOs | A.
Feild (STScI)
|
Algunos de los mayores TNOs que se conocen | NASA, ESA, A. Feild (STScI |
La región abisal del Sistema Solar
Plutón no es más que uno de los numerosos pequeños mundos que
pueblan la región profunda del Sistema Solar, más allá de la órbita de Neptuno.
Apenas iluminados por el lejano Sol, estos objetos trans-Neptunianos (o TNOs,
por sus siglas en inglés) viven en una permanente oscuridad que dificulta su
localización y su estudio.
Se ha determinado bien la órbita de unos dos centenares de
TNOs, pero de la inmensa mayoría de éstos se conoce muy poco. Plutón, prototipo
de los recientemente denominados 'planetas enanos', es el mayor de todos los
objetos de esa región, desde donde también nos llegan numerosos cometas, como el
Halley.
Auténticas reliquias intactas desde la formación del Sistema
Solar, estos cuerpos conservan la composición química de la nube primordial que
formó nuestro sistema planetario. Su estudio nos permite por tanto ayudar a
comprender los momentos iniciales de la formación del Sol y su grupo de
planetas, hace ahora unos 4.500 millones de años.
Buscando débiles estelas
El inmenso legado del telescopio espacial Hubble, en la forma
de numerosísimas y muy profundas imágenes digitales, se ha revelado como un
poderoso archivo para detectar nuevos ejemplares de estos débiles TNOs. El
astrónomo César Fuentes y sus colaboradores del Harvard-Smithsonian Center for
Astrophysics (cerca de Cambridge, EEUU) han desarrollado una técnica automática
para detectar tales objetos sobre imágenes de archivo. En esas imágenes, un TNO,
debido a su movimiento alrededor del Sol, aparece como una débil estela luminosa
ante las estrellas fijas del fondo.
Los astrónomos desarrollaron un software para localizar tales
estelas de manera automática. La localización de una estela se complementó con
un cuidadoso examen visual que permitió confirmar (o rechazar) la asociación
real de cada estela con un TNO. Tras explorar varios centenares de imágenes de
zonas próximas a la eclíptica (el plano que contiene al Sol y a los ocho
planetas), este equipo de investigadores localizó 14 nuevos TNOs, entre ellos
uno binario (similar al sistema Plutón-Caronte). Todos ellos son oscuros y
extremadamente débiles (más de 100 millones de veces más débiles que las
estrellas visibles por el ojo desnudo).
Las medidas de sus movimientos en el cielo permitieron
calcular las órbitas y distancias de todos los objetos. Y haciendo hipótesis
razonables sobre la reflectividad del material de que están constituidos,
llegaron a determinar los tamaños de todos estos objetos, que resultan estar en
un rango de 40 a 100 kilómetros de diámetro. Todos estos resultados han sido
publicados en un artículo reciente del Astrophysical Journal (Fuente et al.
2010, disponible
aquí.)
Algunos de estos TNOs pueden tener órbitas muy inclinadas
respecto de la eclíptica, por lo que examinando imágenes de regiones más
distantes sería posible detectar aún más TNOs. Los autores esperan extender su
trabajo de esta manera para llegar a detectar quizás varios centenares de nuevos
objetos.
Sin duda el archivo del Hubble nos reserva aún numerosos
descubrimientos y sorpresas.
Nuevos Horizontes
El 19 de Enero de 2006, la NASA lanzó desde Cabo Cañaveral la
sonda New Horizons, una misión no tripulada que tiene por objetivo la
exploración in situ del sistema Plutón-Caronte y de sus dos lunas Nix e Hidra.
La sonda pasó por las proximidades de Júpiter en el primer semestre de 2007 y
allí aprovechó el campo gravitatorio del gigante gaseoso para ganar más
velocidad. Se espera que la sonda sobrevuele Plutón (al que se acercará a una
distancia menor de 10.000 kilómetros) y Caronte en Julio de 2015. También está
previsto que New Horizons pueda explorar otros TNOs antes del año 2020.
También interesante
-
Plutón, descubierto en 1930, fue el primer TNO
identificado. Le siguió su luna Caronte en 1978. Pero fue la detección,
realizada en 1992 desde el observatorio de Mauna Kea en Hawaii, del siguiente
objeto denominado '(15760) 1992 QB1' el que desencadenó las búsquedas
sistemáticas para realizar un censo lo más completo posible.
-
El mayor TNO conocido es Eris, un planeta enano de unos
2500 kilómetros de diámetro, que se encuentra 100 veces más lejos del Sol que
la Tierra (esto es, unas tres veces más lejano del Sol que Plutón). Eris fue
identificado en el año 2005 en el Observatorio de Monte Palomar. Tiene una
pequeña luna (de apenas 100 kilómetros de tamaño) llamada Disnomia (como la
hija de la diosa Eris en la mitología griega).
-
El 31 de Mayo de 2008 se descubrió el primer TNO con
movimiento retrógrado. Se trata del objeto '2008 KV42' apodado informalmente 'Drac'.
-
La sonda New Horizons transporta, además de la carga
científica, un CD con casi medio millón de nombres recogidos en el sitio web
de la misión, una bandera de EEUU y algunas cenizas de Clyde Tombaugh
(1906-1997), el astrónomo estadounidense que descubrió Plutón en 1930.
Fuente: elmundo.es, 28-10-10
-La ciencia se acerca a la lectura del
pensamiento
|
Aunque leer la mente sigue siendo una utopía, es posible
que, en un futuro, se pueda conseguir y, con ello, permitir la
comunicación de pacientes con graves lesiones neurológicas. Un
dispositivo desarrollado por investigadores del Instituto Tecnológico de
California ha sido capaz de registrar la respuesta de las neuronas del
lóbulo temporal medio a distintos estímulos visuales.
De esta forma, los investigadores que publican su hallazgo en la
edición de hoy de Nature son capaces de adivinar
en qué están pensando dentro de las
opciones ofrecidas en el experimento. Para llevar a cabo su
estudio, los científicos, dirigidos por Moran Cerf, aprovecharon los
electrodos implantados en el cerebro de varios pacientes para tratar sus
convulsiones cerebrales y midieron su respuesta ante determinados
conceptos, que incluían desde
personalidades como Madonna a lugares como la torre Eiffel.
Fuente: publico.es, 27-10-10 |
-Hallan la estrella de neutrones
más masiva
Un grupo internacional de astrónomos ha anunciado en Nature
el descubrimiento de la
estrella de neutrones más masiva observada hasta la fecha, un hallazgo que
tendrá importantes repercusiones en diversos campos de la Física y la
Astrofísica. La estrella, un
púlsar que está
a 3.000 años luz de la Tierra y que gira sobre sí mismo 317 veces por
segundo, forma "pareja" con una
enana blanca.
|
|
"Esta estrella de neutrones tiene el doble de
la masa del Sol -explica Paul Demorest, del Observatorio Nacional de Radio
Astronomía, (NRAO)- . Lo cual es sorprendente, ya que tanta masa
comprimida en tan poco espacio significa que muchos de los modelos
teóricos que tenemos sobre la composición interna de estrellas de
neutrones quedan descartados. La medida de esta gran masa también tiene
implicaciones en nuestra comprensión sobre la materia cuando se encuentra
en densidades extremadamente altas y
aclara numerosos detalles de la física nuclear".
Una estrella de neutrones es
el cadáver superdenso de una estrella muy masiva que ha estallado en forma
de supernova. Después de la explosión, toda la masa de la estrella
original queda comprimida en
una esfera que mide apenas unos pocos km de diámetro. La fuerza
gravitatoria de este cuerpo superdenso es tal que los electrones, cuya
carga eléctrica es negativa, han terminado por incrustarse "contra natura"
en los protones de los núcleos atómicos (que tienen cargas positivas),
dando como resultado partículas eléctricamente neutras, los neutrones.
|
Una cucharada de cientos de millones de toneladas
Estos neutrones, aplastados unos contra otros por
la gravedad, dan lugar a cuerpos de extraordinaria densidad, las estrellas de
neutrones.
Una simple cucharadita de la materia superdensa de una estrella de neutrones
puede pesar cientos de millones de toneladas. Esta tremenda densidad
hace que las estrellas de neutrones sean extraordinarios laboratorios
naturales para el estudio de los estados más extremos y densos de materia
conocidos por la Física.
Para medir la masa de la estrella, que
prácticamente dobla a la de la mayoría de las estrellas de neutrones
conocidas, los científicos han utilizado un curioso efecto
(el retardo Saphiro) predicho por la teoría General de la Relatividad de
Einstein. La estrella forma parte de un sistema binario, y está acompañada por
una
enana blanca que orbita a su alrededor. La estrella de neutrones, que gira
rápidamente sobre sí misma (317 veces por segundo) es un púlsar que emite, en
cada rotación, potentes ondas de radio.
Este
púlsar, llamado PSR J1614-2230, y su compañera completan una órbita, una
alrededor de la otra, en apenas nueve días. Y resulta que la orientación de
ambas estrellas permite
una excelente observación desde la Tierra, algo de vital importancia
para medir la masa de ambas. Cuando las órbitas llevan a la enana blanca a
colocarse directamente delante del púlsar, las radioondas que emite y que
llegan hasta la Tierra tienen que pasar muy cerca de la enana blanca. Y ese
acercamiento causa un ligero retraso causado por la distorsión gravitatoria de
la enana blanca. Ese ligero retraso, el retardo Saphiro, es precisamente el
que permite medir la masa de ambas estrellas.
"Hemos tenido mucha suerte con este sistema
-afirma Scott Ransom, otro de los investigadores del NRAO-. La rápida rotación
del púlsar nos proporciona una clara señal para seguirlo a través de su
órbita, que está casi perfectamente alineada (con la Tierra). Además, resulta
que la enana blanca es particularmente masiva para una estrella de esa clase.
Y esta combinación única de factores hace que el retardo Saphiro sea mucho más
fuerte y fácil de medir".
Dados sus datos preliminares, los investigadores
pensaban que la estrella de neutrones no tendría más de una vez y media la
masa del Sol. Pero tras observar una rotación completa de ambas estrellas
comprobaron, para su sorpresa, que era de más del doble. Un hecho que, según
ellos, cambia nuestra comprensión tanto sobre la composición de las estrellas
de neutrones como sobre el comportamiento de la materia bajo la presión de
densidades extremas.
Fuente: abc.es, 27-10-10
-El rayo que nos cambió la vida
La historia del
láser comenzó en 1917 como un postulado teórico de Albert Einstein, que pensó
que existía la posibilidad de estimular los electrones de un átomo para lograr
que emitieran luz en una determinada longitud de onda. Pero todavía tendría
que pasar algún tiempo para la demostración experimental de este efecto; más
de 40 años para conseguir desarrollar el primer dispositivo eficiente basado
en este enunciado.
|
|
A principios de siglo, probablemente, a nadie se le
pasó por la cabeza que la teoría de la radiación estimulada pudiera tener
implicaciones prácticas y, mucho menos, que acabara siendo uno de los
cinco inventos más importantes de la historia. En la actualidad,
es difícil creer que el desarrollo que hace posible el 95% de las
comunicaciones de telefonía se le denominara en los años 50 'un invento en
busca de una aplicación', pero así fue. Y tal vez sea uno de los
mejores ejemplos de cómo una idea surgida de la curiosidad científica
puede transformar radicalmente el mundo.
El interés por desarrollar este artefacto comenzó en
los años 50, una época en la que diferentes grupos de investigadores,
algunos por su cuenta y otros asociados a prestigiosos laboratorios,
perseguían la idea de construir lo que luego sería conocido como láser. Y
aunque, finalmente, fue Mainman el que se llevó 'el gato al agua'
fabricando en 1960 el primer láser experimental que empleaba rubí como
medio amplificador, fueron muchos los científicos que pusieron su granito
de arena para que este invento fuera posible.
Como anécdota curiosa que ejemplifica lo que ha
cambiado la visión de la Ciencia en este medio siglo, se podría contar que
cuando este físico comunicó a la prensa su invención, el dispositivo era
tan minúsculo -sólo medía unos centímetros de longitud- que para la foto
se mostró a los periodistas otro aparato que, aunque no funcionaba,
impresionaba más por su tamaño. |
Alentado por la industria del cine se le atribuyeron
propiedades espectaculares, como la del 'rayo de la muerte', aunque sus
inicios fueron más modestos. De hecho, su primera aplicación
industrial fue la soldadura de chapa de automóviles. Pero a estas
alturas, los investigadores, aún no sabiendo exactamente para qué, ya intuían
sus enormes posibilidades y las patentes relacionadas con este invento se
multiplicaron.
Hoy en día nos sería muy difícil imaginar un mundo sin
láser. Es la base de la fibra óptica que hace posible el funcionamiento de la
red de comunicaciones que ofrece la telefonía o Internet; de soportes como el
CD, el DVD o el Blu ray; del lector de código de barras; de las impresoras
láser; de los hologramas de seguridad en tarjetas de crédito; del desarrollo
de la ingeniería aeronáutica o automovilística; de los bisturís que han
revolucionado la cirugía; del perfeccionamiento de las miras telescópicas; de
los medidores de distancias. En definitiva, si nos detuviéramos a analizar
muchos de los objetos que nos rodean y aplicaciones que nos han cambiado la
vida es seguro que, directa o indirectamente, este invento tiene mucho que
ver.
Pero ¿qué propiedades tiene esta luz que la hace tan
especial? ¿En qué se diferencia de la emitida por otras fuentes, como podría
ser el fuego o una bombilla? Para empezar la palabra 'Laser' son las
siglas inglesas de Light Amplification by Stimulated Emission of Radiation
(Amplificación de Luz por Emisión Estimulada de Radiación) y se trata de una
luz con unas ciertas características bien diferenciadas.
El láser es monocromático, de un solo color,
mientras que la luz ordinaria es el resultado de la combinación de diferentes
colores. Es coherente, lo cual significa que todas sus partículas de
luz están en sintonía con las demás. Y posee también direccionalidad, lo que
implica que sus fotones viajan en la misma dirección, pudiéndose concentrar en
un punto muy pequeño. Y estas propiedades son la base de su inmenso poder y
versatilidad, ya que permiten hacer desde una holografía o cortar un duro
metal a medir la distancia que hay de la tierra a la luna.
El láser del futuro
Este año 2010, el láser cumple medio siglo de vida y
coincidiendo con este aniversario, el Instituto de Física Interdisciplinar y
Sistemas Complejos del IFISC (CSIC-UIB) ha elaborado, dentro de la Semana de
la Ciencia, un programa especial en el que quieren divulgar múltiples aspectos
de este gran invento del siglo XX. El ciclo de conferencias comenzó con la
impartida por Claudio Mirasso, catedrático de la UIB e investigador del IFISC,
titulada 50 años de un invento que ha cambiado nuestras vidas, en la que
explicó los fundamentos científicos del láser, de su tecnología; así como sus
aplicaciones presentes y posibilidades de futuro.
Y si lo que conocemos es sorprendente, lo que está a
punto de llegar entra en el territorio de la ciencia ficción. Según este
investigador no quedan muchos años para lograr la fusión nuclear. La
instalación NIF (National Ignition Facility) es un gran proyecto de EEUU
que posee 192 haces de luz enfocados hacia un punto mínimo. La
focalización de toda esa energía en un diámetro inferior a un cabello
alcanzaría temperaturas de 100 millones de grados -como en el
interior de una estrella- y sería capaz de liberar en la miniexplosión
instantánea una cantidad ingente de energía como para alumbrar a todo un
país. ¿Quién nos dice que no será el láser la fuente de energía inagotable
y limpia que estamos buscando?
Por otra parte, la posibilidad de focalizar el
haz más y mejor está mejorando la capacidad de almacenamiento de la
información. Según Mirasso, la fecha en que podamos tener en un
disco de ordenador todas las películas de la historia del cine en alta
definición está a la vuelta de la esquina. Otro de los campos menos
conocidos del láser es el que está relacionado con la nanotecnología. El
origen de todas estas aplicaciones son las pinzas ópticas conformadas por
un haz de rayo láser fuertemente enfocado, que produce un área de máxima
intensidad y con la energía suficiente para atrapar una partícula de
materia y mantenerla inmóvil en el punto de enfoque de la luz.
Fueron desarrolladas en 1986 por Ashkin y sus colaboradores y, desde
entonces, gracias a la incorporación de diversos tipos de haces de luz se
han perfeccionando, por lo que se cuenta con múltiples técnicas de
manipulación óptica muy avanzadas. Por ejemplo, estas pinzas se han
utilizado para examinar la cantidad de fuerza necesaria para estirar y
enrollar moléculas individuales de ADN. ¿Cómo podríamos denominar a
comienzos del siglo XXI a este 'invento en busca de una aplicación'?
Fuente: elmundo.es, 26-10-10
-Textiles inteligentes integrados en redes inalámbricas
para ocio y salud
Aitex, Ateval y la empresa textil Rapife,
junto con otras entidades, universidades y empresas europeas trabajan en el
desarrollo en nuevos textiles inteligentes aplicados a la medicina, a la
rehabilitación y a los videojuegos dentro del proyecto europeo Wear-a-Ban.
Este proyecto nos sitúa en un nuevo escenario tecnológico relacionado con el
desarrollo textil inteligente que integra sensores, tanto de movimiento como
emocionales, y basados en tecnología de radiofrecuencia, según informa Fedit.
Wear-a-Ban, así se llama este nuevo proyecto europeo cuyo objetivo es
desarrollar redes inalámbricas sofisticadas que integrarán textiles
inteligentes que monitorizarán tanto parámetros físicos (como el
movimiento), como parámetros emocionales.
Se investigarán el potencial de las tecnologías inalámbricas en “redes de
área corporal” que permitan obtener sinergias hombre-máquina en segmentos de
mercado tales como los textiles inteligentes y interactivos, robótica para
asistencia y rehabilitación y dispositivos de interfaz naturales para
videojuegos.
Se busca que la comunicación entre hombre y máquina sea más intuitiva y
natural, integrando la información motora y emocional, parámetros que son
difíciles de expresar con dispositivos estándares. Los recientes avances en
microelectrónica, procesamiento de señales integrados y tecnologías de
software, permiten obtener soluciones hombre-máquina más naturales que
facilitarán nuevas manera de jugar, rehabilitación médica etc.
Fuente:
interempresas.net, 25-10-10
-¿Y si el universo
fuera un hologroma?
Especialistas del
Fermilab -uno de los laboratorios científicos más avanzados y afanados del
mundo- están construyendo un
aparato denominado “Holometer” (u “holómetro”), cuya función será
determinar si el universo tridimensional que perciben nuestros sentidos es “de
verdad” o solo se trata de un holograma. El artefacto busca responder la vieja
cuestión de si el espacio-tiempo es uniforme o discreto.
Diseño conceptual del holómetro del Fermilab
|
|
¿Cómo es realmente el universo que percibimos? Esta pregunta aparentemente
inocente ha mantenido a ejércitos de físicos discutiendo durante mucho más
tiempo del que hubiesen preferido. Cuando descubrieron que la energía en
realidad no podía tomar “cualquier” valor, sino que estaba “dosificada” en
pequeñísimos paquetes (llamados cuantos) resultó inevitable preguntarse si
las dimensiones espaciales son realmente tan continuas como nos parecen o
si, por el contrario, también están “pixeladas”.
¿Qué significa esto? Imaginemos que tomamos una cámara fotográfica que
posea una resolución de “infinitos megapíxeles”, y comenzamos a tomar
fotografías de un objeto cualquiera. A “1x” el objeto aparece tal como lo
vemos con nuestros ojos. A “10x” comenzamos a percibir detalles que
difícilmente veríamos a simple vista. A “100x” comienzan a aparecer
detalles imperceptibles de otra manera, que revelan las microrayaduras y
granos de polvo depositados sobre su superficie. Si seguimos aumentando el
detalle de las imágenes, llegará un momento en que podremos “ver” las
moléculas que lo conforman.
Y si seguimos aumentando la resolución de nuestra cámara imaginaria,
veremos sus átomos, y luego sus partículas. Lo que intentan averiguar los
científicos es si esta “realidad”, en alguna escala que somos incapaces de
percibir, comienza a “cuantificarse” tal como se “pixela” una fotografía
al aplicarle un valor de zoom demasiado alto. |
La tercera dimensión
Determinar semejante cosa no es, por supuesto, una tarea sencilla. Los
encargados de tomar el toro por las astas han sido los científicos del
Fermilab, el laboratorio físico nacional estadounidense que posee el segundo
acelerador de partículas más potente del mundo. Una de las teorías que manejan
los especialistas -y que a los profanos nos suena a chino- es que la realidad
consiste solamente en dos dimensiones, y lo que percibimos como una “tercera
dimensión” no es otra cosa que una “ilusión” -sumamente realista, por
supuesto- que surge de la interacción de estas dos con el tiempo.
Si esto es cierto,
la realidad sería algo así como un holograma, una especie de truco de mago de
feria en el que se nos “vende” una dimensión que realmente no está
allí. Algunos físicos creen que no podemos darnos cuenta del engaño “culpa” de
algunas limitaciones impuestas por las leyes de la física, como que “nada
puede viajar más rápido que la luz” y naderías por el estilo. No sabemos cómo
se podría conciliar todo esto con las 10 dimensiones contempladas por
la Teoría de Cuerdas y
los universos paralelos que buscan con el LHC, pero seguramente ambas
hipótesis no puedan ser válidas a la vez.
En el Fermilab han comenzado la construcción de un holómetro (“holometer”) ,
un máquina de altísima tecnología que podría atisbar por los “espacios”
existentes entre uno y otro “píxel” de la realidad. Explicar cómo funciona una
máquina como esa es sumamente complicado, pero en un comunicado del
laboratorio han dejado entrever que hará su magia gracias a
un reloj extremadamente preciso (en realidad, será
el más exacto jamás construido) y un láser. Los primeros datos serán
proporcionados por el holómetro en algún momento del año próximo. Si recuerdas
la película
«Matrix», esto significa que tienes entre 3 y 12 meses para decidir si
tomas la pastilla roja o la pastilla azul.
Fuente: abc.es,
25-10-10
-Vegetación autóctona clave para recuperar territorios contaminados
Un grupo de
investigadores perteneciente a la Unidad de Botánica del Departamento de
Biología de la UAM, y dirigido por la Dra. Vicenta de la Fuente, estudia las
dinámicas de vegetación y las modificaciones en los suelos de uno de los
territorios más ácidos y con mayor contenido en metales de la Península: la
cuenca del Río Tinto (Huelva).
En un trabajo publicado recientemente en Arid Land Research and Management, los
investigadores presentan un compendio de la vegetación autóctona de la cuenca
del Río Tinto y de las dinámicas temporales regresivas y progresivas de la
misma. En el trabajo se muestra que la evolución progresiva (desde las
comunidades de vegetación colonizadora de suelos pobres y terrenos desnudos
hasta alcanzar la fase madura del bosque) implica un enriquecimiento en especies
autóctonas y un cambio gradual en los suelos, donde disminuye la acidez y se
tiende a reducir la concentración de alguno de los elementos predominantes del
territorio (S, Fe, As y Pb).
Estos resultados constituyen una clave de vital importancia a la hora de
plantear programas de restauración de territorios contaminados con metales
pesados. El empleo de la vegetación autóctona, respetando la secuencia de la
serie de vegetación del territorio afectado, garantiza una reforestación
efectiva (aunque lenta), contribuye a la protección de la flora y vegetación
autóctona, favorece el enriquecimiento progresivo de la biodiversidad vegetal,
modifica el paisaje y evita pérdidas económicas por la muerte de especies
alóctonas no aclimatadas.
Dinámicas de vegetaciones y suelo
Desde el punto de vista climático, edáfico y biogeográfico, la vegetación de un
territorio homogéneo evoluciona temporalmente hasta alcanzar lo que se considera
la comunidad vegetal clímax o permanente, que generalmente suele ser un bosque.
Partiendo de una roca desnuda, el esquema teórico que seguiría la vegetación
hasta alcanzar la comunidad clímax sería: comunidades vegetales pioneras,
pastos, matorrales, pre-bosques y bosques. El conjunto de todas estas
comunidades constituiría lo que se denomina serie de vegetación. El cambio
sucesivo de las comunidades vegetales que componen la serie de vegetación
conlleva una evolución en los suelos sobre los que se asienta desde el punto de
vista físico y químico.
Río Tinto
El río nace en el corazón de la comarca minera del Andévalo, situada sobre uno
de los depósitos de sulfuros metálicos más extensos del mundo. En este ambiente
dominan el ácido sulfúrico, el hierro férrico y numerosos metales que se
encuentran químicamente biodisponibles en concentraciones tóxicas dada la
elevada acidez de las aguas y los suelos del territorio. Además, la histórica e
intensa actividad minera en la comarca, tanto a cielo abierto como subterránea,
ha provocado la pérdida de suelos y por ende la eliminación de la cubierta
vegetal, quedando una gran extensión de terreno desnudo, taludes, desmontes y
escombreras.
Fuente: UAM,
24-10-10
-Bienvenidos a la segunda era espacial
Los catalanes Ana Bru y Ramón Segarra se vieron ya vestidos
de astronautas. Pepita Campdesuñer, la empresaria jubilada de 80 años, empezó a
contar los días para su primer vuelo a la heterosfera. Y Richard Branson,
el visionario fundador de Virgin Galactic, oteó con impaciencia los
cielos moteados de Nuevo México, invocando la silueta etérea de su nave
suborbital.
"Bienvenidos a la segunda era espacial", proclamó Branson,
mientras anticipaba el vuelo rasante de WhiteKnightTwo, la nave
nodriza, arropada en el aire por la trepidante SpaceShipTwo (capaz
de subir por encima de los 100 kilómetros de altitud propulsada por un
cohete híbrido).
"Entre ocho y 19 meses acabaremos con la fase de pruebas
y estaremos listos para los primeros vuelos comerciales", vaticinó el
magnate de Virgin, con su inconfudible melena rubia, sin quitarse la chupa
de cuero. "La seguridad es nuestra prioridad absoluta: los turistas
espaciales han comprado un billete de vuelta".
Hasta la fecha, un total 370 mortales que están
dispuestos a pagar 144.000 euros por dos horas y media de vuelo. Setenta de
ellos se desplazaron este fin de semana hasta el Spaceport de Nuevo México,
a tomarle la medida a la primera pista 'espacial' de tres kilómetros de
largo por 61 metros de ancho.
La mayoría esperaba ver poco más que una
serpiente de asfalto en mitad del desierto. Los primeros
sorprendidos fueron Ana Bru y Ramón Segarra, que decidieron ponerse el casco
de obras e inspeccionar el impresionante aeropuerto/hangar diseñado por
Norman Foster, emergiendo ya con su perfil de molusco futurista sobre la
arena.
'Quisimos ser los primeros en probar'
"Nosotros siempre tuvimos fe en este proyecto, aunque
para muchos era difícil de imaginar", confesaba la pareja de 'pioneros'
catalanes, que reclutan aspirantes españoles a través de la agencia Bru&Bru.
"Quisimos ser los primeros en probar y la verdad es que hoy
lo hemos visto más claro que nunca. Ahora que el futuro está tan cercano,
sentimos mucha emoción y un cierto cosquilleo". |
|
Aeropuerto espacial de Nuevo México |
El WhiteKnightTwo sobrevoló varias veces su futuro nido,
antes de aterrizar en la pista recién inaugurada, en medio de un
paisaje sideral y a más de 20 kilómetros de la población más
cercana (llamada curiosamente 'Verdad y Consecuencias', en homenaje a un
legendario programa televisivo).
"Dejamos atrás 52 años de historia y entramos
decididamente en una nueva era", certificó la administradora adjunta de la
NASA Lori Garver a pie de pista. "Atrás queda lo que llamábamos la
'carrera' espacial. Ahora avanzamos por el camino de la cooperación
entre países y entre empresas. Estamos todos en la misma nave".
Richard Branson se subió sobre la marcha y anunció que
Virgin Galactic pujará –en solitario o junto a otras dos compañías- al
programa de 50 millones de dólares para desarrollar futuras naves
tripuladas auspiciado por la Administración Obama. "Tenemos planes
para explorar el campo de los vuelos orbitales en los próximos años",
anticipó.
De momento, Branson se ha reservado el primer vuelo
para toda la familia (incluidos su hijo Sam y sus padres de 92 y
89 años) y confía en despegar del Spaceport de Nuevo México a
finales del 2011 o primeros del 2012. "Para mí, este viaje es algo muy
presonal", recalcó. "Aunque mi empeño será hacer el turismo espacial
accesible para el común de la gente. Cuando llevemos quinientos o mil
pasajeros podremos bajar las tarifas, y, tal vez, fletar tres vuelos
diarios. Espero que los vuelos suborbitales sean algo 'normal' para
vuestros hijos y vuestros nietos".
"¿Para cuándo un Aeropuerto Espacial en Europa?", le
preguntamos. "Tenemos que consolidar primero este proyecto antes de
pensar en futuras ubicaciones". ¿España está en el radar? "Amo
mucho a España y puedo asegurar que cuando llegue el momento
estará muy alto en la lista".
"Lo primero es estabilizar este proyecto aquí, y
después lo llevaremos a España", declaró en español y con cierta sorna
el gobernador Bill Richardson, que decidió impulsar el proyecto
(estimado inicialmente en 212 millones de dólares) para convertir
Nuevo México en el centro de gravedad del turismo espacial.
Más que la experiencia de la ingravidez, Ana Bru espera
disfrutar de la "pura adrenalina" de la subida y, sobre todo, de la
experiencia de la bajada. "Ahí es cuando de verdad sientes donde
tienes el estómago", asegura, recordando el entrenamiento en el
simulador del Nastar Space Center de Filadelfia. Ramón Segarra recuerda la
sensación de otra manera –"es como si te estiraran la piel"- pero insiste en
que los vuelos suborbitales son aptos "para cualquier persona con buena
salud".
"Nosotros no somos multimillonarios, ni coleccionamos
coches en el garaje como Bill Gates", asegura Ana. "Hemos ido
reservando el dinero durante bastante tiempo porque sabemos que
ésta puede ser la gran experiencia de nuestras vidas. Yo siento una tremenda
curiosidad por ver y apreciar la Tierra desde allí arriba".
"Volando me siento insignificante, como si estuviera
conectada con la naturaleza", confiesa por su parte la octogenaria y
vitalísima Pepita Campdesuñer, superada tan sólo en edad por los padres del
propio Branson. "Yo tomé uno de los primeros vuelos comerciales en un
trimotor en 1953, entre Bilbao, Barcelona y Palma. Recuerdo también como si
fuera ayer el momento en que el hombre puso el pie en la Luna. Y quiero
vivir desde dentro este otro momento histórico... A ver si me llega".
Fuente: elmundo.es, 23-10-10
-La NASA descubre plata en la cara oculta de la Luna
El impacto sobre la superficie lunar, provocado por
un cohete de la NASA en octubre del año pasado, ha revelado que,
bajo la superficie del cráter Cabeus, en el polo sur, hay un
5,6% de agua helada, y también otros elementos como hidróxido,
monóxido de carbono, amoníaco, mercurio, magnesio, sodio y hasta la
preciada plata.
La NASA lanzó el Satélite de Observación del Cráter
Lunar, conocida como misión
LCROSS, el 18 de junio del año pasado. Llevaba a bordo un cohete, el
Centauro, que tres meses y medio después, el 9 de octubre, se estrellaba
contra la Luna, generando una gran nube de más de más de 750
metros sde altura obre su superficie. Según el artículo que se
publica en 'Science', se estima que fueron expulsados hacia el espacio
entre 4.000 y 6.000 kilos de restos y vapor de agua.
A los cuatro minutos de la explosión, la sonda LCROSS
atravesaba esa nube para recoger muestras, que durante un año han sido
analizadas por varios grupos de investigación en Estados Unidos.
Los resultados del equipo de Anthony Colapetre, del
Centro de Investigación Ames de la NASA, revelan que el impacto expulsó
unos 155 kilos de vapor de agua y hielo, y estiman que un 5,6% de la
masa total del interior del cráter Cabeus es agua helada. También
encontraron hidrocarburos, sulfuro y dióxido de carbono. |
|
|
Geología compleja
En la
Universidad de
Brown, otro equipo, dirigido por el geólogo Peter Schultz, ha analizado
las características del cráter y los minerales que contiene, encontrando que
la composición de la Luna es mucho más compleja de lo que se pensaba. Además
de agua, también contiene compuestos como el amoniaco, el sodio y la
plata.
Todos estos elementos combinados, les han dado pistas
sobre el origen de estos minerales y el proceso por el cual acabaron los
cráteres polares, que no han visto la luz del Sol en miles de millones de
años.
Schultz cree que los elementos detectados llegaron a la
Luna por impactos de cometas, asteroides y meteoritos a lo
largo de su historia. Apunta que se fueron depositando por todas las parte
del satélite terrestre, pero que después fueron liberados de la superficie
por otros impactos menores o se calentaron con el Sol, lo que les dio
energía suficiente para volar hasta alcanzar los polos, donde habrían
quedado atrapados entre las sombras de los cráteres.
Además, mantiene la hipótesis de que la variedad de
elementos volátiles implica que hay una especie de guerra constante
entre lo que se acumula y lo que se pierde continuamente en la tenue
atmósfera lunar. "Hay un equilibrio entre lo que llega y lo que se
va, aunque creo que va ganando lo que está llegando", afirma el experto, que
ha estado estudiando la Luna desde los años 60.
Fuente: elmundo.es, 22-10-10
-El
LHC busca universos paralelos
El gigantesco
acelerador de partículas
LHC, construido por el
CERN, podría encontrar dentro de poco tiempo evidencias de la
existencia de “universos paralelos”. Suena a ciencia ficción, pero parece
que los experimentos de física de alta energía que se realizan en ese
lugar podrían efectivamente probar la validez de estas teorías. Mientras
tanto, seguimos esperando la “aparición” del escurridizo
bosón de Higgs.
Es muy difícil hablar de “universos
paralelos” sin pensar en el argumento de una historia de ciencia
ficción. Sin embargo, y aunque la idea ha sido difundida ampliamente por
los escritores de este tipo de novelas, el concepto tiene muchos adeptos
entre los científicos. Desde el punto de vista de la ciencia, tal como
lo explica el último boletín de noticias emitido por el
CERN, referirse a los universos paralelos significa hablar de
“formas desconocidas de materias o dimensiones extras”. Desde hace
décadas, los físicos se han quemado las pestañas tratando de determinar
si el universo realmente posee las cuatro dimensiones de toda la vida
(tres físicas y una temporal), o si existen otras que por su naturaleza
no podemos percibir.
|
|
|
La
Teoría de Cuerdas, por ejemplo, postula que las partículas de nuestro
universo, como los electrones o protones, no son un mero "punto sin estructura
interna y de dimensión cero”, sino una minúscula cuerda que vibra en un
espacio-tiempo de más de cuatro dimensiones. Sus defensores creen que estas
cuerdas no se mueven en el espacio-tiempo ordinario de cuatro dimensiones
(tipo Kaluza-Klein) sino que lo hacen en seis dimensiones adicionales,
compactadas, dando lugar a un universo de 10 dimensiones: una temporal, tres
espaciales “normales” y seis “minimizadas” e indetectables por ahora.
Dimensiones ocultas
Los físicos del CERN que investigan los orígenes
del Universo esperan que en 2011 puedan obtenerse, gracias al LHC, las
primeras pruebas concretas de estas “dimensiones ocultas”. Esto no significa
que se hayan abandonado los esfuerzos dedicados a dar con el bosón de Higgs -a
veces referido como
“la partícula de Dios” por la prensa- ni mucho menos. De hecho, estas
dimensiones extrañas del universo podrían evidenciarse mientras se producen
los choques de partículas de alta energía que el acelerador provoca para
encontrar la escurridiza súper partícula.
El director general del CERN, Rolf Heuer, tiene
la esperanza de que al analizar los datos generados por el acelerador aparezca
alguna evidencia de estos -quizás mal llamados- “universos paralelos”. El
mismo Heuer ha dicho que el acelerador está produciendo
choques de protones a un ritmo de 5 millones por segundo, algunas semanas
antes de lo que estaba previsto. Si no surgen retrasos, a principios
del próximo año este ritmo se incrementará, y los detectores del CERN entregarán
miles de millones de datos extra entre los que se podrían encontrar
“algunas sorpresas”.
Aparece y desaparece
¿Como podemos saber que una de estas dimensiones
ocultas existe realmente? Los físicos del CERN creen que al analizar los datos
del acelerador podrían encontrar rastros
de que alguna partícula “desaparece” durante un brevísimo lapso de tiempo,
para luego aparecer nuevamente. Si ello ocurre, una de las
explicaciones posibles sería que la partícula en cuestión se ha “deslizado” a
alguna de estas seis dimensiones ocultas para luego volver al universo que
todos conocemos. Esto, de producirse y probarse su existencia, no significa
que tengamos -ni remotamente- la posibilidad de explorar o viajar a estos
“universos paralelos”. Solo habríamos probado que la estructura íntima de la
materia es diferente a lo normalmente aceptado, que -por supuesto- no es poca
cosa.
Fuente: abc.es, 22-10-10
"Esto
puede ser muy parecido a `Gran Hermano´"
El viaje imaginario a Marte más ambicioso de la historia
lleva más de 140 días en marcha. Sus participantes tres rusos, un francés, un
italocolombiano y un chino no se han movido ni un centímetro del módulo de
aislamiento en Moscú en el que simulan un viaje de ida y vuelta al planeta
rojo. Por delante quedan más de 350 días en los que seguirán siendo objeto de
decenas de experimentos y durante los cuales se enfundarán en trajes
espaciales para explorar una superficie marciana de pega. Diego Urbina, uno de
los tripulantes de la misión Mars 500, financiada por la Agencia Espacial
Europea y el Instituto de Problemas Biomédicos de Moscú, narra su experiencia
a Público con un sistema de email con retardo, debido a que, en
teoría, está a más de 33 millones de kilómetros de la Tierra.
¿En qué punto se encuentran y cuándo llegarán a
Marte?
Desde aquí la Tierra sería como una moneda de dos euros a
una distancia de 70 metros. Llegaremos a Marte en febrero de 2011. Entonces,
Alexander, Wang Yue y yo nos iremos a vivir al módulo de aterrizaje marciano
durante un mes y realizaremos una exploración con trajes de astronauta.
¿Cómo es un día normal dentro del módulo de
confinamiento?
Nos levantamos a las ocho de la mañana y nos entregamos a
las tareas rutinarias, tests psicológicos, muestras de orina... Después
desayunamos juntos. Antes nos lavamos las manos, claro. Hacemos experimentos y
luego vamos al gimnasio durante una hora. Luego comemos y hacemos más
experimentos. Tenemos casi toda la tarde libre. La pasamos leyendo, viendo
películas o jugando a videojuegos con la red interna de la nave. En total
tenemos unas seis horas de trabajo al día, diez horas libres y otras ocho para
dormir. Algunos días sientes que necesitas más trabajo, aunque a finales de
mes, cuando se concentra la mayoría de los experimentos, esto es una locura.
Están realizando más de 100 experimentos, desde
usar medicina alternativa a aliviar la tensión con realidad virtual. ¿Cuáles
han sido los más difíciles?
Mis experimentos favoritos son los simuladores con naves
espaciales y los que tienen ejercicio físico, aunque el que más aborrezco es
uno en el que tengo que sostener una bolsa de 25 kilos durante un buen rato.
Otro que no es nada divertido es pincharme el dedo cada hora durante una
mañana entera para tomar muestras de sangre, aunque afortunadamente sólo lo
tenemos que hacer cada dos meses.
Ahora que lleva 140 días, ¿qué cree que sería
diferente si realmente estuviera viajando hacia Marte?
Muchas cosas serían igual. La separación de tu familia, la
soledad, la autonomía, la necesidad de vivir una vida nueva mucho más simple,
el extraordinario cuidado que debes tener contigo mismo, la necesidad de que
el equipo funcione, la paciencia y testarudez que se necesita para hacer algo
como esto... Pero otras cosas cambiarían, como la posibilidad de sufrir
accidentes con la nave o lo emocionante que sería llegar a Marte de verdad.
¿Qué ha sido lo mejor de estos 140 días?
He tenido muchas experiencias positivas, sobre todo cuando
intentas sobreponerte a las dificultades con cierta ingenuidad. Por ejemplo,
me he inventado una manera para poder twittear de forma indirecta,
sin internet. También he ideado un software que me ahorra tener que repetir
muchos experimentos. Hasta he diseñado una especie de bolsillo extra para los
pantalones cortos reglamentarios, que por un error se hicieron sin bolsillos.
Todo esto parecerá una tontería desde fuera, pero aquí te ayuda a seguir
adelante, a aprender de ti mismo y conocerte mejor.
¿Qué ha sido lo peor?
Por ahora no me puedo quejar, toco madera. Tal vez lo peor
sea no poder hablar italiano o español casi nunca.
¿Qué dice su familia sobre lo que está haciendo?
Me animan mucho. Me mandan noticias de todo el mundo. No
podría hacer lo que hago sin el apoyo que me están dando.
Su misión se ha rebautizado como el Gran Hermano
Marciano'. ¿Está empezando a parecerse?
Puede ser muy parecido, porque tenemos a un grupo de gente
que vive en el mismo sitio y está siendo grabada en todo momento. El resto es
diferente, aquí la gente no finge, ni se pelea ni hace cosas intolerables para
ganar audiencia o ser más popular. Aquí sólo somos seis tipos intentando hacer
cada día lo más agradable posible, mientras hacemos un trabajo duro.
¿Qué es lo que más echa de menos? ¿Tal vez a su
pareja?
La libertad de poder ir a donde quiera. La facilidad de
comunicarme con quien quiera por teléfono o internet. Echo de menos a mi
familia y amigos. Sin embargo, estar aislado de posibles distracciones tiene
ventajas, más oportunidades para mejorar como persona.
¿Cómo está la moral para llegar a los 520 días?
Estupenda. Pasamos mucho tiempo juntos y estamos de buen humor. Esperamos
que todo siga así en la segunda parte de la misión.
¿A qué piensa dedicarse una vez termine la misión?
Seguiré siendo ingeniero espacial y me dedicaré a la educación para
contribuir a que algún día la humanidad salga de su cuna, la Tierra.
¿Qué será lo primero que haga cuando salga de ahí?
Me pegaré una cena impresionante y me iré a bailar música latina hasta que
me caiga redondo.
Fuente: publico.es, 21-10-10
-La
sonda LCROSS confirma la presencia de agua helada en la Luna
Cinco toneladas de Luna que
habían estado esperando miles de millones de años en un oscuro cráter
salieron a la luz cuando
una sonda de la NASA se estrelló allí el 9 de octubre del
año pasado. El análisis del material liberado, presentado ayer en rueda de
prensa y detallado hoy en la revista Science, confirma que los cráteres del polo
sur de la Luna albergan una gran cantidad de agua helada.
El cráter Cabeus, lugar del impacto de la sonda
Lcross de la NASA en el polo sur de la Luna NASA
|
|
Estos resultados “indican que hay minerales de interés a
poca profundidad y que se podrá acceder a ellos con las tecnologías
actuales” si se envía una misión robótica o tripulada al polo sur de la
Luna, explicó ayer Ignasi Casanova, geólogo planetario de la Universitat
Politècnica de Catalunya que trabaja en un proyecto de exploración lunar.
Cuando
la NASA lanzó la
misión LCROSS en junio del 2009, el
objetivo era precisamente explorar la superficie lunar con vistas a volver a
enviar astronautas allí alrededor del 2020 y más adelante construir una base
lunar. En este sentido, la misión ha cumplido sus objetivos. Desde el punto
de vista de ingeniería, sus resultados allanan el trabajo a futuras
misiones, apunta Casanova.
En los últimos 16 meses, sin embargo, la Administración Obama ha reorientado
la estrategia de la NASA y ha renunciado a los planes de reanudar los vuelos
tripulados a la Luna. En este nuevo contexto, no hay planes para que los
frutos de LCROSS tengan continuidad a corto plazo.
Según los resultados presentados ayer, el impacto que la misión LCROSS
provocó en el polo sur de la Luna abrió un cráter de entre 25 y 30 metros de
diámetro. Con el calor liberado en la colisión, los minerales que se
encontraban allí pasaron de unos 230 grados bajo cero a más de 700 grados.
El impacto liberó por lo menos dos toneladas de minerales, y probablemente
entre cuatro y seis, que salieron despedidas hacia el espacio formando un
gran penacho de gas y polvo. |
Los investigadores han estimado que cerca de un 5,6% del material liberado era
vapor de agua, una cantidad suficiente para pensar en extraer oxígeno del suelo
del satélite el día que los astronautas vuelvan a la Luna. El director
científico de la misión, Anthony Colaprete, calcula que hay suficiente agua para
llenar 1.500 piscinas olímpicas en el cráter Cabeus, una
formación de unos 100 kilómetros de diámetro que fue elegida para el impacto.
Cabeus fue seleccionado porque tiene una amplia región en la que nunca brilla el
sol. Al estar siempre a baja temperatura, pensaban los científicos, habría
conservado el agua helada de los cometas que han caído allí desde los albores
del sistema solar. Los resultados presentados ayer han superado las
expectativas, ya que el cráter contiene más agua de la que se esperaba.
Junto al agua, los investigadores han identificado otras moléculas interesantes
como hidrocarburos ligeros, así como metales inesperados como plata y mercurio.
“Los hidrocarburos son interesantes cara a comprender cómo llegaron estos
minerales a la Luna”, explicó ayer Ignasi Casanova. En cuanto al mercurio, del
que se liberaron 120 kilos en el lugar del impacto, habrá que tomar precauciones
para evitar que intoxique a astronautas en el futuro, advirtió Kurt Retherford,
investigador de la misión.
Fuente: lavanguardia.es, 21-10-10
-La ONU pesimita con
respecto a los acuerdos de Cancún
La ONU ha descartado que la
Conferencia de las Partes de
Naciones Unidas sobre Cambio Climático (COP16) que se celebrará a finales de
año en Cancún alcance "acuerdos exhaustivos", pero confió en que se logren
pactos "integrales con resultados a corto plazo".
Así lo afirmó en la capital mexicana Christiana Figueres,
principal representante de la
ONU para el diálogo sobre el cambio climático, quien aseguró que durante la
cita de Cancún se requerirá una "voluntad política decidida"
para lograr acciones concretas.
La alta funcionaria señaló, a través de una videoconferencia
durante un seminario sobre cambio climático organizado por la ONU, que los
gobiernos que asistirán a Cancún "quieren abordar todos los temas, pero
será imposible hacerlo en detalle".
Acuerdos y desencuentros
En su opinión, uno de los asuntos más complejos en la
negociación será el de lograr metas en la reducción de emisiones de dióxido de
carbono y definir qué países deben adoptar estas limitaciones. Sin embargo,
señaló que existe un consenso sobre la necesidad de crear un fondo
para que los países desarrollados apoyen la reducción y adaptación al cambio
climático de las naciones en desarrollo.
Otro de los puntos en los que se podrían avanzar
acuerdos, según Figueres, es la reducción de la deforestación a través del
Mecanismo
de Reducción de Emisiones por Deforestación y Degradación de los Bosques (REDD+).
La funcionaria afirmó que en Cancún podrían darse las condiciones para
otorgar incentivos a los países que reglamenten la deforestación. Sobre la
aprobación de una nueva "arquitectura financiera" las naciones están
divididas entre los que quieren que se apoyen en instituciones existentes
como el
Banco Mundial,
y los que defienden la creación de un fondo nuevo controlado por los
gobiernos, dijo Figueres.
Se refirió también a la confrontación entre China
y Estados Unidos, los dos países con mayores emisiones
contaminantes del mundo y que no están sometidos a compromisos de reducción.
A su juicio, la Cumbre de Cancún debería lograr que ambas naciones firmen
sus promesas, hasta ahora "informales", de reducción de emisiones.
Futuro incierto
Figueres aseguró que es una incógnita qué sucederá con el
Protocolo de Kioto, que vence en 2012, pues la mayoría de países en
desarrollo apuestan por un nuevo periodo de compromiso a partir de 2013 y
otros, como Rusia y Japón, se oponen a ello. Este lunes, el Gobierno de
México, anfitrión del encuentro de Cancún, reconoció también que "no están
dadas las condiciones" para lograr un acuerdo global de reducciones de
emisiones de gases en esa cita.
Según Figueres, la COP15, celebrada el pasado año en
Copenhague y que concluyó sin un acuerdo vinculante en reducción de
emisiones, estuvo marcada por la falta de transparencia, mientras que para
la COP16 el gobierno mexicano actúa bajo la premisa de la "inclusividad".
Las autoridades mexicanas calculan que más de 30.000
personas asistirán cada día a la cita de Cancún, a la que de momento ningún
mandatario ha confirmado su participación pero en la que estarán
representadas 193 naciones.
Fuente: elmundo.es, 20-10-10
-La nueva "arca de Noé" es una torre de 100 metros
Un
zoológico vertical de más de 100 metros ha sido propuesto para ser
construido en Buenos Aires, en la Reserva Ecológica Costanera Sur. El
proyecto, denominado
Eco-Cliff, consiste en una espectacular torre que podría servir como
punto de anidación para miles de aves migratorias y un hábitat ecológico para
todo tipo de animales.
|
|
Una de las estructuras conceptuales más
interesantes presentadas en los últimos tiempos ha sido la torre de
burbujas del MIT, que estaba planeada para las Olimpiadas de 2012 en
Londres. Sin embargo, ahora estamos frente a un concepto aún más
interesante, que podría construirse en Argentina. La torre ha sido
diseñada por Hila Davidpu, Tal Gazit, Eli Gotman y Hofi Harari para
participar de una competición para construir un
zoológico vertical frente a Puerto Madero, en la Reserva Ecológica
Costanera Sur.
Sería un verdadero
espectáculo para la vista si se hiciera realidad. Según explican los
responsables, para minimizar el uso de vehículos a motor, la torre
solo sería accesible mediante teleférico y utilizaría un sistema de
células fotoeléctricas para autoabastecerse de energía. Y no solo sería un
impactante diseño, sino que también sería un zoológico y hábitat para varios
tipos de animales.
Todos los visitantes podrían ver a los animales a través de senderos
artificiales que serpentearían a lo largo de la torre, ofreciendo una
experiencia fuera de lo común. Con la idea de simular un acantilado, la torre
tendría varias aperturas para que ingresen los rayos del sol, la lluvia y el
aire fresco, y se serviría de un sistema de redes y cables para cumplir
distintas funciones. La pregunta que quedaría por responder es si muchas
especies animales serían capaces de vivir en una torre de más de 100 metros del
altura, en condiciones que, sin más detalle, parecen distar bastante de las de
su hábitat natural. Si llegan a hacerlo posible, sería una cita obligada como
muchas otras fantásticas construcciones alrededor del mundo.
|
Fuente: abc.es,
19-10-10
-El
canibalismo del "Tiranosaurio rex"
El rey de los dinosaurios practicaba el canibalismo. El
temido 'Tiranosaurio rex' no sólo comía otros dinosaurios sino que también se
alimentaba de ejemplares de su misma especie. Un grupo de paleontólogos de EEUU
y Canadá ha llegado a esta conclusión tras comprobar que las mordeduras halladas
en algunos huesos gigantes fueron hechas por un 'Tiranosaurio rex'. La
investigación ha sido publicada esta semana en la revista
PLoS ONE.
El cine ha hecho del 'T. rex' uno de los dinosaurios más
conocidos. Fue también uno de los carnívoros terrestres de mayor tamaño
de todos los tiempos: podía alcanzar los 13 metros de longitud y medir cinco
metros de altura. Asimismo, su peso podía llegar a las 10 toneladas.
Este animal vivió hace entre 67 y 65 millones de años en el Maastrichtiano, la
última época del Cretácico, en el territorio que hoy ocupa Norteamérica.
Su dieta es uno de los aspectos que más discusión
siguen suscitando entre los científicos ya que, hasta ahora, había
pocas pruebas directas sobre la forma en la que se alimentaba.
Una práctica habitual
Recreación de un T. rex devorando a otro. | N. Longrich /
Yale University
|
|
Tras examinar las colecciones de fósiles de varios
museos, el equipo liderado por el investigador de la
Universidad de Yale Nick
Longrich halló en cuatro ejemplares de 'T. rex' marcas de dientes realizadas
por dinosaurios carnívoros de gran tamaño. La mayor parte de las mordeduras
estaban en las patas. El único animal capaz de hacer este tipo de marcas en
la época en la que vivieron los animales examinados era otro 'T. rex'.
Los investigadores se han mostrado sorprendidos por la
frecuencia con la que aparentemente practicaban el canibalismo, aunque
todavía no saben su significado. Es posible que actuaran
como carroñeros cuando un animal moría o bien el resultado de una pelea
entre 'T. rex': el ganador se daba un festín a costa del derrotado.
"Los carnívoros actuales se comportan así todo el tiempo. Era una
manera de acabar con la competencia y obtener comida al mismo tiempo",
asegura Longrich.
Sin embargo, algunas de las marcas fueron hechas
tiempo después de que el animal hubiera fallecido. Según los
investigadores, esto podría explicarse de la siguiente manera. El dinosaurio
vencedor se habría comido las partes más accesibles de su víctima en el
momento de la muerte. Tiempo después, habría vuelto a por los huesos de las
patas.
|
A pesar de que a los científicos sólo les consta que otra
especie de dinosaurio, el 'Majungatholus', practicara el canibalismo, los
paleontólogos sospechan que se trataba de una práctica relativamente común
entre los grandes carnívoros.
Fuente:
elmundo.es, 19-10-10
-Cazando leones en Atapuerca
Efectivamente, el nivel 10 de este yacimiento está siendo excavado desde el
año 1980, primero en una reducida extensión y desde hace más de 10 años en una
área de aproximadamente 80 metros cuadrados. Se han registrado decenas de miles
de restos esqueléticos pertenecientes básicamente a herbívoros, así como
herramientas de piedra talladas sobre rocas de silex y cuarcita, pertenecientes
presumiblemente a los restos dejados por el
Homo
heildebergensis en sus ocupaciones humanas en esta cueva durante el
Pleistoceno medio, hace entre 300.000 a 350.000 años.
El análisis efectuado sobre los restos óseos de un paleodepredador de gran
tamaño podría alcanzar los 400 kilos; se ha podido demostrar que se habían
practicado sobre su cadáver una serie de intervenciones destinadas a la
obtención de la biomasa animal. Había sido despellejado y eviscerado,
siguiendo las pautas que los homininos hacían servir en el Pleistoceno con otros
vertebrados herbívoros.
La caza de un león de gran envergadura con las armas de que disponían estos
homínidos, hipotéticamente palos afilados y lanzas, no debía ser una
tarea fácil a menos que el animal tuviera alguna patología que lo hacia
más vulnerable. Es interesante el hecho que se constate que los Homo
heidelbergensis, en sus estrategias cinegéticas, tuvieran también como
objetivo estos grades depredadores.
Todo parece indicar un gran incremento de complejidad para
las poblaciones de homininos que habitaban la meseta hace más de 300.000 años.
Los descubrimientos que hemos efectuado en la
Sima de los Huesos, con una
antigüedad de más de 500.000 han evidenciado una gran encefalización,
así como una gran robustez en los taxones analizados. Estas dos
características nos hacen pensar que los homininos de Gran Dolina, más recientes
que los de la Sima, pero pertenecientes a la misma especie, disponían de
unas habilidades y un potencial de caza extraordinario, por lo cual no
es de extrañar que cacen leones.
A medida que la investigación avanza, nuevos hallazgos nos permiten conocer
las estrategias adaptativas de nuestros antepasados.
Enfrentarse a animales poderosos formaba parte de su estrategia social.
Seguramente, sin incrementar su sociabilidad durante decenas de
miles de años, no hubiera podido hacer frente a este reto.
Fuente: elmundo.es (blog sapiens), 18-10-10
-"Las
matemáticas siempre han ayudado al progreso de las ciencias"
Simon Levin (Baltimore, 1941) recogió el jueves pasado en Barcelona el Premio
Ramon Margalef de Ecología 2010 por su contribución a la ecología teórica y por
su trabajo innovador sobre la integración de diferentes escalas para la
comprensión de los procesos ecológicos.
Simon Levin, en Barcelona, después de recoger el Premio
Margalef. Guillem Valle
|
|
Usted es matemático de formación. ¿Hasta qué
punto han sido importantes las matemáticas en su carrera?
Me han dado la metodología para entender las cosas,
realizar predicciones, sugerir soluciones. Las matemáticas siempre han
ayudado al progreso de las ciencias. En la universidad empecé a ocuparme de
la dinámica de fluidos y de la física, pero quería ir más allá. Las
matemáticas se habían aplicado a la ecología y la biología, aunque cuando yo
empecé había muy pocos investigadores provenientes de este campo. Siempre
enfatizo la importancia de asociar la teoría matemática a las pruebas
empíricas en los trabajos de laboratorio o de campo.
Cada vez se utilizan más los modelos de
previsión, pero ¿no cree que nos faltan demasiados datos?
Sin duda. Hay una limitación muy grande. Y, a menudo,
la teoría que tenemos no es adecuada a los datos de los que disponemos. A
veces el trabajo teórico sustituye al empírico si este no se puede llevar
a cabo y para ello debemos poder desarrollar modelos de confianza. Es la
situación en la que nos encontramos al predecir el cambio climático o
algunas enfermedades infecciosas
|
El Premio Margalef destaca su contribución al integrar diferentes
escalas a las investigaciones...
Todos los
problemas científicos implican procesos que operan a diferentes escalas:
temporales, espaciales o de complejidad organizativa. La física trata de
capturar de forma estadística el comportamiento de un número muy grande de
moléculas en situaciones simples, como hervir agua, por ejemplo. Este tipo de
problemas también se dan en fenómenos biológicos y sociales.
¿Cómo se mejora la gestión de los ecosistemas?
Es nuestro mayor reto. Vivimos en una comunidad global,
donde los recursos son compartidos por todos. El mayor beneficio global
requiere que algunos actores (individuos o naciones) se sacrifiquen.
¿Hasta qué punto afecta al mar la sobreexplotación
pesquera?
En los mares se dan los cambios más preocupantes. Tenemos
que recibir los bienes y servicios que nos ofrecen los ecosistemas, que es la
esencia de la sostenibilidad. Por desgracia, hemos visto los recursos
pesqueros como algo infinito. Sabemos que las especies que consumimos se han
reducido, especialmente por la sobreexplotación y eso da lugar a situaciones
como la del mero chileno, un pescado muy popular y delicioso, que las ONG nos
sugieren que dejemos de consumir. Sin embargo, está en los menús. ¿Debo dejar
de comer este pescado? Al fin y al cabo, ya está muerto. Pero sustituir
poblaciones salvajes por las de piscifactoría lleva a otros problemas
medioambientales, como la contaminación o el abuso energético, que son
inaceptables.
Fuente: publico.es, 17-10-10
-El nitrógeno
antropogénico, una amenaza para la flora y la fauna
Investigadores de
Dinamarca y Estados Unidos han descubierto que los ecosistemas del planeta están
saturados de nitrógeno generado por el ser humano. Además, la concentración de
nitrógeno se ve aumentada por la quema de combustibles fósiles y por la
intensificación de la actividad industrial y agrícola.
Este exceso de
nitrógeno podría repercutir gravemente en el clima y viene al mismo tiempo
acompañado de una contaminación de cursos de agua dulce y zonas litorales por
efecto de diversas actividades humanas. El estudio, publicado en la revista
Science, ha revelado que una aplicación más amplia de prácticas sostenibles y ya
consolidadas contribuiría a limitar los impactos nocivos en el medio ambiente.
Los investigadores, pertenecientes a la Universidad del Sur de Dinamarca y a las
Universidades de California-Berkeley y Rutgers (Estados Unidos), explican que el
ciclo del nitrógeno, que tiene miles de millones de años de antigüedad, consiste
en la transformación de las formas de nitrógeno de la atmósfera que no son
útiles biológicamente en una serie de formas que sí lo son y que diversos
organismos necesitan para crear proteínas, ADN y ARN (ácidos desoxirribonucleico
y ribonucleico) y hacer la fotosíntesis. La «fijación del nitrógeno» es el
término científico empleado para referirse a la conversión de nitrógeno
atmosférico en diversos compuestos, como el amoníaco, ya sea por medios
naturales o procesos industriales. . La fijación del nitrógeno se produce en un
ciclo que abarca la atmósfera, el suelo, las plantas y sus raíces y por él
discurren los productos generados, fomentando relaciones entre organismos,
microorganismos y plantas.
Con el tiempo, dicho ciclo ha cambiado gradualmente desde sus orígenes debido a
distintas circunstancias como la luz solar, los procesos volcánicos y las
actividades biológicas. Tras 2.500 millones de años de evolución, los procesos
microbianos han conformado el ciclo del nitrógeno tal y como lo conocemos ahora.
Las actividades humanas empezaron a influir en este ciclo a principios del s. XX.
«De hecho, en los últimos 2.500 millones de años probablemente ningún otro
fenómeno ha influido más que las actividades humanas en el ciclo del nitrógeno»,
indicó uno de los autores del estudio, el profesor Paul Falkowski del Instituto
de Estudios Marinos y Costeros de la Universidad Rutgers. «En conjunto, las
actividades humanas generan actualmente el doble de los procesos de fijación de
nitrógeno terrestre que las fuentes naturales y proporcionan cerca del 45% del
total del nitrógeno biológicamente útil que se produce cada año en la Tierra».
Los datos recabados indican que la mayor parte del exceso de nitrógeno que hay
en los ecosistemas del planeta se debe a un incremento del 800% en el uso de
fertilizantes a base de nitrógeno en el periodo 1960-2000.
Este exceso se atribuye también a un uso inadecuado de una gran cantidad de
fertilizante a base de nitrógeno en cultivos de todo el planeta. Cerca del 60%
del nitrógeno contenido en los fertilizantes aplicados no llega a ser absorbido
por las plantas y por tanto es arrastrado desde las zonas radicales y a va a
parar a ríos, lagos, acuíferos y aguas costeras, los cuales contamina por
eutrofización. Este proceso se debe al exceso de nutrientes que agota el oxígeno
de las masas de agua y, por consiguiente, provoca la muerte de la flora y la
fauna.
Con respecto a la atmósfera, los investigadores indican que el óxido de
nitrógeno es un gas de efecto invernadero cuyo efecto en el calentamiento del
planeta es 300 veces por molécula superior al del dióxido de carbono. En
resumen, el óxido de nitrógeno elimina el ozono de la estratosfera, que protege
el planeta frente a los dañinos rayos ultravioleta.
«Es probable que los procesos naturales de retroalimentación de los
microorganismos provoquen un nuevo régimen estacionario en escalas de tiempo de
numerosas décadas», afirmó el profesor Falkowski. «En dicho régimen
estacionario, el nitrógeno excedente procedente de fuentes humanas se eliminará
a la misma velocidad a la que se añadirá, sin llegar a acumularse».
Los autores han concretado tres intervenciones fundamentales para remediar los
daños causados al ciclo del nitrógeno: 1) aplicar rotaciones sistemáticas en
cultivos que suministren nitrógeno; 2) optimizar los tiempos y las cantidades de
los fertilizantes aplicados y adoptar técnicas fitogenéticas seleccionadas o
bien desarrollar variedades de plantas transgénicas cuya eficiencia en el uso
del nitrógeno sea mayor; y 3) aplicar técnicas fitológicas tradicionales que
aumenten el potencial de variedades económicamente viables de trigo, cebada y
centeno.
Fuente: CORDIS,
16-10-10
-Un yacimiento de gas junto al "Prestige"
Misión Galega do Gran Burato es el nombre que ha
recibido la expedición científica compuesta por una veintena de
investigadores que, desde hoy, tratará de determinar si en la costa gallega
se acumula gas en un volumen suficiente como para hacer rentable su
explotación comercial. En concreto, el yacimiento de hidratos de gas, una
tipología de hidrocarburo, se encuentra muy cerca del pecio del petrolero
Prestige, hundido hace ahora ocho años, en una cavidad de cuatro
kilómetros de diámetro y 300 metros de fondo, en lo que constituye "la
estructura de este tipo más grande del mundo", según Daniel Rey, catedrático
de la Universidade de Vigo, del grupo
de Geología Marina y Ambiental (Geoma) que coordina la misión. Pese a todo,
Rey se muestra cauteloso en cuanto a los resultados. "Sabemos que existe el
yacimiento pero la zona es muy inaccesible [se encuentra a 140 kilómetros de
la costa y a 1.700 metros de profundidad], por lo que es imposible hablar en
estos momentos de si será rentable o
no su explotación. Lo que queremos determinar en esta primera fase es si
merece la pena seguir con las prospecciones", precisa.
Por la misma razón, es demasiado pronto para establecer
cómo se efectuarían las eventuales extracciones y la
explotación del hidrocarburo. De lo que no existe ninguna duda es
de la acumulación gasística. Los primeros indicios salieron a la luz en
2007 durante la travesía del buque oceanográfico L'Atalante hacia
la zona de hundimiento del Prestige. Tres años después, se ha
confirmado la presencia de "indicios de gas importantes". La morfología
del gran burato (gran agujero, en gallego), así como los
registros sísmicos, son pruebas
concluyentes de la presencia de una reserva de gas.
|
|
El Buque Sarmiento de Gamboa |
Quince días de estudio
Investigadores de la Universidade de Vigo y de Aveiro
(Portugal), así como científicos del Instituto Español de Oceanografía y del
Instituto Andaluz de Ciencias de la Tierra se embarcarán durante 15 días en el
buque oceanográfico Sarmiento de Gamboa en una
expedición financiada por la
Conselleria de Industria de la Xunta.
"La estructura es gigantesca desde el punto de vista
geológico y supone una investigación muy interesante, con el
interés económico añadido que supone la
posibilidad de encontrar gas", explica el catedrático. Con un presupuesto
inicial "modesto" de 450.000 euros, precisa Rey, lo siguiente será determinar
si compensa seguir adelante con las inversiones.
"En esa fase sería preciso poner a prueba una tecnología
muy específica y puntera con la que sólo cuentan las grandes petroleras",
aclara Rey, que intenta calmar las "expectativas" generadas desde que
trascendió la existencia del yacimiento. "Aunque se confirme la viabilidad, no
va a cambiar la economía de un día para otro", dice.
La Xunta no duda, en cambio, de que "si
se constatase la existencia de gas con un yacimiento que pudiese ser
explotado, Galicia cambiará su posición en el contexto internacional de la
energía", según el conselleiro de Industria, Javier Guerra.
Fuente: publico.es, 15-10-10
-Objetivo: detectar el cáncer en la sangre
Los marcadores biológicos constituyen el 'santo grial' del
diagnóstico precoz y el tratamiento personalizado en oncología. Esta semana se
ha celebrado en Denver (EEUU), bajo los auspicios de la Asociación Americana
de Investigación del Cáncer, la reunión más importante en este ámbito. Los
estudios presentados muestran la intensa búsqueda de sustancias con un
gran potencial para detectar tumores en fases iniciales o predecir su
evolución con una simple muestra de sangre.
Uno de los trabajos expuestos, desarrollado en Reino
Unido por la empresa Oxford Gene Technology, consiste en un conjunto de
biomarcadores que pueden determinar si existe un cáncer de próstata con un
porcentaje de seguridad del 90%. Otro estudio describe un procedimiento
que detecta en sangre la mayoría de los cánceres de colon cuando apenas
han empezado a gestarse. Mama, vejiga, pulmón... todos los tumores podrían
contar, en el futuro, con sistemas de diagnóstico mucho más sencillos que
los actuales. Los más optimistas creen que, incluso, podrían
llegar a sustituir a las actuales mamografías, colonoscopias y biopsias.
Sin embargo, de momento se trata únicamente de
promesas. Respaldadas por expertos de reconocido prestigio y con una
sólida base científica, pero con un largo recorrido por delante. Tal y
como explica Jesús García-Foncillas, codirector del Programa de
Biomarcadores en Oncología del Instituto Roche y director del Departamento
de Oncología de la Clínica Universidad de Navarra, "existe una clarísima
base racional para afirmar que, desde los primeros albores de un tumor,
las células tumorales secretan moléculas que pueden detectarse en sangre
periférica". |
|
|
El problema es que esas sustancias aparecen en cantidades
muy pequeñas cuando el cáncer es incipiente y, con frecuencia, sólo se
observan de forma clara y abundante cuando el tumor ya se encuentra en una
fase bastante más avanzada.
Confusión
Algunos marcadores pueden plantear otro escollo: que sean
poco específicos. Puede ser que se relacionen con una enfermedad, pero que
también estén elevados en otras patologías o circunstancias. Un ejemplo
hipotético: si una proteína presente en la sangre de quienes sufren un cáncer
de colon en fase inicial también se encuentra en cantidades elevadas en los
fumadores, ¿cómo podrían asegurarse los médicos de que realmente se trata de
un tumor? La respuesta está clara: mediante la realización de otras pruebas
disponibles, como la colonoscopia.
En la última década se ha intensificado la búsqueda de
biomarcadores para el diagnóstico precoz del cáncer en sangre. Pero, debido a
las dificultades mencionadas, "hoy por hoy, lo que tenemos en la
práctica clínica diaria es muy poco", señala Félix Bonilla, jefe del
Servicio de Oncología del Hospital Universitario Puerta de Hierro Majadahonda
de Madrid. "Hay dos muy buenos para los tumores germinales de testículo y de
ovario, que permiten hacer un diagnóstico sin necesidad de pruebas de imagen",
añade. Se trata de las proteínas beta-HCG y alfa-fetoproteína. Otra sustancia
muy usada es el antígeno prostático específico (PSA) para detectar el cáncer
de próstata, aunque su empleo no está exento de controversia.
Los oncólogos utilizan otros biomarcadores que se
encuentran en la sangre. Sin embargo, no van destinados al diagnóstico, sino
al seguimiento de la evolución de los tumores. Se ha comprobado que algunas
sustancias aportan información muy útil sobre el pronóstico de la patología y
muestran si responde de forma adecuada a la medicación.
Ésta es, precisamente, una de las áreas que, según García-Foncillas,
sí que está logrando introducirse en los hospitales de todo el mundo. No todos
los posibles biomarcadores destinados a predecir qué fármaco es mejor para
cada tumor llegan a buen puerto, pero el experto calcula que aproximadamente
uno de cada cinco pasa la criba y se consolida en la práctica clínica.
Fuente: abc.es,
14-10-11
-La
mano de obra sale a 4,6 euros por iPhone en China
La mano de obra para la fabricación del iPhone
4 sale en China a 6,54 dólares (4,6 euros) por unidad, lo que significa
un 1,1% de su precio de venta, según la firma de investigaciones de mercado
iSuppli.
Este dato resulta llamativo coincidiendo con la
denuncia de las condiciones laborales de
los trabajadores de Foxconn, empresa encargada de la fabricación
del iPhone y con sede en China, envuelta en polémica por una ola de
suicidio.
Por el contrario, el informe resalta que los márgenes
de beneficio de Apple con el iPhone rondan el
60%.
El pasado mes de junio, iSuppli también cifraba el
coste total de fabricación del dispositivo en
188 dólares (152,4 euros). El
análisis era con la versión de 16 GB del iPhone 4, que se podía adquirir
por 199 dólares (161,3 euros) en EEUU, a lo que había que sumar un
contrato de consumo con AT&T.
Algunos de los precios de las piezas eran, por ejemplo,
el chip del giroscopio, en 2,6 dólares (2,1 euros) o el chip A4 fabricado
por Samsung, 10,75 dólares (8,7 euros). El componente más caro era la
pantalla del dispositivo, fabricada por LG Display con un coste de 28,5
dólares (23 euros). |
|
|
Fuente: publico.es, 13-5-10
-EEUU trata al primer paciente con células madre embrionarias
El primer paciente inscrito en el primer ensayo clínico con
células madre embrionarias humanas del mundo ha sufrido hace menos de 14 días un
daño medular agudo que le ha producido una parálisis parcial. Es muy probable
que sea una víctima más de los accidentes de automóvil, pero no se sabe, igual
que no se conocen su nombre, su sexo y su edad. Lo único que se sabe es que está
siendo tratado en el hospital privado Shepherd Center de Atlanta (Estado de
Georgia, EE UU), porque así lo han comunicado la empresa Geron, fabricante de
los dos millones de células que se aplicaron el viernes a este paciente, y el
citado hospital. No se van a dar más datos por ahora, pero los requisitos para
entrar en el ensayo clínico sí se conocen y son los descritos: pacientes con
lesión medular grave, con falta total de actividad locomotora o sensorial por
debajo de la lesión, y que por las características de esta puedan ser tratados
entre los siete y los 14 días siguientes.
Las acciones de Geron subieron ayer alrededor de un 6% en
Bolsa y algunos activistas contrarios al uso de células embrionarias criticaron
el ensayo: "Geron ayuda a su acción, no a la ciencia ni, especialmente, a los
pacientes. Pasarán años antes de tener pruebas sólidas sobre la seguridad o la
efectividad", declaró, por ejemplo, David Prentice, del Consejo de Investigación
de la Familia.
La empresa obtuvo este verano el permiso definitivo de la
autoridad sanitaria (la Administración de Alimentos y Medicamentos, FDA) para
realizar el ensayo, de fase I. El objetivo es probar la seguridad y la
tolerancia del tratamiento durante un año, aunque también se evaluará su posible
eficacia en la regeneración de la médula espinal. La terapia consiste en una
única inyección de un tipo de células del sistema nervioso en el lugar del daño
en la médula espinal. Estas células producen mielina -la capa aislante que rodea
los axones de las neuronas y les permite comunicarse a través de impulsos
eléctricos- así como otros compuestos que favorecen la actividad de las
neuronas. Cuando se inyectaron en animales estas células, que son precursoras de
los oligodendrocitos, se vio que migraron al lugar de la lesión, se convirtieron
en oligodendrocitos funcionales y mejoró ostensiblemente la locomoción de los
animales.
El ensayo se hará con solo 10 pacientes y en todos o algunos
de los siete hospitales seleccionados, de los que únicamente se conocen dos, el
Shepherd Center y el Northwestern Medicine de Chicago.
"El inicio del ensayo clínico es un hito en el campo de las
terapias basadas en células madre embrionarias", dice Thomas B. Okarma,
presidente de Geron, en un comunicado. "Cuando empezamos a trabajar con estas
células, en 1999, muchos predijeron que pasarían décadas antes de que se pudiera
aprobar una terapia y realizar ensayos clínicos".
Geron ha partido de células procedentes de embriones
desechados en tratamientos de fertilidad, que ha logrado diferenciar en
laboratorio para dar lugar a las que va a utilizar en el ensayo. Es una empresa
privada que no utiliza fondos públicos por lo que no resulta afectada por el
laberinto legal en que se encuentra en Estados Unidos la investigación con
células madre embrionarias humanas con estos fondos. Los tribunales permitieron
recientemente que sigan los experimentos en marcha en este área mientras entran
a juzgar el fondo de la cuestión, tras admitir a trámite denuncias contra el uso
de este tipo de células.
Mientras tanto, sigue el desarrollo de técnicas de
manipulación genética para llegar al mismo sitio a partir de células adultas,
que se reprograman, y los intentos por clonar células de pacientes para obtener
terapias celulares sin rechazo.
Fuente: elmundo.es, 12-10-10
-"No
he visto un nivel de destrucción así en mi vida"
El muro de contención ya
está terminado, pero los habitantes de Kolontár perderan unas 40 casas dañadas
por la riada y los productos químicos del lodo
El muro ya ha sido levantado, pero muchos de los
vecinos de Kolontár están concentrados ahora mismo en otro tipo de
construcciones. Sus casas tendrán que ser derruidas por los efectos de la
riada de lodo tóxico
que ha convertido en un infierno rojo su tierra.
Les han prometido viviendas, pero no saben dónde ni quién pondrá en dinero
para poder cobijarse bajo un nuevo techo.
"No he visto un nivel de destrucción así en mi vida",
confiesa Denis Dalmy, un arquitecto encargado de revisar los daños de los
edificios. Los peritos, más allá de causa directa de la riada, que ha
dañado las infraestructuras de las casas, han destacado que unas 40
tendrán que ser derribadas por los perniciosos efectos de los productos
químicos y metales pesados que contiene el barro, informa Nuño
Domínguez. "Con tanto lodo, habrá que tirarlas".
Tibor Dobson, coordinador de la protección civil
húngara (OKF), ha confirmado que el Gobierno ha prometido nuevas viviendas
a las víctimas, que podrían elegir su ubicación: bien en una zona de la
localidad no afectada por la riada, bien en otra población. Los que han
corrido mejor suerte tendrán que esperar previsiblemente hasta el sábado
para regresar a sus hogares. |
|
|
Seis metros de alto
Las obras del nuevo dique de contención para proteger del
lodo tóxico a las localidades húngaras de Kolontár y Devecser han
concluido. En algunos puntos mide hasta seis metros y los materiales empleados
han sido rocas y tierra compacta, según OKF.
Por su parte, la portavoz de protección civil,
Györgyi Tüttös, explicó que los medios
de comunicación y los habitantes no tienen permitido por ahora acercarse a la
zona, ya que los niveles de contaminación aérea son tres veces superiores a lo
permitido. En un par de días es posible que puedan hacerlo.
Kolontár, el poblado más afectado
Kolontár, en al oeste de Hungría, fue el poblado más
afectado por el derrame el 4 de octubre de barro rojo y el levantamiento del
nuevo dique de contención tiene por objetivo desviar una posible segunda riada
del material corrosivo restante en el reservorio. El muro de unos 1.500 metros
de largo está compuesto por unas 40.000 toneladas de rocas transportadas con
camiones de gran tonelaje.
Las autoridades húngaras dan por seguro que ocurrirá un
segundo vertido, aunque el barro rojo restante es menos fluido por lo que
apenas se desplazará unos mil metros de la balsa. Tüttös explicó que las
grietas detectadas en el muro norte del dique de la represa no han aumentado
desde hace varios días, lo que indicaría que ha disminuido el peligro de un
nuevo vertido.
Fuente: elmundo.es, 12-10-10
-El
primer ministro húngaro habla de "negligencia humana" tras el vertido tóxico
El Estado húngaro ha tomado el control de Magyar
Alumínium (MAL), la empresa responsable del vertido tóxico que ha
causado ocho muertos en el oeste del país y graves daños ecológicos, tras la
detención de su director.
"La empresa responsable de la catástrofe debe ser puesta
bajo el control del Estado", dijo el primer ministro húngaro, Viktor Orban,
en una intervención en el Parlamento en la que recalcó que la
"negligencia humana" está detrás de la catástrofe. En su discurso,
el jefe de Gobierno húngaro prometió un proceso legal "severo y justo", tras
asegurar que no se puede "seguir viviendo con peligros secretos".
"Tenemos razones para creer que hubo personas que eran
conscientes del peligroso debilitamiento de los muros, pero llevados
por sus intereses creyeron que no merecía la pena repararlos",
agregó.
Detenido el director de la empresa
El director de MAL, Zoltán Bakonyi, ha sido detenido de
forma cautelar durante 72 horas por las acusaciones de crear un peligro
público y ser responsable de la muerte de varias personas, así como de
incontables daños naturales.
Bakonyi ha sido detenido este lunes por agentes de la
Oficina Central de Investigaciones, que posteriormente lo han interrogado,
según informó la Policía. En los días anteriores tanto Orbán como otros
miembros del Gobierno aseguraron que lo sucedido se debió a un error humano
y que los responsables serían "castigados severamente".
|
|
Imagen de la balsa |
Las prioridades
Las cuatro prioridades del gobierno después de la
catástrofe medioambiental son, según adelantó Orbán: indemnizar a los
damnificados, asegurar el trabajo en la empresa para que no se pierdan
empleos, impedir otras catástrofes y encontrar a los responsables de lo
sucedido.
MAL ha sido puesta bajo control directo del Estado, dirigida por
un "comisario de defensa de catástrofes", que será responsable de
"supervisar, dirigir y manejar" los bienes de la empresa.
La construcción de un nuevo dique
Mientras el Gobierno ha dado un golpe de autoridad para
tratar de depurar responsabilidades por la peor catástrofe ecológica del
país, en la zona siniestrada se trabaja contrarreloj para terminar
un dique de contención que frene una segunda riada de "barro rojo".
Ya se han construido unos 1.000 metros de longitud de
éste dique que tendrá una anchura de 25 metros y cinco de altura. En total
estará compuesto por unas 40.000 toneladas de rocas que tienen como fin
contener y desviar ese segundo vertido a una zona de control, explicó la
portavoz de protección civil, Györgyi Tüttös.
Las autoridades dan por segura una segunda riada, aunque
el "barro rojo" que queda en la represa es menos líquido y su movilidad
sería sólo de unos 1.000 metros, mucho menor que el derrame de hace una
semana, que ha contaminado con metales pesados unos 40 kilómetros
cuadrados.
De momento no se sabe a ciencia cierta cuánto aguantará
el muro norte de la balsa de acumulación, que presenta importantes
grietas, por lo que las autoridades consideran que una nueva fuga
puede producirse en "semanas o meses".
El clima, a favor de los operarios
Gracias al buen tiempo, las grietas detectadas el jueves
en el muro norte no han aumentado, pero el sol y las relativamente altas
temperaturas están haciendo que se seque el lodo y se convierta en polvo en
la región afectada.
Por ello, las autoridades hicieron hoy obligatorio el uso
de mascarillas y gafas protectoras a todos los que trabajan en los retenes
de reconstrucción, ya que debido al buen tiempo de los últimos días se ha
incrementado el polvo tóxico en el aire, que podría causar problemas de
salud.
Mientras, la dirección de aguas de la región informó de
que el estado de las aguas de ríos infectados en el vertido del lunes, como
el Rába y el Mosoni-Duna, es hoy similar a los índices registrados antes de
la catástrofe.
Este mediodía llegaron a Hungría tres de los cinco expertos europeos que
analizarán la situación en las poblaciones afectadas y presentarán un
informe sobre sus recomendaciones el viernes.
Fuente: elmundo.es, 11-10-10
-Google diseña un coche
sin conductor
Google ya no solo quiere clasificar toda la información que hay en internet;
ahora también quiere organizar el tráfico en las carreteras.
La compañía anunció el sábado, mediante un comunicado colgado
en su página web, que ha creado una nueva generación de vehículos que funcionan
sin conductor.
Detalle del proyecto de Mike Montemerlo, de la
Universidad de Stanford (2005), ganador del desafío DARPA que inspiró
los coches autónomos de Google.
|
|
Según la nota, firmada por el ingeniero de software
Sebastian Thrun, "el objetivo es prevenir accidentes de
tráfico, conseguir que la gente tenga más tiempo y reducir las emisiones de
carbono, cambiando radicalmente el uso del coche".
Los expertos de Google han trabajado durante meses con
los ingenieros Mike Montemerlo y Chris Urmson, ganadores en 2005 y 2007,
respectivamente, del desafío DARPA, una carrera de vehículos robotizados
organizada por el Gobierno de EEUU. Los
coches automatizados de Google han recorrido mil millas (1.609
kilómetros) sin ninguna intervención humana, y alrededor de 140.000 (unos
225.300 kilómetros) con la ayuda de los ingenieros. Uno de los coches
condujo solo, incluso, por la famosa calle Lombard de San Francisco, repleta
de complicadas curvas.
En su nota, Google ofrece escasos detalles sobre
los vehículos, y tampoco proporciona fotografías. Únicamente
explica que los coches utilizan videocámaras y sensores por radar y láser
para observar al resto de vehículos y controlar los obstáculos del camino.
Además, los autómatas utilizan una base de datos con mapas detallados de la
zona.
The New York Times ofrecía este domingo más
información. Según explica el diario, un equipo de 15 ingenieros de Google y
otra docena de personas, todas con un historial intachable al volante, han
circulado por las carreteras de California a bordo de seis Prius y un Audi
TT, tuneados con radares y cámaras. |
Perfil precavido o agresivo
Según explica en su crónica el periodista John Markoff, que
montó en uno de los coches, el vehículo se adapta a la velocidad permitida
legalmente en cada tramo por el que se conduce, y alerta al conductor, con una
agradable voz femenina, cuando se aproxima a un paso de cebra o a algún
obstáculo. Se trata de simple precaución porque los ingenieros no tienen que
intervenir. El coche puede ser programado según la personalidad del
conductor, entre precavido y agresivo y, según la decisión, el coche
cederá el paso al resto de vehículos con mayor o menor frecuencia.
Los ingenieros de Google aseguran que los coches sólo
tuvieron un accidente, y ocurrió porque uno de ellos fue golpeado por detrás. En
su nota, Thrun explica que el proyecto "está en un estado experimental", pero
asegura: "Permite vislumbrar cómo podría ser el transporte en el futuro".
Los detalles del vehículo robot
- Un sensor en el
techo del coche de Google genera mapas en tres dimensiones de todos los
objetos que lo rodean.
- Cerca del espejo retrovisor, los ingenieros colocaron
una videocámara que detecta los
semáforos y reconoce obstáculos en movimiento, como ciclistas y peatones.
- Cuatro radares (tres en la parte
frontal del vehículo y uno en la trasera) determinan la posición de los
objetos más distantes.
Fuente: publico.es, 10-10-11
-Naves interestelares: un grupo de científicos diseña una
máquina para ir más allá del Sol
La máquina que pudiera llegar a
planetas ajenos al Sistema Solar debería estar propulsada por energía
procedente de la fusión nuclear, resistir las condiciones más extremas de
radiación, temperatura e impactos. Una minúscula partícula de polvo podría
dañarla si viaja a una quinta parte de la velocidad de la luz. Con todo, en
el mejor de los casos, sólo el trayecto de ida duraría más de 25 años.
Cuando el ser humano consiguió
poner un pie en la Luna, un cóctel de optimismo colectivo y desbordante
imaginación hizo pensar a una parte importante de la población que no era sino
el primero de una serie de pasos para conquistar el espacio. No parecía tan
descabellado ni siquiera en los años 80 concebir vuelos regulares al satélite de
la Tierra o al fascinante planeta rojo, donde habría futuristas bases habitables
con todas las comodidades. Sin embargo, ya inmersos en la segunda década del
siglo XXI, los conocimientos han avanzado, sí, pero por Marte sólo circulan
vehículos robotizados para recoger muestras que en ocasiones se hacen papilla al
aterrizar sobre la superficie marciana o acaban en algún agujero.
Visionarios
Los sueños se quedaron muy cortos, pero sin personas con mente ambiciosa que
piensan «un día será posible» el ser humano nunca hubiera logrado hitos en el
conocimiento y la exploración. Puede que nadie haya pisado Marte todavía, pero
un grupo de científicos lleva mucho tiempo estudiando no sólo cómo alcanzar
cuerpos celestiales del Sistema Solar, diseñan una nave para viajar más allá del
Sol hacia mundos donde la Humanidad pueda establecerse cuando la Tierra sucumba
a los excesos o hacia planetas en los pueda haber alguna forma de vida. En los
años setenta, un grupo de científicos de la Sociedad Interplanetaria Británica
pusieron en marcha el proyecto Dédalo para diseñar un modelo de nave que pudiera
alcanzar la estrella de Barnard, que se encuentra a nada menos que 5,9 años luz
de la Tierra. Ahora, jóvenes científicos trabajan en el proyecto Icarus (Ícaro),
el hijo de Dédalo, con el objetivo de poner las bases para que una nave pueda
viajar fuera del Sistema Solar.
La semana pasada, estos visionarios recibieron una noticia que incita a trabajar
con más ahínco en su estudio: la existencia un planeta muy parecido al nuestro,
pero a 20 años luz de aquí. Un grupo de astrónomos de Estado Unidos ha
descubierto una «nueva Tierra» que gravita en torno a la estrella Gliese 581.
Tiene cuatro veces su tamaño, pero unas condiciones de gravedad y temperatura
que lo hacen compatible con la vida humana.
Está claro que la tecnología actual impide conquistar ni siquiera los dominios
de nuestra estrella, el Sol, pero ¿qué tendría que cambiar para que fueran
factibles los viajes interestelares? El proyecto Icarus plantea que una nave no
tripulada lograse viajar a un 20 por ciento de la velocidad de la luz, ése es su
objetivo, pero el camino está plagado de dificultades como resume a este
semanario Richard Obusy, físico teórico y uno de los miembros del proyecto,
«incluso si logramos la velocidad que proponemos, alcanzar las estrellas más
cercanas podría llevarnos un cuarto de siglo. Los combustibles actuales para los
cohetes no sirven. Pero hay más problemas además de la propulsión. Viajando a
esas velocidades incluso una diminuta partícula de polvo podría causar un gran
daño a la estructura de la nave, tendría que tener mucha autonomía energética
para funcionar sin ayuda durante tantos años y también están las comunicaciones
para transmitir a la Tierra desde tan lejos…».
Combustible
Por su parte, Jesús López, catedrático de Ingeniería Aeroespacial de la ETSI
Aeronáuticos de la Universidad Politécnica de Madrid, cree que «el mayor
problema por resolver sería la propulsión, para lo que la opción más prometedora
es la fusión nuclear». El hombre persigue el objetivo de reproducir de forma
artificial ese proceso que sólo tiene lugar en el interior de estrellas y
planetas y que consiste en la unión de varios núcleos atómicos para formar otros
más pesados, lo que implica la liberación de una gran cantidad de energía. «La
fusión es la opción más lógica, pero hay que garantizar que funciona y que es
embarcable en una nave para usar esa energía para propulsarse. También se puede
pensar en el empleo de energía solar, pero no deberíamos depender de otras
estrellas sobre las que desconocemos muchas cosas». Respecto a las posibilidades
de colisionar, López los considera un problema menor, «no es más difícil que lo
que ya se ha resuelto para viajar por el Sistema Solar, un buen sistema de
navegación podría evitar chocar contra otros objetos», añade.
Desde la NASA, el portavoz de la Oficina de Tecnología, David E. Steitz, asegura
que «también la nave debe enfrentarse a condiciones extremas de radiación,
temperatura. Pero también debería ser capaz de almacenar enormes cantidades de
energía. De hecho, el éxito de esta misión significaría que hemos logrado
solventar grandes problemas de comunicaciones, materiales, fiabilidad de la
mecánica, electrónica y todo eso se reflejaría en todas las tecnologías y
objetos de consumo en la Tierra, como los coches, los teléfonos, ordenadores,
aviones… así que es un objetivo muy deseable para la raza humana».
Sin embargo, Steitz recalca cuán lejos estamos de lograr velocidades de crucero
prodigiosas. «El objeto más rápido fabricado por el hombre es la sonda Voyager
I, que viaja a 17 kilómetros por segundo. Alcanzar Alfa Centauro, nuestra
estrella más próxima, le llevaría 75.000 años; y si pudiera viajar mil veces más
rápido ya serían 75 años. Pero mantener esa velocidad hasta alcanzar el objetivo
no resultaría muy útil para estudiar esos mundos, habría por tanto que reducir
la velocidad en el tramo final del trayecto y compensarlo con una velocidad
punta mucho mayor hasta la mitad del recorrido».
Queda mucho por hacer. El trabajo de los miembros del Proyecto Icarus no es
tanto ver construida esa nave, sino sentar las bases para una nueva generación
de científicos que sí tenga en sus manos las herramientas técnicas que lo
permitan. Obusy cree que «el descubrimiento de planetas parecidos a la Tierra
desatará más interés en los viajes interestelares». Sobre si lo lograremos, el
catedrático Jesús López afirma que «el ser humano ha sido capaz de poner en
marcha todos lo que se ha imaginado. Si nos empreñamos, lo conseguiremos».
¿Merece la pena?
Siempre hay quien se pregunta para qué invertir tanto dinero en conocer otros
mundos con tantos problemas que tenemos a la vuelta de la esquina. Una misión
como Icarus costaría varios billones de euros, pero a esas magnitudes, según
Richard Obusy, «no es comparativamente más caro que la Estación Espacial
Internacional». Respecto a los grandes problemas de la Humanidad (cambio
climático, hambruna, pobreza...), el físico lo considera un debate «con trampa»
ya que si quisiéramos luchar contra esas lacras podríamos haber empleado los
150 millones de dólares gastados en la inauguración de los Juegos Olímpicos de
Pekín o los 20.000 millones de dólares que se gastaron en alcohol los
adolescentes estadounidenses o los sueldos de los jugadores de la Premier League.
Hay que pensar también en el retorno de la inversión, en los miles de empleos
que se crearían para científicos, ingenieros y especialistas, nuevas
industrias...», dice.
Fuente:
larazon.es, 9-10-10
-Mil millones de toneladas
de hielo del polo Sur para observar neutrinos
Si los experimentos de física de partículas suelen ser
sorprendentes, el IceCube bien puede ser el más peculiar. Se trata de un
observatorio de neutrinos de alta energía que utiliza mil millones de toneladas
de hielo profundo antártico, de extremada transparencia, para detectar neutrinos
con gran precisión, tal vez las partículas elementales más fantasmagóricas dado
que apenas interaccionan con la materia y billones de ellas atraviesan cualquier
cosa cada día, incluso el cuerpo humano, sin que se note. Por eso es
dificilísimo verlas y por eso los físicos diseñan extraños dispositivos para
estudiarlas. El IceCube, que se empezó a construir en 2004 justo en el polo Sur,
junto a al
base
científica estadounidense Amundsen-Scott, tras años de planes y ensayos; se
terminará en enero de 2011.
Los registros de los sensores del observatorio IceCube se transmiten por
cables desde las perforaciones en el hielo hasta los ordenadores del
laboratorio- J. HAUGEN
|
|
El observatorio, que en la superficie se extiende un
kilómetro cuadrado y se adentra en el hielo antártico hasta 2.500 metros de
profundidad, esta formado por un conjunto de 86 líneas verticales con
detectores y equipos electrónicos. En total son 5.160 sensores ópticos,
además de todos los dispositivos de registro y transmisión de datos. Para
colocar las líneas se van haciendo perforaciones de 61 centímetros de
diámetro en el hielo con agua caliente, se bajan las líneas de instrumentos
y, cuando el agua se vuelve a congelar, quedan fijas. La dificultad de la
construcción del Icecube y las complicaciones de la logística en el
continente blanco han sido tremendas, explican el director científico del
proyecto, el estadounidense Francis Halzen y su colega Spencer Klein en un
largo artículo publicado en una revista del Instituto Americano de Física
(API) ahora que se acerca ya la hora de comenzar (el año que viene) la
investigación. Con él, afirman, se abren las puertas de la auténtica
astronomía de neutrinos. En los fenómenos más violentos del universo, como
explosiones estelares, agujeros negros o estallidos de rayos gamma, se
generan estas partículas y su estudio ayudará a resolver misterios de estos
fenómenos cósmicos.
IceCube se basa en el hecho de que cuando un neutrino
choca contra el núcleo de una molécula del agua helada se genera una emisión
de luz llamada Cherenkov que ven los sensores del detector. La información
combinada de los sensores perfectamente calibrados y sincronizados permitirá
reconocer las fuentes de esos neutrinos en el universo. También la materia
oscura puede desvelarse en esta gran instalación, aseguran los
especialistas.
El nuevo gran detector, cuyo coste asciende a 212
millones de euros, es heredero directo de varios predecesores, trampas de de
neutrinos también peculiares (con las líneas sumergidas en el mar por,
ejemplo) y varios han tenido éxito y funcionan. Otros fracasaron porque el
reto era excesivo para la tecnología del momento, como el Dumand, que se
empezó a montar cerca de Hawai para aprovechar las aguas oceánicas allí como
Icecube aprovecha el hielo transparente de la Antártida, recuerdan Halzen y
Klein. |
Un detector en el lago Baikal y tres en el Mediterráneo (Antares,
Nestor y Nemo) han aportado los conocimientos y la experiencia suficiente para
confiar en el éxito del IceCube. Antares, cerca de la costa francesa, instalado
a 2.400 metros de profundidad, está ya completo con 12 líneas de sensores y
funciona. Otros observatorios, más pequeños pero muy eficaces para determinados
estudios están en funcionamiento, como el Superkamiokande japonés o el SNO
canadiense, situado en las profundidades de una mina de carbón.
Pero el antecesor directo del IceCube ha sido el Amanda,
también instalado en el continente blanco y en funcionamiento desde 2000 a 2009.
El nuevo dispositivo es mucho más ambicioso y, gracias a su gran tamaño,
permitirá llegar más lejos científicamente. "Hacen falta inmensos detectores de
partículas para capturar neutrinos cósmicos en cantidades estadísticamente
significativas", escriben los dos físicos en la revista Review of Scientific
Instruments de la API. El IceCube observará varios cientos de neutrinos de
alta energía cada día, según las previsiones.
La construcción de una instalación como IceCube en la
Antártida, un proyecto internacional liderado por la
National Science Foundation
estadounidense, es extremadamente compleja. La temporada anual para trabajar es
muy corta, solo de mediados de octubre a mediados de febrero (el verano
austral), y para hacer todas las perforaciones en el hielo colocando las líneas
de sensores han hecho falta siete campañas. Solo el transporte hasta el polo Sur
de todo el material, desde perforadoras hasta plantas energéticas y de agua
caliente hasta bombas de alta presión, es ya una complicación. La mayor parte de
los equipos han sido especialmente diseñados para este trabajo. Halzen y Klein
agradecen especialmente el apoyo que presta en el proyecto el personal de la
base antártica Amundse-Scott.
Fuente: elapais.com, 9-10-10
-Aragón registra un caso de malaria autóctono
Es el primer contagio de paludismo que se produce en
España desde 1961 y no supone ningún riesgo para la población. El paciente,
diagnosticado en el mes de septiembre en la provincia de Huesca, contrajo la
enfermedad por la picadura de un mosquito 'Anopheles atroparvus' que portaba
el parásito. Las autoridades sanitarias subrayan que se trata de una
"curiosidad epidemiológica".
El caso fue detectado a finales de septiembre en un
paciente que presentaba fiebre y malestar que no remitían con los
tratamientos habituales. Tras una analítica anormal, se enviaron muestras al
Instituto de Salud Carlos III de Madrid que confirmó el día 1 de octubre el
diagnóstico de malaria. El paciente recibió terapia y se recuperó
sin mayor complicación.
Aunque el contagio se produjo en España, puesto que el
paciente no había viajado al extranjero, "se trata de un caso
concreto y aislado y, además, de poco riesgo", subrayan desde la
Consejería de Sanidad de Aragón. "Es una curiosidad epidemiológica que no
pone en riesgo a la población. Una anécdota más que una amenaza", ha
explicado a ELMUNDO.es Francisco Javier Falo, director de Salud Pública del
citado organismo.
Los análisis indicaron que el parásito responsable de la
infección era el 'Plasmodium vivax', que produce una forma leve de la
enfermedad. El transmisor, según las autoridades, sería el mosquito 'Anopheles
atroparvus', una de las especies más importantes en los países
mediterráneos.
Para el experto aragonés, la detección de este caso es
"un signo de robustez del sistema sanitario" que tiene "trascendencia desde
el punto de vista epidemiológico" pero cuyo "impacto en la salud es muy
reducido".
'Anophelismo sin paludismo'
La
malaria no es una enfermedad extraña en nuestro país ya que cada año se
registran alrededor de 500 casos. Todos ellos corresponden a personas que
han contraido la infección durante un viaje al extranjero y la han
'importado'. Los contagios producidos por un mosquito patrio no se
registran desde 1961 y el paludismo se declaró oficialmente
erradicado en 1964.
"El vector ['An. atroparvus'] está presente con carácter
general en toda España", señala Francisco Javier Falo. "Se dice que es una
región de anophelismo sin paludismo", añade.
Hace unos meses, un informe del proyecto europeo EDEN (Emerging
Diseases in a changing European eNvironment) confirmó la elevada presencia
del vector en la zona del Delta del Ebro aunque afirmaba que el riesgo de
reaparición del paludismo en España es prácticamente nulo dada la eficacia
del sistema de salud.
"Para que haya una transmisión efectiva del parásito, tiene que haber
mucha gente con paludismo porque los mosquitos tienen que adquirir el
parásito picando a una persona infectada y después transmitírselo a otra
picándola igualmente. Con un solo caso, la probabilidad es casi
inexistente", ha subrayado el experto en salud pública.
Fuente: elmundo.es, 11-10-10
-El vertido tóxico ya alcanza el Danubio
La contaminación de lodo tóxico que afecta al suroeste de Hungría ha llegado
ya hasta el río Danubio, aunque la concentración de metales pesados
en las aguas es muy reducida y el riesgo de contaminación más bajo.
Un hombre camina entre el lodo. | Ap
|
|
Así lo anunció la portavoz de la Oficina de
Catástrofes, Gyorgyi Tuttos, que explicó que el ph del agua contaminada
ha bajado desde el valor 13 de ayer, incompatible con la vida, hasta 9,
más cercano al punto de inocuidad.
De acuerdo con un funcionario del Departamento del
Agua, las muestras de agua recogidas en la confluencia del río Danubio
con el afluente Raab revelan "una tasa ligeramente más alta de alcalino
de lo normal, entre 8,96% a 9,07%", mientras que lo
habitual es del 8%.
La portavoz de Oficina de Catástrofes, Gyorgyi Tuttos,
explicó que este jueves sobre las 07.27 GMT la ola de "barro rojo"
alcanzó este afluente, a unos 20 kilómetros del Danubio, aunque aseguró
que el PH del agua ha bajado hasta 9,2, después de que este
miércoles hubiera alcanzado un valor de 13, incompatible con la
vida. |
El lodo rojo, producido por un accidente industrial y que ha anegado los
condados de Veszprem, Gyor-Moson-Sopron y Vas, amenaza ahora el
ecosistema del río más grande del país y el segundo de Europa, con
una tasa de residuos alcalinos superior a la normal. Las autoridades
húngaras han iniciado una investigación criminal para conocer las causas del
derrame.
Después del río Marcal -ya contaminado, la contaminación ha llegado al
Danubio en la mitad del camino entre Viena y Budapest. El río llega a
Croacia a unos 155 kilómetros al sur de la capital húngara, luego va
a través de Serbia, Bulgaria, Moldavia, Ucrania y Rumania antes de llegar al
Mar Negro.
La rotura de una balsa de acumulación, propiedad de la empresa fabricante
de aluminio MAL Zrt, provocó el lunes el
derrame de un millón de metros cúbicos de lodos altamente tóxicos.
Cuatro personas, entre ellas un niño, fallecieron en el accidente y otras
seis se encuentran desaparecidas.
El presidente de la organización ecologista Greenpeace en Hungría, Zsolt
Szegfalvi, destacó que se trata de la catástrofe más grande de
Europa relacionada con el llamado barro rojo.
Por su parte, el primer ministro húngaro, Viktor Orban, ha asegurado que
"no se puede vivir" en la zona del desastre. Orban, que está visitando los
pueblos afectados, anunció que habrá que cercar y aislar las zonas
más contaminadas de Kolontár, uno de los pueblos arrasados por la
ola tóxica.
Fuente: elmundo.es, 9-10-10
-Terremotos: ¿esta la naturaleza fuera de control?
Primero Haití, con cientos de miles de muertos. Después
Chile, con más de 200, y Japón, donde, por fortuna, no se registraron
víctimas. En tan sólo dos meses,
la Tierra
ha temblado con muchísima fuerza como si se levantara en armas. La
potencia de estos terremotos -el chileno del pasado sábado ha alcanzado los
8,8 grados
en la escala de Richter (uno de los mayores en los últimos cien años en
todo el mundo) , 7,2 el nipón y 7 el de Haití- nos ha sorprendido y
conmocionado,
como si
esto no pudiera repetirse en un plazo de tiempo tan corto y algo
anormal estuviera sucediendo.
Sin embargo, los científicos aseguran que las entrañas
del planeta no están más activas ahora que en otros tiempos desde que se
tiene memoria y registros sísmicos. Simplemente,
obedecen a las órdenes de una naturaleza que, en este caso y al
contrario de lo que ocurre con el clima, sólo responde a sus propias
normas, las que marca la geología. Y al ser humano no le queda más remedio
que prevenir y, en la medida de lo posible, protegerse.
«Un terremoto siempre es una sorpresa y más con estas
dimensiones, pero en un lugar como Chile la actividad sísmica es alta y se
sabe que estos terremotos pueden ocurrir», señala Luis Cabañas, sismólogo
de la Red Sísmica del
Instituto Geográfico Nacional. El seísmo de Chile ha sido
especialmente duro,
el
segundo más potente del país después del registrado en 1960, con
magnitud 9.5 y el mayor ocurrido en el mundo. El motivo de este castigo
para los chilenos es que su país está situado en el llamado
«círculo de fuego» que bordea los países del Pacífico, una de las
zonas más sísmicas del planeta, donde se producen el 80% de los
terremotos. «Estos terremotos ocurren
como
consecuencia de la convergencia de las placas tectónicas de Nazca y de
Suramérica, lo que produce rupturas bastante intensas y violentas.
La placa de Nazca de naturaleza oceánica se curva e introduce bajo la
placa de Suramérica de carácter continental, formando lo que se denomina
un margen de subducción», explica Cabañas. |
|
Imagen de
humo y polvo sobre Santiago de Chile tras el terremoto tomada por un
satélite de la NASA / NASA
|
Un seísmo
gigante al año
Pero, ¿por qué un terremoto tras otro en distintas partes
del mundo? ¿Le sucede algo a la Tierra? «En principio, creemos que no, que
es un
comportamiento normal producido por el movimiento de placas», explica
el experto. Las estadísticas indican que aproximadamente
«hay un
terremoto de magnitud superior a ocho al año -puede ocurrir uno o
ninguno-, mientras que pueden registrarse
entre 15 ó
18 seísmos de magnitud entre siete y ocho». Lo que ocurre es que no
siempre se producen en zonas pobladas ni causan catástrofes tan graves, por lo
que muchos se quedan en noticias poco destacadas que olvidamos con facilidad,
hasta que uno golpea en una zona densamente habitada y provoca una catástrofe
humana que se queda grabada en nuestra retina.
La época que nos ha tocado vivir no ha sufrido más o menos
terremotos que otras. Según Cabañas, lo que conocemos del registro sísmico
«viene a ser estadísticamente constante». Tampoco influye la mano del hombre .
«Es un proceso completamente natural. La intervención humana no tiene por qué
afectar, no tiene nada que ver con lo que sucede, por ejemplo, con el clima».
Después del terremoto de Haití, algunos científicos
advirtieron de que
catástrofes similares pueden repetirse en Turquía y en Sumatra en los
próximos años, y pedían a los gobiernos de estos países que tomasen medidas
urgentes de protección antes de que fuera demasiado tarde. Sin embargo, Luis
Cabañas indica que es «imposible predecir el lugar y el momento. Al final, los
terremotos vuelven a ocurrir donde siempre han ocurrido, son los límites de
las placas tectónicas sometidas a esfuerzos y deformaciones que cuando se
acumulan y no resisten más liberan energía bruscamente. Hay una posibilidad de
conocer cómo están cargándose esas fallas, pero es imposible predecir a
ciencia cierta cuándo va a ocurrir. Es probable que en Turquía tengamos un
nuevo terremoto, pero igual pasan veinte años y no se ha producido». Eso sí,
en Chile
se producirán nuevas réplicas.
Ante los terremotos, lo único que le queda al ser humano es
protegerse lo mejor posible. «Los países deben tener una
normativa
sismoresistente para que se construya con más seguridad, una normativa
que debe estar basada en estudios sismológicos».
Fuente: abc.es, 8-10-10
-California tiembla por la amenaza del "Big
One"
Un día más en Los Ángeles. A las 7.50 de la mañana, el sol
ya hace prever una nueva jornada calurosa. Las autopistas comienzan a llenarse
de automovilistas camino del trabajo y los helicópteros de las televisiones
locales sobrevuelan el área más superpoblada de Estados Unidos informando de
las incidencias del tráfico. Mientras, bajo la superficie, a 20 kilómetros de
profundidad, la tierra comienza a moverse, silenciosa. Un segmento de 400
kilómetros de la falla de San Andrés, que se ha mantenido estable durante
décadas, se desprende e inicia el camino hacia un nuevo equilibrio entre
placas tectónicas. Tras seis minutos, los californianos
comienzan a notar los primeros efectos. Lo que se inicia como un suave
contoneo se convierte en un virulento temblor y sacude la ciudad durante 25
segundos. Tras el primer golpe, se suceden unos segundos de calma. Después una
nueva sacudida, más violenta, de entre 30 y 40 segundos. En poco más de tres
minutos, el área metropolitana de Los Ángeles ha vivido su pequeño
apocalipsis: el temblor ha dejado un reguero de coches volcados,
autopistas destrozadas y casas derrumbadas.
Este es el supuesto con el que los servicios de
emergencias de la megaurbe californiana trabajan para preparar el Big
One, un devastador seísmo que sacudirá el estado en los próximos 30
años con una probabilidad del 99,7% y que podría dejar entre 2.000
y 15.000 muertos, además de al menos 50.000 heridos y una huella
de destrucción que costaría reparar unos 200.000 millones de dólares.
"Un terremoto de gran magnitud puede ser más mortífero
y destructivo que un ataque terrorista con una bomba nuclear. Afecta a un
área mayor y a mucha más a gente", explica con gesto de preocupación
Michael Contreras, director del Departamento de
Emergencias de Los Ángeles, mientras comenta el último informe sobre
seísmos elaborado por Lisa Grant Ludwig, sismóloga de la Universidad de
California en Irvine (UCI). Según Grant Ludwig, el Big One está
mucho más cerca de lo que algunos pensaban. Su investigación demuestra que
el territorio del sur de California sufre un gran terremoto entre cada 45
y 144 años y que, en esta ocasión, ya hemos salido de cuentas. El último
seísmo devastador, de magnitud 7,8, sucedió hace 153 años.
"Las probabilidades de sufrir un gran terremoto ya eran
altas pero, con los nuevos datos que hemos recopilado, se hace inminente",
aseguró a Público Grant Ludwig en una conversación telefónica.
Hasta que vio la luz su descubrimiento, basado en el análisis de
los registros sísmicos recogidos en la zona durante los últimos
700 años, los geólogos consideraban que los temblores por encima de
magnitud 7,5 ocurrían cada 250 años aproximadamente.
Sin embargo, Grant Ludwig y su equipo han acelerado la
cuenta demostrando que el Estado sufrió grandes terremotos en los años
1417, 1462, 1565, 1614, 1713 y 1857.
A pesar de que California está más preparada que otras
zonas del planeta, según los cálculos de los servicios de emergencias, un
terremoto de estas características podría acabar con la vida de una de
cada 1.000 personas. De ahí que la doctora Grant Ludwig reconozca que es
fundamental estar preparados. "Mucha gente piensa que, como los terremotos
no se pueden evitar ni prever, no hace falta estar listos, pero se
equivocan", asegura la sismóloga, quien insinúa que el Big One no
va a ser como el terremoto de Northridge, de 6,7, que
acabó con la vida de 72 personas y dejó heridas a 8.700.
"En esta ocasión la sacudida será mucho mayor, lo suficientemente grande
como para romper el suelo", advierte. |
|
|
Precisamente para minimizar los posibles daños en la
población, el estado organiza cada año el Shake out, un enorme
simulacro que bajo el lema agáchese, cúbrase y aguante pretende
concienciar a los ciudadanos de la importancia de estar preparados ante un
desastre inevitable. El ejercicio de este año está programado a las
10.21 de la mañana del próximo 21, y en él está previsto que
participen más de siete millones de personas, casi el 20% de la población de
California.
Durante el simulacro se instruirá a los participantes sobre
cómo hacer frente a un gran terremoto antes de que suceda, porque con una
simple planificación es posible minimizar los daños, sobre todo personales.
David Oglesby, profesor en la Universidad de California en Riverside y experto
en desastres naturales, asegura que para evitar lesiones graves
dentro de casa es fundamental asegurar los muebles a la pared. "El mayor
peligro de un terremoto en California no es que se colapsen las casas, sino
que los objetos que hay en ellas nos golpeen en la cabeza", asegura Oglesby
con cierta ironía. De hecho, los cortes con cristales rotos o los golpes con
muebles son los responsables del mayor número de heridos en los seísmos de
estas características
Además, durante el Shake out expertos como Oglesby
mostrarán a los ciudadanos cómo lidiar con todas las eventualidades que pueden
surgir tras un terremoto, como escapes de gas, incendios o la ausencia de
electricidad y agua potable, que pueden llegar a prolongarse
hasta durante seis meses. "Es totalmente imprescindible contar con víveres que
nos permitan ser autosuficientes durante al menos tres días", reconoce el
experto. "Contar con un kit de supervivencia o diseñar un plan de escape
debería ser parte de nuestra cultura, como lavarse los dientes", añade.
Llamadas de atención
Sin embargo, los esfuerzos de la administración local son,
de momento, baldíos, y los californianos sólo se preocupan cuando un temblor,
como el vivido en Baja California el pasado abril, les recuerda lo que podría
sucederles. "Son como pequeñas llamadas de atención", asegura Chad Allen,
propietario de una tienda especializada en artículos de supervivencia. "Cada
vez que hay un terremoto aumentan las ventas; es como si de
repente la gente se acordase de que debe prepararse", explica.
Algo similar le sucede a La Tienda de los Terremotos, el
establecimiento dedicado a los desastres naturales más grande de Los Ángeles.
Desde su sede en Burbank, Blair Brady no ha parado de vender kits de
supervivencia en todo el verano. "La gente se está empezando a
preparar", asegura. Los servicios de emergencias de California aseguran que
"lo sucedido este año en Chile y Haití no son más que avisos de lo que puede
suceder en California".
Fuente: publico.es, 7-10-10
-Así robó el Sol a Marte su atmósfera
El Planeta Rojo está herido de muerte. Pero no es sangre
lo que mana de sus heridas, sino su atmósfera, que se pierde
irremediablemente, gota a gota, en la inmensidad del espacio. El culpable de
este crimen es nuestro Sol, que utiliza su propia respiración, el viento
solar, y sus radiaciones para robarle a Marte el aire. Por su culpa, ese
mundo hermano de la Tierra, que una vez fue prometedor para la vida, podría
estar condenado para siempre a una existencia fría y estéril.
La fisonomía de Marte no deja lugar a
dudas. Antiguos lechos secos de lo que una vez fueron ríos caudalosos y
la presencia de minerales que sólo se forman con el agua indican que el
planeta tuvo, en algún momento, una atmósfera, y que su temperatura fue
lo suficientemente cálida como para permitir la existencia de agua
líquida sobre su hoy polvorienta y árida superficie. Sin embargo, algo
hizo que lo que alguna vez fuera una densa y rica atmósfera se perdiera
irremediablemente en el espacio.
Aparentemente, Marte lleva miles de
millones de años siendo un planeta seco y frío, y con un envoltorio
gaseoso tan tenue y delgado que cualquier resto de agua que pudiera
haber el la superficie se evapora al instante al ritmo con que el Sol
peina cada rincón de ese desdichado mundo con sus mortíferos rayos
ultravioleta.
Unas condiciones que marcan,
inevitablemente, el final del camino para cualquier forma de vida
conocida. A pesar de todo, la esperanza es lo último que se pierde y
entra dentro de lo posible que los últimos restos de la antigua vida
marciana se oculten bajo la superficie, donde el agua aún puede existir
en forma líquida y donde la letal radiación no puede llegar. |
|
|
Azotes de viento solar
El principal sospechoso de este robo es el Sol, y
el arma utilizada es el viento solar. Todos los planetas (sin excepción) de
nuestro sistema son azotados regularmente por el viento solar, una auténtica e
inagotable corriente de gases cargados eléctricamente que fluyen de forma
contínua desde la superficie del Sol al espacio circundante.
Aquí, en la Tierra, un potente campo magnético
sirve de escudo, protegiendo nuestra preciada atmósfera y haciendo que la
mayor parte de los vientos solares se desvíen alrededor del planeta. Y es que
las partículas cargadas con electricidade que componen los vientos solares, en
su mayoría iones y electrones, tienen serias dificultades para cruzar los
campos magnéticos.
"Marte no puede
protegerse a sí mismo del viento solar porque ya no tiene escudo -afirma Bruce
Jakosky, de la Universidad de Colorado -. El campo magnético del planeta está
muerto". Jakosky es, además, el investigador principal de la misión
MAVEN (Mars Atmosphere and Volatile Evolution Mission), que investigará
hasta el mínimo detalle las causas de la desaparición de la atmósfera
marciana.
Sin protección
Lo que sabemos por el momento es que el Planeta
Rojo perdió su campo magnético durante su juventud, hace ya varios miles de
millones de años. Y que una vez desaparecida esa protección, la atmósfera
marciana quedó expuesta al viento solar que la ha ido barriendo, literalmente,
hasta del último rincón del planeta.
Algunos "fósiles" del antiguo campo magnético aún
sobreviven en las rocas más viejas y en zonas aisladas de la superficie
marciana, aunque no proporcionan, ni mucho menos, la protección que lo que
queda de atmósfera necesita.
Ahora bien, aunque el viento solar parece ser el
arma principal usada para este robo, las emisiones solares pueden desvalijar
la valiosa atmósfera de Marte de muchas otras formas. Por ejemplo, en
combinación con la radiación ultravioleta, que tiene la propiedad de
transformar los átomos de las capas superiores de la atmósfera en iones
(partículas eléctricamente cargadas), que después son fácilmente barridas por
los campos eléctricos del viento solar.
Y hay, además, otros sospechosos.
Marte tiene sobre su polvorienta superficie más de veinte cráteres de
impacto de cerca de 1.000 km de diámetro, cicatrices dejadas por asteroides
del tamaño de pequeñas lunas. Este auténtico bombardeo podría haber expulsado
grandes cantidades de atmósfera marciana al espacio exterior.
Una acción, sin embargo, que debería haber sido
anulada en parte por la erupción de enormes volcanes (como el monte Olimpo)
que habrían inyectado a la atmósfera herida una gran cantidad de gases
procedentes del interior del planeta.
Otros culpables
Es incluso posible, opinan los científicos, que
el secuestro del aire marciano tenga más de un culpable, y que a él haya
contribuido tanto el viento solar como
los impactos de grandes meteoritos. En esas condiciones y sin su campo
magnético, cualquier cantidad de gases extra que pudieran haber aportado los
volcanes habría sido igualmente barrida por el implacable viento solar.
Así, a medida que la atmósfera adelgazaba,
el planeta se fue secando sin remedio, ya que todo el vapor de agua
atmosférico también se fue perdiendo en el espacio en lugar de volver a regar,
como sucede en la Tierra, la superficie del planeta. El agua que quedaba, se
evaporó al desaparecer la atmósfera y bajar las temperaturas. Muy pronto, la
misión
MAVEN, que se lanzará entre el 18 de noviembre y el 7 de diciembre de
2013, podrá decirnos, midiendo la proporción de isótopos de hidrógeno,
cuál fue aproximadamente la cantidad de agua que se perdió de esa forma,
así como la cantidad de atmósfera que se ha ido perdiendo en el espacio desde
el lejano día en que Marte perdió su campo magnético.
Entonces, y sólo entonces, sabremos a ciencia
cierta si las sospechas de los investigadores son acertadas y si el principal
sospechoso de este crimen planetario es, efectivamente, culpable de las
acusaciones que pesan sobre él.
Fuente: abc.es, 6-10-10
-La fuga de una sustancia tóxica deja al
menos tres muertos en Hungría
Al menos tres personas han muerto, siete han desaparecido y
otras 60 están heridas a consecuencia de la rotura de un dique de "barro rojo"
en Hungría, una sustancia química muy corrosiva y alcalina, según informó la
prensa local.
La rotura de la instalación de una empresa de aluminio se
produjo cerca de la localidad de Ajka, próxima al lago Balaton. Las
autoridades han informado de que la sustancia supone un peligro para
siete localidades cercanas, informaron los servicios de catástrofes (OKF),
según recoge la agencia MTI.
El Gobierno húngaro ha declarado el estado de emergencia en
tres condados en el oeste del país (Veszprem, Gyor-Moson-Sopron y Vas).
Todas las víctimas son vecinos de los pueblos afectados por
el siniestro. Los fallecidos, dos hombres y una mujer, fueron arrastrados por
parte del agua y el vertido químico de un millón de metros cúbicos de esa
sustancia, según las autoridades. Los heridos sufrieron quemaduras de
diferente grado al entrar en contacto con la substancia corrosiva, de
los cuales diez se encuentran graves, según los servicios médicos.
El "barro rojo" es un residuo que se produce durante la
producción de aluminio y tiene grandes cantidades de silicio, hierro y otros
metales pesados.
Labores de rescate
Para evitar que la sustancia tóxica se extienda y cause
mayores daños, los equipos de rescate han comenzado a arrojar desde
helicópteros yeso sobre el "barro rojo", así como diferentes productos
neutralizadores al río Marcal. Centenares de bomberos, miembros de los
equipos de rescate y soldados han sido movilizados para tratar de contener
la fuga química y ayudar a la población afectada. En Devecser las
aguas infectadas por el "barro rojo" inundaron más de 400 inmuebles,
de donde se evacuaron a sus habitantes. Complica la situación que el barro
rojo haya llegado hasta el cercano arroyo de Torna, por lo que la
contaminación podría afectar a otras localidades. En las cercanías de los
pueblos afectados se prohibió el transporte, hasta que concluyan las
operaciones de rescate.
Fuente: publico.es, 6-10-10
-Nobel de Física para dos científicos rusos por sus
trabajos sobre el grafeno
Andre Geim y Konstantin Novoselov, científicos de la Universidad de
Manchester (Reino Unido), han sido distinguidos este año con el
Premio Nobel de Física
"por sus experimentos fundamentales sobre el
material bidimensional grafeno ", según ha anunciado hoy el Comité Nobel
de la Academia de las Ciencias de Suecia.
Una lámina de carbono, de un átomo de grosor, está detrás
del Nobel de Física de este año. Los dos galardonados, Geim (Rusia, 1958) y
Novoselov (Rusia, 1974), han demostrado que el carbono en esa configuración
plana tiene propiedades extraordinarias originadas en el mundo de la física
cuántica. El grafeno es un nuevo material, extremadamente delgado y resistente
que, como conductor de la electricidad, se comporta como el cobre, y como
conductor de calor, supera a cualquier otro material conocido. Es casi
completamente transparente y tan denso que ni siquiera el helio, el átomo de
gas más pequeño, puede atravesarlo, explica la Fundación Nobel.
Andre Geim y Konstantin Novoselov-
FUNDACIÓN NOBEL
|
|
Una red de grafeno casi perfecta, de un átomo de grosor
formada por átomos de carbono en una configuración hexagonal-
SCIENCEA |
Geim, de nacionalidad holandesa, y Novoselov,
británico-ruso, obtuvieron el grafeno a partir del grafito normal, el material
de las minas de los lápices, y lograron una lámina de un grosor de solo un
átomo. Muchos pensaban entonces que era imposible que un material así fuera
estable. Sin embargo, a partir de los trabajos de estos dos científicos, los
físicos pueden estudiar ahora una nueva clase de materiales bidimensionales
con propiedades únicas.
El grafeno también tiene una amplia variedad de
aplicaciones posibles, incluida la fabricación de nuevos materiales y de
dispositivos electrónicos avanzados. Los transistores de grafeno pueden ser
sustancialmente más rápidos que los actuales de silicio, con lo que se podrán
fabricar ordenadores más eficaces. También, como es transparente y un buen
conductor, se vislumbran aplicaciones en pantallas de dispositivos
electrónicos e incluso paneles solares.
Geim, en una conferencia vía telefónica, ha declarado que
no esperaba el premio y que intentará evitar que esta distinción cambie su
rutina. "Mi plan para hoy es ir al trabajo y terminar un artículo que tengo
pendiente", ha señalado. El Comité Nobel ha informado de que Novoselov, de 36
años, es el físico más joven premiado con un Nobel desde 1973, informa la
agencia Reuters.
El Nobel de Física se entrega desde 1901 (excepto en años
concretos: 1916, 1931, 1934, 1940, 1941 y 1942) y está dotado con 10 millones
de coronas suecas (1,1 millones de euros). Ayer se dio a conocer
el de Fisiología y Medicina, que fue para Robert Edwards por el desarrollo
de la fertilización in vitro. Seguirán al de Física, el de Química (mañana),
Literatura (jueves), de la Paz (viernes) y cerrará la ronda de estos
galardones el de Economía, que se fallará el lunes próximo.
También Geig logró ganar el IG Nobel
Geim y Novoselov (el segundo fue alumno de doctorado con el
primero) deben disfrutar con sus experimentos. Los realizados para obtener el
grafeno sorprenden por su sencillez conceptual (ir separando capas de grafito
hasta lograr una sola aislada, que es el nuevo material). Pero ya antes habían
hecho experimentos peculiares. En 1997, Geim logró hacer levitar una rana en
un campo magnético, "una forma ingeniosa de ilustrar los principios de la
física", dice la Fundación Nobel. Por aquellos experimentos con la rana,
recibieron en 2000 el IgNobel de Física, uno de los galardones que se
consideran Nobel alternativos y que se dan desde hace 20 años para aquellos
trabajos "que primero hacen reir y después pensar". "Creo que soy el primero
que ha obtenido ambos Nobel y estoy muy orgulloso de los dos premios", ha
comentado hoy Geim.
Fuente: elpais.com, 5-10-10
-Los océanos pueden esconder 750000 especies marinas
Epimeria georgiana |
|
Los océanos podrían albergar 750.000 especies sin
identificar, unas 250.000 más de lo estimado en un principio, según el
primer censo de Vida Marina hecho público tras diez años de trabajo. Otra
década más de investigaciones, asegura la comunidad científica, podría
arrojar una cifra total del número de especies marinas existente. De
momento,
la base de datos contiene alrededor de 120.000: 6.000 podrían ser
«nuevas»; 1.200 de ellas ya han sido descritas de manera formal.
A pesar de la gran diversidad constatada, la actividad
humana es «devastadora». Ese es el mensaje que quieren transmitir los más
de 2.700 profesionales que han participado en el proyecto. Las
540 expediciones realizadas en los océanos de todo el mundo han
evidenciado cómo la sobrepesca, la pérdida de hábitats y la contaminación
han empobrecido la mayoría de los stocks que antes proporcionaban comida y
empleo al hombre. Nueve mil días de travesía han reafirmado la importancia
de los océanos: la vida marina suministra la mitad del oxígeno de la
Tierra y regula el clima, entre otras funciones. |
El lecho marino no es tan solitario
Entre las
nuevas especies encontradas destaca el
Dinochelus ausubeli,
un cangrejo ciego con una larga pinza, localizado a 300 metros de
profundidad en el Pacífico y las
arañas gigantes -como un plato de grandes- descubiertas en el
Antártico.
El fondo
marino, considerado hasta ahora un desierto debido a sus condiciones de
temperatura -frío-, luminosidad -oscuridad total- y presión -enorme a
profundidades de casi 2 kilómetros-, ha deparado muchas sopresas a los
científicos. Grandes comunidades de diferentes especies pululan por él
filtrando los nutrientes, desplazándose gracias a los vientos termales y
refugiándose en las montañas.
Un gusano con tentáculos -Mar de Célebes (sudeste asiático)- u otro
cangrejo apodado «El Yeti» -Isla de Pascua- son otros dos de los
hallazgos. Con respecto a este último, los investigadores han matizado que se
han observado diferentes miembros de la misma familia en Costa Rica.
El ADN
confirmará si estamos ante especies originales o ya conocidas, sólo que con
forma, color y tamaño diferentes.
Fuente:
abc.es, 4-10-10
-La mosca de la fruta se expandió por el
mundo desde África
Una nueva investigación realizada en la Universidad de
Medicina Veterinaria de Viena (Austria) muestra que, aunque la colonización
septentrional de la mosca de la fruta responde a un aumento de la actividad
agrícola y los cambios medioambientales asociados a la misma, en realidad
fueron factores genéticos y no en el entorno los que propiciaron la
colonización europea y asiática de la mosca.
Si alguien hubiera intentado buscar una mosca de la fruta
en Europa o Asia hace más de 10.000 años habría perdido el tiempo, pues hasta
entonces esta especie sólo se encontraba en el África subsahariana. Sin
embargo, hoy en día la mosca de la fruta es común en todos los continentes.
El estudio, publicado en Public Library of Science (PLoS)
Genetics, explica las condiciones a las que se enfrentaron estos insectos en
su viaje desde el África subsahariana, muy distintas a las de su hábitat
inicial, sobre todo en lo referente a las bajas temperaturas. Miles de
años de evolución han generado marcadas diferencias entre las poblaciones
africanas y europeas de mosca de la fruta debido a la adaptación a sus nuevos
entornos. Las diferencias principales se hallan en características
relacionadas con la temperatura, como la pigmentación, el tamaño y la
resistencia al frío.
En un estudio anterior llevado a cabo por uno de los autores del trabajo,
Christian Schlötterer, se sugería que una única proteína denominada cramped (crm)
podría haber influido en la adaptación y supervivencia de la mosca de la fruta
a los climas más fríos que ahora habita. No obstante, no existían datos que
respaldaran esta hipótesis. Sobre esta base, el equipo investigó qué
genes podrían regular la proteína crm, en sí misma un factor de transcripción.
Se centraron en genes que se sabían importantes en el desarrollo de las alas
como el cubitus interruptus (ci), cuya regulación depende de la temperatura.
Los resultados demostraron que la proteína crm es necesaria para activar el
gen ci.
|
|
|
En este sentido, los científicos coincidieron en que si la proteína crm es
importante en la respuesta a la temperatura, también se podrían hallar
variantes (o alelos) de la proteína crm en Europa que funcionaran de forma
distinta a como lo hacen las variantes de las moscas residentes en el África
subsahariana. Para sacar a la luz estas posibles diferencias en la composición
genómica, silenciaron los efectos de otras zonas del genoma de la mosca. En
presencia de distintas variantes de crm examinaron la forma en la que los
cambios de temperatura afectaban a la expresión del gen ci así como otras
características como la pigmentación abdominal en hembras y peines sexuales en
machos, rasgos influidos por la temperatura.
Los resultados mostraron que la conjetura del equipo era correcta: distintas
variantes de crm estaban relacionadas con diferencias significativas en los
efectos de la temperatura sobre estas características.
Al descubrir que la proteína crm limita varios procesos individuales a
distintas temperaturas, los cambios en crm podrían haber contrarrestado los
efectos del cambio de temperatura en la mosca. Christian Schlötterer explicó
las implicaciones de estos descubrimientos para el conocimiento que se posee
sobre la evolución: «Normalmente imaginamos la evolución como la adquisición
de nuevas funciones. Pero la adaptación de la mosca a entornos más fríos
parece acompañada de cambios en un regulador principal para garantizar que las
funciones existentes con anterioridad se mantengan a pesar del cambio de
circunstancias.»
Fuente: CORDIS, 3-10-11
-Nuevo telescopio de rayos X para
estudiar agujeros negros
En el IXO, que se convertirá en el
mayor telescopio de rayos X que se haya construido, colaboran la Agencia
Espacial Europea (ESA), la Administración Nacional de la Aeronáutica y del
Espacio de los Estados Unidos (NASA) y la Agencia Japonesa de Exploración
Aeroespacial (JAXA). La misión programada para el IXO es la investigación de
los agujeros negros supermasivos, un tipo de agujero negro que se cree que se
desarrolló a principio del Universo, posiblemente con anterioridad a las
primeras estrellas. La información nueva que se obtenga sobre estos fenómenos
permitirá a la comunidad astronómica obtener conocimientos valiosos sobre el
pasado de nuestro planeta. IXO también estudiará al detalle estrellas de
neutrones y agujeros negros estelares, que están formados por supernovas de
estrellas con una masa considerablemente grande.
|
|
La cartografía de los agujeros
negros a estudiar procederá del experimento eROSITA («Extended Roentgen
survey with an imaging telescope array»), una cooperación entre Alemania y
Rusia encabezada por el Instituto Max Planck de Física Extraterrestre que
se lanzará al espacio en el plazo de tres años. eROSITA explorará el cielo
con la ayuda de un grupo de siete telescopios de rayos X y se espera que
descubra, entre otros objetos, cerca de tres millones de agujeros negros.
IXO partirá de esta base crucial para realizar una investigación
sistemática que implicará la captura de radiación X procedente de agujeros
negros muy lejanos. Para ello precisa de un espejo gigantesco. En
previsión de la naturaleza de la radiación X esperada, este espejo contará
con varios componentes individuales dispuestos para reflejar los rayos de
forma lateral en un ángulo extremadamente pequeño en lugar de la más
tradicional orientación perpendicular.
El Instituto Nacional de Metrología de Alemania, el Physikalisch-Technische
Bundesanstalt (PTB), proporciona servicios científicos y técnicos y
actualmente comprueba las características clave de estos componentes. El
27 de septiembre de 2010 el PTB anunció su intervención en esta iniciativa
y describió las características concretas del espejo diseñado: «IXO tendrá
un solo espejo con una superficie de captación de cerca de tres metros
cuadrados, una longitud focal de veinte metros y una resolución angular de
menos de cinco segundos de arco. Debido a la incidencia rasante de la
radiación requerida, la superficie total del espejo debe ser de alrededor
de 1.300 metros cuadrados». |
Este espejo se construirá con obleas de silicio disponibles en el mercado con
un acabado extremadamente fino y diseñadas con unas nervaduras que permitirán
apilarlas en bloques rígidos. «Gracias a este diseño», indicaron responsables
del PTB, «se forman poros con una sección transversal de cerca de un milímetro
cuadrado en los que la radiación se refleja sobre la superficie de la oblea
situada inmediatamente por debajo».
El instituto, que está analizando la superficie reflectante de cada uno de los
poros, añade que «en relación a la rugosidad y los errores tangentes, la
calidad de estas superficies "ocultas" no podrá investigarse desde arriba como
hasta ahora, sino que deberá determinarse en función de la geometría que se
aplicará durante su funcionamiento, con una reflexión de rayos X rasantes a
ángulos de aproximadamente un grado».
Para esta labor se utilizará un haz de lápiz monocromático de cincuenta
micrómetros de diámetro y una divergencia de menos de un segundo de arco. La
infraestructura necesaria ya está disponible en la recién ampliada XPBF,
perteneciente al laboratorio de radiación sincotrónica del Instituto en BESSY
II en Berlín-Adlersdorf (Alemania).
«Caracterizará los sistemas de la lente de rayos X de IXO en tres energías de
fotón distintas: a 1 kiloelectronvoltio, a 2,8 kiloelectronvoltios y a 7,6
kiloelectronvoltios», anunció el PTB. «Los sistemas de la lente pueden
ajustarse o girarse con un hexápodo en el vacío con reproductibilidades de dos
micrómetros y menos de un minuto respectivamente. El haz directo y el haz
reflejado se registran con un medidor de resolución espacial basado en un
dispositivo de cargas acopladas (CCD) a una distancia de 5 ó 20 metros del
sistema de la lente. Para la última distancia mencionada, que se corresponde
con la longitud focal de IXO que se pretende obtener, se ha dotado al detector
CCD de una libertad de movimiento vertical de más de 2 metros.» La ronda
inicial de pruebas se realizó en mayo de 2010 y las próximas se llevarán a
cabo en noviembre de 2010.
Fuente: CORDIS, 3-10-10
-Pseudociencia en el campus
La
Sociedad Española de Astrología organizó ayer
un curso
en el que se discutió la influencia de los astros en las relaciones de pareja,
las implicaciones filosóficas y médicas de los 12 números-arquetipos zodiacales
y se anunció el nacimiento de una nueva sociedad y un nuevo sistema para 2020.
La jornada tuvo lugar en la Universidad de Alicante, a pesar de las protestas de
la
Sociedad
Española de Astronomía y de los astrónomos y astrofísicos de la misma
universidad, que lamentaron que se diese cobijo a esta "superchería destinada a
explotar la ingenuidad de los incautos". El 15 de mayo de este año, en la
Universidad de Lleida, la misma sociedad organizó unas charlas sobre
autoconocimiento a través de la astrología, en las que se
llegó a reivindicar una
titulación propia para esta profesión. Y no se trata de hechos aislados ni
anómalos.
El papel de la conciencia en la curación. Homeopatía.
Acupuntura. Astrología. Grafología. Numerología. Feng-Shui. Reiki. Aunque
podrían ser materias anunciadas en tablones de anuncios de establecimientos
esotéricos, o entre las páginas de revistas dedicadas al mundo de lo
paranormal, en realidad son temas que se han promovido y se promueven en las
universidades españolas, ya sea en cursos de verano, posgrado o máster, o bien
cediendo sus instalaciones para la realización de conferencias y otras
actividades.
Poco a poco, este tipo de supercherías ha ido haciéndose un
hueco dentro del mundo académico, consiguiendo, de esta manera, cubrirse con un
manto de credibilidad otorgado por unas universidades, tanto públicas como
privadas, que dan pábulo a un amplio abanico de pseudociencias.
La lista de la vergüenza'
El blog
La lista
de la vergüenza lleva denunciando estas prácticas desde mayo de 2010,
después de que la Universidad de Valencia presentara un máster en
medicina naturista, acupuntura y homeopatía . La iniciativa partió de
Fernando Frías, abogado y socio de
Círculo Escéptico
y de
ARP-Sociedad para el Avance
del Pensamiento Crítico, quien tuvo la idea de lanzar esta página, donde se
recopilan los cursos que promocionan la pseudociencia, para "exponer
públicamente esa actitud de muchas universidades, y hacerlo, además, de una
manera centralizada para conseguir la máxima repercusión". El motivo es "el auge
de cursos y titulaciones de este tipo", añade Frías.
A día de hoy, esta lista aglutina
una treintena de cursos diferentes en
universidades de toda España. Aunque en un principio era Frías el que iba
añadiendo entradas en solitario, ahora cuenta con la colaboración de los propios
alumnos de las universidades, que le envían información sobre nuevos cursos.
Un breve vistazo sirve para comprobar que las estrellas de
este espectáculo son los cursos de máster sobre homeopatía, acupuntura o, en
general, las mal llamadas "medicinas alternativas". Ahí están, por ejemplo, los
cursos en
Medicina Homeopática y
Acupuntura (ya por su octava promoción) de la Universidad de Barcelona, o el
de Medicina Biológico-Naturista otorgado por la Universidad de León, que va más
allá e incluye en el temario las llamadas "flores de Bach" y otros tratamientos
cuya eficacia no ha sido probada.
Sin comprobar
Todo ello ocurre a pesar de que
estas disciplinas han fallado en demostrar sus
supuestos efectos beneficiosos estudio tras estudio, en los que se
prueba, si están correctamente realizados, que la mejora atribuida a estas
terapias por parte de los pacientes viene producida por el efecto placebo. Como
dice Frías, la profusión de este tipo de cursos es lógica porque "se trata de
campos en los que la subjetividad juega un gran papel. Una ingeniería
alternativa", prosigue, "sería bastante difícil: o haces los cálculos para
un puente conforme a los conocimientos científicos reales o el puente acabará
cayéndose".
Más difíciles de detectar son aquellas carreras que incluyen
horas lectivas sobre alguno de estos asuntos dentro de sus temarios, pero no
dedican cursos o asignaturas completas. No obstante, algunas han conseguido
entrar en la lista, como la asignatura "Tecnología farmacéutica especial",
troncal en la
licenciatura en Farmacia de la Universidad de Granada, que cuenta con tres
horas teóricas de formación en homeopatía.
"Resulta bastante perturbador pensar que ese tipo de
asignaturas forman parte de carreras con base científica", comenta Frías. "El
hecho de que el profesorado y el alumnado no aprecien esa incompatibilidad hace
temer por la calidad de la formación científica que se imparte en esas
carreras", añade.
Las universidades utilizan diferentes argumentos para
defender la inclusión de estos cursos dentro de
sus programas. Fernando Fernández Lanza, gestor cultural del
Vicerrectorado de Extensión Universitario de la Universidad de Alcalá de
Henares, justifica la presencia en su oferta docente de dos cursos de verano,
Acupuntura y Homeopatía (que no llegó a impartirse por falta de
alumnos) y Grafología para selección de personal, en que este tipo de
actividades son "cursos de acercamiento entre profesores y alumnos". "Pueden
montarse cursos sobre el infierno, ¿por qué no?", añade. La convocatoria de
estos cursos es pública y son los directores de los mismos los que presentan un
temario, organizan los horarios y se encargan de las tareas administrativas.
"Los contenidos los aprueba una comisión en el vicerrectorado. En este caso no
pareció conveniente echarlos atrás", añade.
El argumento de que se trata de cursos de extensión
universitaria es compartido por la directora del curso Grafología para
selección de personal, Laura Rayón, quien también incide en que apoyó el
curso porque le pareció que "el conocimiento de que en un test de selección de
personal pueden encontrarse con esta prueba es útil para alumnos universitarios
a cualquier nivel". Carlos Santamaría, profesor de Psicología Cognitiva de la
Universidad de La Laguna, aclara que, si nos atenemos al conocimiento científico
existente sobre la materia, la grafología tiene
"la misma fiabilidad que a la astrología, es decir, cero".
El discurso de la posible utilidad de la materia impartida
como herramienta profesional de los alumnos, independientemente de su validez,
también sirve para excusar el máster en Acupuntura que la Universidad de Lleida
comenzará a impartir en octubre. La directora del Instituto de Ciencias de la
Educación de la Universidad de Lleida, Conxita Vendrell, afirma que "en este
momento ya nadie duda de la eficacia de la acupuntura", aunque posteriormente
matiza que "es un debate que no está cerrado".
Vendrell defiende la oferta de este curso porque
"la acupuntura existe como profesión; no es una
profesión científica pero podría llegar a serlo". También añade que hay
que ser respetuoso "con quien está aliviando el dolor de los pacientes". Isabel
Giralt, directora del curso, sentencia que "a la larga, estaría bien que la
acupuntura fuese una especialidad".
Fernando Frías asegura que cada vez hay más cursos
pseudocientíficos en la universidad. Según explica, ha influido la aparición de
un número cada vez mayor de títulos propios de las universidades, lo que "ha
permitido que aparezcan titulaciones específicas que antes no existían. También
la popularización de los cursos de verano, que permite que muchas universidades
impartan cursillos o talleres de introducción a materias tan palmariamente
anticientíficas como la astrología", añade el experto. Y, en última instancia,
la supuesta utilidad profesional: "Muchas de
esas materias están de moda, así que algunas universidades, que en lugar
de atender a los principios de una correcta formación científica prefieren hacer
caso del juego de la oferta y la demanda, las incluyen en sus titulaciones o
como asignaturas de sus carreras oficiales".
Fuente: publico.es, 2-10-10
-La muerte de un planeta
WASP-12b, un exoplaneta que orbita la estrella WASP-12, situada a
unos 867 años luz de la Tierra, está siendo destruido por ella. Este gigante
gaseoso, que posee una masa mayor a la de Júpiter, gira tan rápido alrededor
de su sol que su año dura solo 26 horas. Esto se debe a que está muy cerca
de la estrella, y esto lo está aniquilando. En efecto,
la gravedad y el calor
lo deforman tanto que parece un balón de rugby, y pierde unos 189
millones de millones de toneladas de su recalentada atmósfera cada año.
¿Cuánto tiempo resistirá el planeta antes de ser destruido?
|
|
Hemos sido afortunados. A pesar de lo breve -a
escala cósmica- de nuestra existencia como raza, hemos encontrado un
sistema estelar en el que un gigantesco planeta similar a Júpiter está
siendo destruido por su estrella. El planeta en cuestión es WASP-12b,
uno de los mas
enigmáticos de los casi 400 que los astrónomos han descubierto fuera
de nuestro sistema solar. El descubrimiento, tal como explican
los autores del mismo en la revista
Nature,
explicaría la extraña forma que posee este globo de gas en su parte
superior. El hallazgo posee un gran valor científico, ya que permitirá
a los especialistas supervisar
el proceso de
la muerte del planeta.
El estudio fue dirigido por Shu-Li, del
National
Astronomical Observatories de China, y contó con la
colaboración de investigadores de los Estados Unidos. Descubierto en
2008, WASP-12b es el planeta más caliente que se conoce.
Su superficie
tiene una temperatura cercana a los 2500 ° C. Una de las
razones de que el planeta sea un infierno es que describe su órbita a
una distancia muy pequeña -menos del 2% de la que separa la Tierra del
Sol- alrededor de la estrella WASP-12. El planeta tiene un 50% más
masa y un tamaño un 80% mayor que nuestro Júpiter, y según Shu-Li,
“las fuerzas de marea causadas por la atracción de la estrella son la
causa del enorme tamaño del planeta.” En efecto, así como en la Tierra
la interacción entre nuestro planeta y la luna causa las mareas que
alteran el nivel del mar, en WASP-12b la proximidad entre el planeta y
la estrella originan enormes fuerzas que distorsionan su forma y le
proporcionan una forma similar a un balón de rugby. Esta deformación
genera fricciones en su interior, las fricciones generan calor y este,
finalmente, produce la expansión del planeta. Tanto se ha dilatado,
dice Shu-Li, que “ya no es capaz de contener su propia masa en contra
de la atracción estrella.”
|
Cada segundo que pasa, WASP-12b pierde seis millones de
toneladas de su masa. Si el proceso continua a este ritmo,
toda la masa del
planeta habrá desaparecido en unos diez millones de años. Casi todo
el material que se desprende del planeta acaba en la estrella rápidamente,
pero una pequeña parte de la masa va creando un disco que se precipita hacia
WASP-12 describiendo una lenta trayectoria en espiral. Si bien 10 millones
de años puede parecer mucho tiempo, cuando pensamos que la Tierra se formó
hace unos 4550 millones, nos damos cuenta que este exoplaneta está en los
últimos instantes de su existencia. Y nosotros -la raza humana- estamos aquí
para verlo.
Fuente: abc.es, 2-10-10
-Los dinosaurios que surgían de la tierra
Cuando la criatura ya estaba a punto, rompía el huevo y, a ciegas, se abría
paso bajo la tierra, con sus patas recién formadas, hasta salir a la
superficie. Junto a ella, si había suerte, se empeñaban por llegar a la luz
una veintena de hermanos y, posiblemente muy cerca, otras camadas hacían lo
mismo. Escenas como ésta se repetían con asiduidad hace 70 millones de años en
Coll de Nargó, en pleno corazón del Pirineo leridano, donde se encuentra
el mayor nido con huevos de dinosaurio de toda Europa. Científicos del
Instituto Catalán de Paleontología (ICP) han descubierto datos inéditos
del comportamiento reproductivo de estos animales
saurópados,
sorprendentemente similar al de las tortugas actuales. Los «pollitos»
de dinosauro, ya de
unos veinte centímetros, rompían sus huevos y excavaban con toda la
fuerza y el empuje de la vida, igual que lo hacen ahora las fragilísimas crías
de tortuga. Rápidamente, se convertían en jóvenes adultos que podían llegar a
alcanzar
los quince metros de cabeza a cola y seis desde los pies hasta la
cadera. La investigación aparece publicada en la revista científica
PLOs ONE.
Puesta de huevos
Hasta ahora, se creía que las hembras de dinosaurio saurópodo, un gigantesco
animal herbívoro del Cretácico, ocultaban sus huevos entre la hierba de la
marisma, pero no era así como sucedía. En realidad,
los enterraban en una zona cercana a los ríos para que se incubaran con el
calor, y la eclosión se producía dentro del sustrato. Por los huevos
encontrados, esta práctica era muy común y se repetía en el tiempo, incluso
se han encontrado restos de un comportamiento similar en lugares remotos del
mundo, como Argentina. La zona catalana estaba entones cerca de la costa, y
«el
clima húmedo y cálido y la abundante vegetación la convertían en un
lugar idóneo para anidar», explica a ABC Ángel Galobart, jefe del grupo de
investigación del Mesozoico del ICP.
En el yacimiento de Coll de Nargó se han encontrado nueve puntos de
anidación, con una media de entre diez y quince huevos cada uno, aunque uno
de los nidos tiene 20 huevos y otro, el más grande, nada menos que 28. En
total,
140 huevos de saurópodo de hasta 20 centímetros de diámetro que han
sido analizados con sumo cuidado por los investigadores durante cinco años.
En busca de embriones
Extraer los huevos para su análisis no fue fácil y los científicos tuvieron
que utilizar un cemento expansivo. Después,
una tomografía computerizada (TAC) permitió ver su interior. «Es muy
difícil saber cuánto tiempo pasaba el dinosaurio dentro del huevo, pero sí
sabemos que cuando nacían se desarrollaban muy rápido», apunta Galobart.
También es un misterio cuál era el éxito de los nacimientos, aunque sí se
sabe por algunos huevos hallados intactos que
no todos eran fértiles.
Hasta ahora, todos los huevos se han encontrado vacíos, pero los
investigadores tienen la esperanza de descubrir algún día un embrión en los
que aún no han sido analizados. «Sería algo extraordinario, porque hay muy
pocos en el mundo», explica Galobart. Como no existe un escáner en el mundo
en el que se pueda analizar un nido de 28 huevos en una sola pieza -mide dos
metros por uno-, los cietíficos trabajan en el desarrollo de un
macroescáner de estas medidas para analizar los fósiles.
Fuente: abc.es, 1-10-11