Inicio

 

Ya puedes DESCARGAR todos nuestros PROGRAMAS DE RADIO "EL ALEPH" en la Sección NOSOTROS-PROGRAMACIÓN--

 

NOTICIAS CIENTÍFICAS


Mayo 2011

TITULARES DE LAS NOTICIAS DEL MES

 

Tecnología para lograr unas carreteras silenciosas

Catorce muertos en Alemania por una bacteria que sacude a la agricultura europea

El plástico del futuro serán las frutas

Que no te vendan gato por liebre en la pescadería

Algunas partes de la Luna contienen tanta agua como la Tierra

La edad del petróleo se acaba

El Spirit dice adiós a Marte

Google abandona la digitalizacón de los diarios

Los satélites hayan 17 nuevas pirámides

Chorros de partículas a partir de un agujero negro

Los efectos del paro en la pobreza

El universo nació de rebote

El terremoto de Japón elevó tres metros el fondo del mar

El espacio está lleno de planetas rebeldes

Einstein no se equivocó

8 horas de internet al día

Primer mapa de las arrugas de la Luna

Malas noticias para un fármaco estrella contra el cáncer

Muere un operario en Fukushima por causas desconocidas

Cometas y meteoritos originaron la atmósfera de la Tierra y Titán

La dieta que alarga la vida de los gusanos

Fuertes vientos barren el polvo interestelar de la galaxia

Descubrir fármacos, una actividad arriesgada

Un nuevo sensor detecta la presencia de proteínas infecciosas en la sangre

Merkel confirma el final de la era atómica

Las especies del mar profundo colonizan las costas de la Antártida

Una nueva central nuclear en Japón en cuarentena

Un gen provoca un nuevo tipo de "vejez" precoz

Un cráneo revela al "abuelo" de sapiens y neandertales

La supernova que engalanó el nacimiento de un rey

Río Tinto, el Marte español

Hacia la detección precoz del alzhéimer

Mapa 3D del universo remoto

La NASA pospone de nuevo el lanzamiento del "Endeavour"

 

Archivo


-Tecnología para lograr unas carreteras silenciosas

El centro español investiga en una novedosa tecnología destinada a atenuar el ruido de las ciudades. Bajo el paraguas del proyecto Pass By, Cidaut trabaja con nuevos materiales con el fin de fabricar pavimentos de las aceras, carreteras o vías del ferrocarril que reduzcan hasta casi desaparecer las vibraciones, el ruido y la contaminación. Lo singular de estos materiales es que consiguen mantener la seguridad en el asfalto y conservan la eficiencia energética. De modo que un coche no tiene por qué gastar más combustible o realizar mayor esfuerzo por circular sobre un asfalto de estas características 'silenciosas'.

Por ejemplo, para aislar una carretera se tiende a que sea menos rígida, y tenga menor ruido pero, por el contrario, supone mayor gasto de gasolina para el vehículo porque el esfuerzo es más grande. El material insonorizante con el que Cidaut trabaja logra filtrar la energía que genera el vehículo al pasar, y evitar que llegue en forma de ruido a construcciones cercanas. Para lograrlo, hay que moldear el material aislante para cada situación concreta. Además, el centro emplea materiales reciclados de desechos de neumáticos y también de productos plásticos. Los neumáticos cuentan con características muy buenas para reducir la rigidez de la carretera y se adecúan muy bien al coche que circula por ella. Cidaut desarrolla estos nuevos materiales buscando el equilibrio entre todos los componentes, reduciendo ruidos y vibraciones tanto de carreteras como de las vías del tren. Este planteamiento de tener en cuenta todas las variables como la seguridad y la utilización de la energía, es pionero, según sus responsables.

Fuente: portalpie.com, 31-5-11

-Catorce muertos en Alemania por una bacteria que sacude a la agricultura europea

Catorce personas han muerto por el brote infeccioso en Alemania atribuido en principio a una partida de pepinos españoles, ante lo que España anunció hoy que pedirá ayudas a la UE para paliar las pérdidas y estudia solicitar indemnizaciones por lo que considera acusaciones "sin fundamento".

El brote infeccioso se debe a una variante de la bacteria intestinal E. coli Enterohemorrágica, debido a la cual hoy se produjeron cuatro nuevas muertes en Alemania, que se suman a los diez fallecimientos registrados la semana pasada.

Asciende a once el número de muertos en Alemania por la la bacteria intestinal.REUTERS/Herwig Prammer

 

 

En concreto, las muertes se deben al síndrome urémico hemolítico (SUH) que provoca este germen patógeno y que causa insuficiencia renal, anemia hemolítica microangiopática, trombocitopenia, defectos de coagulación y signos neurológicos variables. Los casos de infección por la bacteria intestinal asciende a 1.200 y los afectados por el SUH son ya 352, según el Instituto Robert Koch de Berlín.

El foco continúa activo, según Bahr

El ministro alemán de Sanidad, Daniel Bahr, alertó de que el foco infeccioso continúa activo y "lamentablemente hay que contar con un creciente número de casos". Ante lo que considera acusaciones "precipitadas y sin fundamento" por la bacteria intestinal, España se plantea solicitar a la Unión Europea (UE) "algún tipo de indemnización".

El secretario de Estado español para la UE, Diego López Garrido, dijo que es necesario esperar los resultados de los análisis sobre el origen del brote antes de adoptar una medida de este tipo y señaló que las empresas españolas afectadas podrían iniciar "procedimientos de responsabilidad civil", aunque deberán ser ellas mismas las que "tomen la iniciativa".

Insistió en que las medidas adoptadas en algunos países para bloquear la importación de productos españoles "no están justificadas en base al derecho europeo", ya que "no existen fundamentos científicamente comprobados sobre que esas enfermedades, que se han producido en Alemania, obedezcan a un producto español".

Ayudas a la UE

Por otra parte, el Gobierno de España solicitará ayudas a la UE para paliar las perdidas causadas a su sector hortofrutícola por el brote infeccioso, después de que los productores españoles hayan estimado los daños en 200 millones de euros semanales. La ministra española de Medio Ambiente y Medio Rural y Marino, Rosa Aguilar, quien hoy analizó la situación con representantes de organizaciones agrarias, subrayó que España "no consentirá que se siga haciendo daño gratuitamente al sector" y pedirá a Alemania aclaraciones sobre el transporte y la distribución de los pepinos para conocer con certeza qué ha ocurrido.

Asimismo, la titular española de Sanidad, Leire Pajín, afirmó que hasta la fecha "no hay ninguna prueba, ni evidencia" de que en España se haya producido la contaminación de los pepinos. Pese a ello, Rusia prohibió a partir de hoy las importaciones de verduras procedentes de España y Alemania y afirmó que, si no hay cambios, esta medida se extenderá a todas las verduras europeas.

Bélgica también prohíbe su importación

También Bélgica prohibió la importación de pepinos de las dos explotaciones españolas sospechosas de haber distribuido la hortaliza contaminada por la bacteria intestinal, mientras la República Checa ordenó la retirada de dos remesas llegadas la semana pasada de Alemania, como hizo Dinamarca en los últimos días con productos hortofrutícolas procedentes de España.

En Austria se ha iniciado una operación para retirar de la venta al público pepinos, tomates y berenjenas de las tiendas que adquirieron productos de dos mayoristas de verduras alemanes que habían comprado a empresas españolas.

En general, los países de la UE han reforzando la vigilancia sobre los pepinos, tomates y otras verduras a la venta, a la espera de tener más datos sobre el origen de la contaminación por "E.coli". No obstante, un experto de la Comisión Europea no considera necesario un bloqueo general de la importación de pepinos y otros productos agrícolas procedentes de España.

Para el Ejecutivo comunitario, el bloqueo de los productos cultivados en las dos explotaciones concretas que le comunicó el Ejecutivo español es suficiente hasta que se disponga de datos fiables sobre el origen de la infección. El foco infeccioso, según medios alemanes, fue detectado tras realizar análisis, entre otras verduras, a cuatro pepinos escogidos aleatoriamente del mercado central de Hamburgo, de los que tres procedían de España -uno de ellos de cultivo biológico- y el otro de Holanda.

Fuente: publico.es, 30-5-11

 

-Que no te vendan gato por liebre en la pescadería

Un claro ejemplo del fraude en el sector pesquero es cuando, a precio de ganga, se venden filetes de bacalao o incluso de lenguado supuestamente procedentes del Báltico cuando en realidad son simples filetes de pez gato del mar del Norte.

La Comisión Europea ha publicado este viernes un informe en el que apostando por la tecnología molecular, ofrece respuestas a muchas de las preguntas que se hacen los consumidores, que, entre otras cosas, desean saber de qué especie proviene el producto, dónde se pescó y, si es salvaje o de piscifactoría.

El estudio, titulado 'Represión de las actividades ilegales en el sector pesquero', elaborado por el Centro Común de Investigación de la Comisión (JRC), apunta que esta vía de investigación puede ayudar en la lucha contra las prácticas ilegales. Además, el hallazgo permitirá trazar el origen de productos tan complejos como puede serlo el pescado enlatado.

Origen del producto

Maria Damanaki, comisaria europea de Investigación, Innovación y Ciencia declaró en Génova, ciudad elegida para presentar el estudio, que "se calcula que la pesca ilegal representa 10.000 millones de euros al año en todo el mundo". Añadió que se trata de una "actividad criminal" que afecta negativamente a cuatro sectores clave: la economía mundial, los ecosistemas marinos, las comunidades pesqueras y los consumidores. Insistió en que "si no se cumplen las normas no habrá una pesca sostenible".

 

Imagen de una pescadería sostenible del Mercado de San Miguel. | Carlos Adillo

 

Etiquetar el pescado y los productos pesqueros con nombres de especies falsas y asignándoles un falso lugar de procedencia son dos de las técnicas de fraude más comunes. Por ejemplo, en ocasiones, especies muy económicas como la perca dael Nilo se venden disfrazadas de mero.

El informe apuesta por técnicas moleculares indicando que las basados en la tecnología del ADN permiten identificar la especie sin la necesidad de un experto. La novedad reside en que este método también funciona en productos preparados. La idea es que las autoridades europeas implementen estas técnicas.

Negocio de lucro

Según Maìire Geoghegan-Quinn, principal responsable del JRC y comisaria europea de Investigación, Innovación y Ciencia, el informe demuestra que usando la tecnología molecular de forma coordinada y documentada, se podría reducir el fraude pesquero. Supondrá una garantía para los consumidores que no sólo obtendrán aquello por lo que han pagado sino que también sabrán exactamente qué están comiendo.

En 'Slow Fish 2011', la quinta reunión bianual dedicada al mundo de los peces y el ecosistema marino, se han formulado propuestas muy variadas. Una de ellas aboga por ofrecer más información. Para analizar el pescado optan por facilitar el acceso de los laboratorios de países miembro a los depósitos de información. Apuestan por crear una red de laboratorios que funcionen bajo un protocolo común. Coincidieron en la importancia de formar al personal.

Para mejorar la trazabilidad de los productos pesqueros y combatir la pesca ilegal, la Comisión está invirtiendo para que se aplique la norma conforme a la cuál todos los productos pesqueros han de venir acompañados de un certificado de captura.

Fuente: elmundo.es, 29-5-11

 

-El plástico del futuro serán las frutas

Cuando dentro de cientos de años los arqueólogos descubran algún vestigio de la sociedad de hoy, es probable que encuentren antes restos de basura que de arte o arquitectura. Desde que, en 1909, el químico estadounidense de origen belga Leo Hendrik Baekeland obtuvo el primer polímero sintético, la baquelita, vivimos envueltos en un mundo que depende del plástico, uno de los materiales más dañinos para el medio ambiente. Una botella de agua o un vaso desechable pueden tardar entre cien y mil años en ser asimilados de nuevo por la naturaleza.

En el planeta se producen más de 100 millones de toneladas de plástico al año, de las que un 10% acaba en el mar. Un altísimo coste natural, según Eben Bayer y Gavin McIntyre, fundadores de Ecovative, una empresa neoyorquina especializada en diseño ecológico. "Nosotros no fabricamos materiales, los cultivamos", explica Bayer.

Su compañía ha creado un plástico natural y biodegradable, el EcoCradle, a partir de las fibras de los hongos, los micelios, mezcladas con desechos de plantas de procesamiento de algodón. "Queremos sustituir el plástico en todos aquellos productos en los que no tiene sentido su uso, desde ordenadores a televisores", afirman. "No entendemos cómo se puede fabricar material a base de benceno, que dura hasta 10.000 años, para usarlo en un embalaje y tirarlo. Es insostenible", asegura Bayer, quien presume de haber diseñado el primer plástico "vivo".

Los clientes de esta empresa, fundada en 2007, tienen que esperar dos semanas antes de que sus pedidos estén listos. "El EcoCradle tiene un periodo de crecimiento de cinco días", confiesa su creador. El plástico a base de hongos ideado por estos exalumnos del Instituto Politécnico Rensselaer (EEUU) es altamente biodegradable y se reintegra en el ecosistema en un plazo de entre tres meses y un año.

 

El pasado enero, Ecovative fue una de las compañías más premiadas durante la celebración del Foro Económico Mundial en Davos. Poco después, firmó un acuerdo con el gigante de la informática Dell para convertir en sostenible el embalaje de sus ordenadores. Además, hace sólo unos días, la compañía automovilística Ford anunció que utilizará en sus vehículos el otro gran producto de Ecovative, el Greensulate, un aislante de fibras de hongos que es más barato, ecológico y ligero que las espumas tradicionales, además de ignífugo. Ford sustituirá más de 15 kilos de material aislante de derivados del petróleo por esta solución alternativa. Con apenas 30 años, Bayer y McIntyre pueden revolucionar un sector que genera un volumen de negocio de más de 20.000 millones de dólares al año.

La industria automovilística también podría sufrir un cambio radical si un grupo de científicos brasileños con base en EEUU culmina con éxito el desarrollo de fibras de nanocelulosa a partir de limones, piñas y plátanos. Este compuesto frutal reciclable, similar al plástico y tan duro como el Kevlar, podría usarse para diseñar piezas de vehículos.

Según el director del proyecto, Alcides Leao, la nanocelulosa es hasta un 30% más ligera que los laminados de plástico que actualmente se utilizan y con apenas un kilo de compuesto se pueden obtener hasta 100 de fibras de plástico ecológicas. "Estamos convencidos de que, en un futuro, la mayoría de las piezas de los coches, entre ellas el salpicadero o los parachoques, se fabricarán con fibras de fruta", señala Leao, que con su solución espera "reducir el peso de los vehículos y mejorar el consumo de combustible".

Leao y Ecovative no son los únicos que están tratando de buscar alternativas más sostenibles a los plásticos. YiqiYang, profesor de Bioingeniería de la Universidad de Nebraska, se ha propuesto que los millones de plumas de aves que acaban en la basura cada año se conviertan en los sustitutos del petróleo. Las plumas, como las uñas o el pelo, están compuestas principalmente por queratina, una proteína que, aplicada a la actual fórmula de fabricación de plásticos, podría aumentar su fuerza y reducir su peso. Según Yang, las plumas podrían alcanzar hasta el 50% de la composición de los plásticos, con lo que se reduciría la dependencia de derivados del crudo como el polietileno y el polipropileno. Para Yang, "las plumas son actualmente un desecho, pero tienen grandes propiedades que podrían convertirlas en una alternativa económica y sostenible a los materiales sintéticos".

Fuente: publico.es, 29-5-11

 

 

-Algunas partes de la Luna contienen tanta agua como la Tierra

Hasta hace menos de cinco años, la comunidad científica aceptaba que la Luna era una roca seca, quizá con la salvedad de algunos cráteres sombreados en los polos que podrían albergar hielo procedente de impactos de asteroides y cometas. En 2009, las observaciones confirmaron que hay agua en la Luna, en una cantidad que después llegó a estimarse en 600 millones de toneladas. Hoy la cantidad se corrige de nuevo al alza, hasta el punto de que ya no será tan fácil cuantificarla.

 

Uno de los equipos que investigan el agua lunar no utiliza sondas ni telescopios, sino muestras recogidas hace décadas por las misiones Apolo de la NASA. Se trata de cristales procedentes de las antiguas erupciones de los volcanes lunares. El grupo que dirige el geoquímico argentino Alberto Saal en la Universidad Brown de EEUU ya publicó en 2008 que los cristales analizados todavía retenían agua, aunque habían perdido la mayor parte y era difícil estimar el contenido original.

En el nuevo estudio, que hoy publica Science, Saal y su equipo, en colaboración con otras instituciones de EEUU, han analizado cristales que contienen inclusiones de magma aisladas del exterior y que por tanto actúan como cápsulas del tiempo, reteniendo intacto su contenido original. Empleando herramientas de medición ultrasensibles, han descubierto que el contenido de agua es cien veces mayor de lo que se creía, equiparándolo al del manto externo terrestre.

Los científicos llegan a sugerir un replanteamiento de la actual teoría sobre el origen de la Luna. Hasta hoy se asume que se formó por una colisión catastrófica que evaporó todos los elementos volátiles, incluyendo el agua. Los resultados muestran que no es así y que al menos parte del agua acumulada en los polos probablemente no procede de cometas, sino del propio magma lunar.

Fuente: 27-5-11, publico.es

-La edad del petróleo se acaba

«La edad de piedra se acabó no porque se acabaran las piedras y la del petróleo llega a su fin no porque se extinga el petróleo, pero está claro que toca a su fin». Esa fue una de las conclusiones de las jornadas que ayer se celebraron en la Escuela de Energía y Cambio Climático Fundación Focus-Abengoa bajo el epígrafe «¿Qué modelo energético para España?». José Domínguez Abascal, secretario técnico de Abengoa y moderador del foro, abogó por reducir de forma importante el consumo de este combustible fósil ya que España gasta al año 140 millones de toneladas.

El objetivo es reducirlo de aquí al año 2020 con la meta de sustituir el petróleo por energías renovables pero también la principal meta es lograr que ese aumento de la energía renovable vaya pareja a una disminución progresiva del consumo de energía. En ese sentido, Domínguez Abascal dejó claro que el ahorro es una pieza fundamental para ese cambio por el que todos los países y también España deben luchar, pero también la idea es buscar energías alternativas, como el sol. Y es que, para el secretario técnico de Abengoa, las termosolares pueden ser parte de esa solución. Para demostrarlo apuntó un dato: en una hora llega a la tierra más energía solar que la que consumimos en un año. Y eso hay que aprovecharlo.

Sin embargo para reducir el consumo de petróleo sería necesario contar con el apoyo de los fabricantes de transportes, según uno de los ponentes, Luis Puch, profesor de la Universidad Complutense e investigador de FEDEA, que admitió que España está todavía «muy lejos» de la reducción del gasto de petróleo que ya han acometido otros países de la UE como Alemania precisamente por la resistencia de los fabricantes de coches.

 

Otra solución apuntada por Pedro Linares, profesor de la Escuela Técnica Superior de Ingeniería ICAI de la Universidad Pontificia Comillas, e investigador del Instituto de Investigación Tecnológica, pasa por un cambio de modelo energético basado en el ahorro. Y para ello es necesario educar a las nuevas generaciones porque, a su juicio, «en España hay una generación que despilfarra energía» mientras que la conciencia por el ahorro está todavía en muy bajos niveles. Y a la par es necesario invertir en I+D. «El cambio de modelo energético es la revolución que viene» y que, según los expertos, pasará por la desaparición del 50 por  ciento del petróleo, la mitad por el ahorro y otro tanto por el uso de las renovables.

Fuente: abc.es, 26-5-11

-El Spirit dice adiós a Marte

Tenía una esperanza de vida de apenas 90 días pero durante más de seis años se convirtió junto a su gemelo Opportunity en los ojos de la humanidad en el Planeta Rojo. Hoy la NASA anunciaba oficialmente la 'muerte' del Spirit, varado en un banco de arena tras perder el movimiento de dos de sus seis ruedas y con el que no había podido comunicar desde hace 14 meses.

Desde el pasado mes de marzo los ingenieros de la agencia espacial han realizado diversos intentos por restablecer el contacto con el robot, pero sus llamadas no han obtenido respuesta.

La hipótesis que se maneja es que, carente de suficiente energía para calentarse, el invierno marciano podría haber dañado sus circuitos internos al someterlos a temperaturas de hasta 50 grados bajo cero. "Con insuficiente energía para mantener en funcionamiento sus calentadores es probable que las temperaturas en el interior del aparato explorador fuesen demasiado bajas", señala el comunicado de la NASA.

El 4 de enero de 2004 el Spirit aterrizó en Marte. Apenas 15 minutos después enviaba su primer mensaje a la Tierra para confirmar que todos sus sistemas se encontraban operativos. "¡Hemos vuelto!", fue el grito de júbilo que se escuchó dentro de la sala de control de California. Veinte días después el Opportunity repetía la maniobra con idéntico éxito.

La llegada de ambos robots al Planeta Rojo supuso un respiro para la NASA, que había visto como 24 de sus 32 misiones anteriores con este destino se saldaron con sonoros fracasos y apenas un año antes sufrió la destrucción del Columbia cuando reentraba en la atmósfera terrestre. No era esta aún así la primera vez que se alcanzaba este objetivo. La NASA lo consiguió con las Viking I y II (1976) y la Pathfinder (1997), mientras que los soviéticos hicieron lo propio en 1971 con la Mars 3, con la que se perdió la comunicación apenas unos segundos después de tocar suelo.

Laboratorio portátil

Del tamaño de un carrito de golf, para realizar sus experimentos el Spirit contaba con un completo laboratorio portátil integrado por un brazo mecánico para manipular objetos, cámaras y distintos utensilios para el análisis de las muestras recogidas. Además del envío de decenas de miles de imágenes, entre los logros del robot se encuentra el haber contribuido a hallar indicios de que hace millones de años el agua pudo recorrer la superficie marciana, y de que esta habría registrado temperaturas mucho más cálidas que las actuales, lo que ofrece esperanzas de que la vida pudo existir en Marte. En su periplo llegó a ascender una pendiente de 82 metros -equivalente a la Estatua de la Libertad-, un esfuerzo de 14 meses pero que le permitió realizar desde la cima de la bautizada como colina Husband la que es una de las panorámicas más espectaculares del planeta.

El Spirit ya había dado señales de debilidad en otras ocasiones en forma de silencios no programados, envío de datos sin sentido o fallos temporales en sus mecanismos, aunque ante la sorpresa de sus ingenieros siempre había conseguido recuperarse. La suerte también le sonrió a través del viento marciano que inesperadamente le sirvió para limpiar de polvo la superficie de las placas solares mediante las que se alimentaba. Esta vez parece que su silencio es definitivo pero ha cumplido su misión con creces. "Han convertido la ciencia ficción en realidad, y llevado a la gente a un lugar que no habrían podido imaginar en toda su vida", dijo sobre ambos robots el exjefe de ingenieros del proyecto, Jake Matijevic.

La investigación en Marte tiene asegurado su futuro inmediato pese a la baja del Spirit. El Opportunity -que a lo largo de estos años ha recorrido 26 kilómetros frente a los 7,7 de su gemelo- continúa la exploración en perfecto estado. Además, pronto le llegarán refuerzos. Para noviembre de este año está previsto el lanzamiento del Curiosity que llegará al planeta vecino en el verano de 2012. Con un volumen seis veces superior al de sus dos predecesores, este nuevo robot tendrá como principal misión confirmar si Marte albergó vida microbiana.

 ciento del petróleo, la mitad por el ahorro y otro tanto por el uso de las renovables.

Fuente: abc.es, 26-5-11

-Los satélites hayan 17 nuevas pirámides

17 pirámides de las que no se tenía conocimiento han sido identificadas en un 'escaneado' por satélite del territorio de Egipto, según informa en su página 'web' la radiotelevisión pública británica BBC.

La prospección, según la BBC, se ha realizado empleando rayos infrarrojos que han permitido descubrir estructuras enterradas bajo el suelo. Además de las 17 pirámides, más de 1.000 tumbas y otros 3.000 yacimientos han sido detectados en esta investigación.

Los sondeos, además, ya han dado sus frutos y dos de las pirámides detectadas están siendo investigadas por equipos arqueológicos, con resultados positivos.

Las excavaciones, así como el estudio por infrarrojos, son iniciativa de un equipo de la Universidad de Alabama, empleando satélites que trabajan a 700 kilómetros de la superficie de la Tierra. Según los responsables del proyecto, los resultados que se han alcanzado con esta investigación "sólo corresponden a los yacimientos que están cerca del suelo. Hay miles de yacimientos más que el nilo ha cubierto con el limo. Esto es sólo el comienzo de este tipo de investigaciones".

Según la arqueóloga Sarah Parcak, el empleo de satélites "permite afinar y ser más precisos en el trabajo que hacemos. Cuando nos enfrentamos a un gran yacimiento, uno no sabe por dónde empezar. Como herramienta, los satélites nos permiten tener una perspectiva más amplia".

 

Cuatro imágenes del documental de la BBC.

 

Fuente: elmundo.es, 25-5-11

-EEUU presenta su futura nave espacial

La nueva nave de EEUU para explorar el "espacio profundo" es una vieja conocida. El jefe de la NASA, Charles Bolden, anunció ayer un nuevo vehículo para transporte de astronautas que responde a las siglas MPCV y que, según la agencia espacial estadounidense, está basado en el diseño de las cápsulas Orión.

Estos vehículos cuyo diseño comenzó en 2005 eran el buque insignia de la agencia para llegar a la Luna y a Marte, según los planes aprobados por el expresidente George Bush. Obama las canceló primero y, tras la polémica, decidió conservarlas como vehículo de escape de la Estación Espacial Internacional (ISS).

El nuevo anuncio es otro balón de oxígeno para las Orión, cuyo fabricante, Lockheed Martin, esperaba tener que despedir a parte de sus empleados debido a las cancelaciones. El MPCV llevará a cuatro astronautas en misiones de 21 días.

Podrán amerizar en el océano Pacífico y serán "diez veces más seguras durante la entrada en la atmósfera que sus predecesores, los shuttle", según la NASA. Aún quedan dos misiones a bordo de estas naves. El Endeavour regresará desde la ISS el 1 de junio y el Atlantis partirá por última vez el 8 de julio.

Fuente: publico.es, 25-5-11

-Google abandona la digitalizacón de los diarios

Google abandona su plan de digitalización de la hemeroteca de los diarios. Se trata de un proyecto lanzado en 2008 y en el que estaban implicados unos 2.000 periódicos.

En un comunicado remitido a searchengineland, la empresa explica que mantendrá accesible la consulta del archivo de las cabeceras digitalizadas, pero no ampliará su contenido. Google News Archive planeaba hacer accesible en Internet el contenido de diarios desaparecidos o la hemeroteca de diarios en circulación. En su base de datos hay publicaciones como London Advertiser, de 1895.

Según el Boston Phoenix, que había llegado a un acuerdo con Google para digitalizar su contenido, en el aviso recibido la empresa anuncia que se concentrará en el proyecto Google One Pass, una plataforma que facilita la gestión de suscripciones y acceso de pago de los diarios desde sus propios sitios en Internet.

Fuente: elpais.com, 24-5-11

 

-Chorros de partículas a partir de un agujero negro

La galaxia Centauro A está a unos 12 millones de años luz de la Tierra y tiene un agujero negro con una masa aproximada de 55 millones de soles a partir del cual salen proyectados dos chorros de partículas, de materia que sale disparada a un tercio de la velocidad de la luz.

El mecanismo que originan estos chorros no están claros, pero ahora un equipo de astrónomos ha obtenido las imágenes de ellos con mayor detalle hechas hasta ahora, lo que debe ayudar a explicar el fenómeno. Han hecho las observaciones con radiotelescopios, en concreto sincronizando los registros de nueve antenas situadas en Australia, Suramérica, Suráfrica y la Antártida.

"Estos chorros surgen cuando se acerca al agujero negro la materia que está cayendo en él, pero no conocemos aún los detalles de cómo se forman y cómo se mantienen", explica Cornelia Mueller, estudiante de doctorado de la Universidad de Erlangen-Nurenberg (Alemania), que lidera estas observaciones. El equipo, con los radiotelescopios sincronizados, ha logrado obtener imágenes de una región de Centauro A que mide menos de 4,2 años luz, inferior a la distancia entre el Sol y la estrella más cercana. En ella se aprecian detalles de 15 días luz, según informa la NASA.

Centauro A es uno de los objetos celestes más brillantes y más grandes cuando se observa en radio, porque la galaxia que se ve en luz visible tiene dos grandes lóbulos, cada uno de casi un millón de años luz de largo, emitiendo en radio, que se alimentan de los chorros de partículas originados en las proximidades del agujero negro central.

Estos astrónomo, que presentan su trabajo en el número de junio de la revista Astronomy and Astrophysics y ya está disponible en internet, forman parte del proyecto Tanami. Lo que han hecho es combinar, con una técnica que se denomina iterferometría, las observaciones de las diferentes radioantenas ubicadas en los diferentes continentes (siempre en el hemisferio Sur), logrando así una enorme resolución en sus imágenes radio, ya que este parámetro es mayor al aumentar la distancia entre las antenas. Luego los registros de cada una se combinan con técnicas informáticas avanzadas.

 

En la galaxia Centauro A se aprecian los dos chorros y los lóbulos cuando se combinan las imágenes tomadas en diferentes longitudes de onda, desde rayos X hasta radio, pasando por la luz visible y microondas.- ESO/WFI/MPIFR/APEX/NASA/CXC/CfA/WEISS/KRAFT

 

Fuente: elpais.com, 23-5-11

 

 

-El Papa contacta con los tripulantes de la Estación Espacial Internacional

 

El papa Benedicto XVI ha contactado vía satélite con los tripulantes de la Estación Espacial Internacional (ISS) con motivo de la última misión del transbordador Endeavour.

"Estoy muy feliz de tener esta oportunidad extraordinaria de poder conversar con vosotros durante vuestra misión. Sobre todo, estoy honrado de poder hablar con muchos de vosotros. En este momento la humanidad está atravesando un periodo de gran progreso desde el punto de vista del conocimiento científico y las aplicaciones tecnológicas", afirmó Benedicto XVI.

En este sentido, sois los representantes de esta tecnología, con la que lleváis adelante la capacidad humana y las nuevas posibilidades del futuro, que hacen mejor nuestra existencia de todos los días. Admiro vuestra valentía y vuestro compromiso para el que os preparáis toda la vida", agregó.

En una conversación de unos 20 minutos, el pontífice les dijo a los tripulantes, entre ellos dos italianos, que son fuente de inspiración para muchas personas.

"Estáis a disposición de toda la humanidad con vuestras acciones, con las que buscáis el bien común. Esta conversación me da la oportunidad de expresar mi admiración y mi estima por vosotros, también porque habéis hecho posible esta misión y la habéis podido llevar a cabo de un modo positivo", apuntó el Papa.


Acto seguido, el pontífice les planteó cinco preguntas sobre diversos temas, entre ellos la paz, el cuidado del medioambiente, la aventura espacial como forma de búsqueda de los orígenes de la humanidad, así como el mensaje que van a transmitir a los jóvenes una vez que regresen a la Tierra. El Papa preguntó también al ingeniero italiano Paolo Nespoli cómo había vivido la reciente muerte de su madre, a tantos miles de kilómetros de distancia. "Querido Paolo, sé que en los últimos días tu madre te ha dejado. Todos estamos cerca de ti y rezamos por ti", dijo Benedicto XVI, quien habló con los astronautas en inglés, excepto esta última cuestión, que fue planteada y respondida en italiano.

Nespoli le contestó que las misiones en el espacio te ofrecen la ventaja de poder observar la Tierra desde arriba, pero también tiene el inconveniente de no poder estar con la familia en momentos como la muerte de un ser querido, aunque dijo que se ha sentido muy cercano y arropado por sus compañeros. Durante la conexión se pudo ver cómo el otro astronauta italiano, Roberto Vittori, pasó a Nespoli la medalla con la imagen de la creación del hombre de Miguel Ángel, que el Papa le dio para que la llevara al espacio y que ahora su compañero deberá traer de nuevo a la Tierra.

Última misión del 'Endeavour'
El transbordador Endeavour despegó el lunes rumbo a la Estación Espacial Internacional (ISS), en la que será su vigésimo quinta y última misión al espacio.

La nave partió del Centro Espacial Kennedy, en Florida, para realizar una misión que durará 16 días y que incluye cuatro jornadas de trabajo de sus astronautas fuera del complejo que órbita a unos 385 kilómetros de la Tierra. El Endeavour, que con una carrera espacial de 19 años es el más joven en una flotilla que tuvo cinco transbordadores, se desprendió de los dos cohetes propulsores y continuó rumbo hacia su órbita sin problemas.

Los astronautas del Endeavour y de la Estación Espacial Internacional (ISS) realizarán diversos experimentos científicos, entre ellos uno a desarrollar con el aparato que viaja a bordo del transbordador y que permitirá el estudio de la física de las partículas en los rayos cósmicos.

 

Fuente: elmundo.es, 22-5-11

 

 

-Los efectos del paro en la pobreza

 

Investigadores de la Universidad Rey Juan Carlos (URJC) confirman que la proporción de personas que experimentan carencias y dificultades es superior entre las familias inmigrantes, lo que representa un riesgo cinco veces superior al que afrontan las demás familias. Además alertan de la vulnerabilidad de los trabajadores inmigrantes en el mercado de trabajo y ante posibles descensos repentinos de ingresos, como son los asociados a la pérdida de empleo. La brecha se amplia, a partir de 2008, por efecto de la crisis.

 

Los resultados de la  investigación “Privación multidimensional en España: Diferencias entre nativos e inmigrantes” liderada por Luis Ayala, desde el departamento de Economía Aplicada II de la Universidad Rey Juan Carlos, confirman plenamente la idea de que los trabajadores inmigrantes ocupan una posición subordinada y vulnerable en el mercado de trabajo, con una mayor tasa de asalarización y una concentración muy marcada en un puñado de ocupaciones poco cualificadas de determinados sectores de actividad (como la construcción o la hostelería).

En dichas ocupaciones,
los inmigrantes trabajan muy frecuentemente con contratos temporales, cambian de empleo más a menudo que los trabajadores autóctonos y ejercen menos veces tareas de responsabilidad que impliquen la coordinación o dirección de equipos de trabajadores. Además, ganan menos que los trabajadores autóctonos con similar nivel educativo.

En concreto, los resultados sobre salarios muestran que los trabajadores inmigrantes están sobre-representados en los tramos retributivos más bajos, especialmente en el caso de las mujeres, lo que se traduce en una brecha salarial media situada en torno al 25%. Por otra parte, los salarios que cobran los inmigrantes son más homogéneos que los que reciben los restantes trabajadores, y todo ello implica un elevado riesgo de llegar a ser trabajadores (y sobre todo trabajadoras) “pobres “ y se traduce en una también alta proporción de familias con ingresos inferiores al umbral de riesgo de pobreza, situado en el 60% de la media. A lo largo de todo el período estudiado, la tasa de riesgo de pobreza de las familias sustentadas por inmigrantes ronda el 30%, más de 10 puntos por encima del promedio nacional.

La posición económica relativa de los hogares sustentados por una persona inmigrante se agrava cuando se utilizan indicadores distintos de la tasa de pobreza convencional, basada en la renta disponible. Es el caso de la inclusión del alquiler y de los ingresos los gastos relacionados con la vivienda (sin incluir la amortización de posibles préstamos hipotecarios), que llevaría a situar a casi la mitad de las familias inmigrantes por debajo del umbral. Esta gran brecha refleja las disparidades entre viejos y nuevos residentes en el acceso a la propiedad inmobiliaria, así como en la calidad media de las viviendas y en la carga financiera que supone su alquiler o compra. Ello supone un nuevo factor de vulnerabilidad ante posibles descensos repentinos del nivel de ingresos, como los asociados a la pérdida del empleo.

Por último, en prácticamente todos los indicadores, la proporción de personas que experimentan carencias y dificultades es superior entre las familias inmigrantes, con diferencias especialmente abultadas en aspectos como la posesión de ordenador o automóvil, las dificultades para llegar a fin de mes y la frecuencia de los retrasos en los principales pagos periódicos (recibos, alquiler o hipoteca, compras aplazadas).

Por otra parte, la brecha vuelve, además, a ampliarse en 2008, año en el cual once de los catorce indicadores de privación empeoran, por efecto de la crisis, en el caso de los hogares sustentados por inmigrantes. En esta última fecha, casi la mitad de la población en hogares encabezados por inmigrantes sufre privación material (es decir, presenta tres o más carencias simultáneamente), el triple que en los hogares nativos, y casi uno de cada cuatro sufre simultáneamente baja renta y privación material, lo que representa un riesgo cinco veces superior al que afrontan las demás familias.

 

Fuente: madridiario.es, 21-9-11

 

-El universo nació de rebote

 

Los físicos no tienen herramientas para enfrentarse al origen del universo. Lo que sí han conseguido demostrar es que hace aproximadamente 13.700 millones de años, toda la materia y la energía se encontraban en una diminuta región, que, poco a poco se expandió, dando nombre a la famosa teoría del 'Big Bang'. Sin embargo, queda por resolver qué sucedió durante ese espacio de tiempo previo. La teoría de la 'Gravedad Cuántica de Lazos' formulada por Abhay Ashtekar hace ahora 25 años explica qué ocurrió antes de la expansión. Ashtekar, director del Instituto para Física Gravitacional y Geometría de la Universidad del Estado de Pensilvania ha expuesto los últimos avances junto a su colega Carlo Rovelli en la sede madrileña de la Fundación BBVA.

La teoría ideada por Ashtekar se presenta como candidata a resolver uno de los retos más importantes de la física contemporánea: unificar las leyes de la relatividad general con las de la mecánica cuántica. Según el físico indio, "es la única teoría bien desarrollada en la que todo, la materia y el espacio-tiempo, son cuánticos desde su nacimiento". La Gravedad Cuántica de Lazos indica que, a escalas muy pequeñas, el espacio-tiempo está formado por una red de lazos entretejidos parecida a la espuma. La 'teoría de las cuerdas' es su competidora más directa. El físico reconoce que han tenido diferencias con los defensores de esta teoría. El mayor reto al que se enfrenta ahora es el de comprobar sus predicciones. Para ello contarán con los datos recogidos por el satélite de la Agencia Espacial Europea (ESA)'Planck'.

La Gravedad Cuántica de Lazos se ha unido a un modelo en el que el 'Big Bang' es precedido de una o varias fases previas de colapso y expansión en algo parecido a un rebote.

"La región del 'Big Bang' es inaccesible para la física convencional", abunda Rovelli, "con la Gravedad Cuántica de Lazos podemos hacer cálculos y computar lo que puede haber pasado. Los resultados de estos cálculos indican de forma rotunda que antes del 'Big Bang' hubo otro universo que se contrajo; luego, al rebotar, dio lugar al nuestro".

 


El físico y su equipo también han aportado hipótesis que explican los misteriosos agujeros negros cuya altísima concentración de materia los físicos no entienden. Ashtekar confesó que su fascinación por la física y las matemáticas empezó cuando a los 15 años, leyó el libro 'Un, dos, tres, infinito', escrito por el mítico George Gamow.

 

Fuente: elmundo.es, 20-5-11

 

 

 

-El terremoto de Japón elevó tres metros el fondo del mar

 

La corteza terrestre dio un monumental bandazo y desplazó decenas de metros el fondo del mar cuando el pasado 11 de marzo un terremoto de 9 grados Richter azotó la costa de Japón causando un gran tsunami. Un estudio recién publicado en la revista 'Science' indica que una banda del fondo marino de 20 metros de ancho se elevó tres metros verticalmente. Mariko Sato y varios colegas de la Universidad de Tokio han podido analizar los datos recogidos por una serie de aparatos de observación situados en la base del océano. Curiosamente, entre los años 2000 y 2004 habían colocado cinco aparatos traspondedores muy cerca del foco del terremoto del 11 de marzo.

El tsunami toca tierra en la localidad de Natori. | Reuters

 

 

Cruzando esos datos junto con las mediciones de GPS y los registros de ondas acústicas, los autores del artículo en Science han podido confirmar que hubo una larga banda de terreno, de varios kilómetros de largo, que se desplazó horizontalmente entre cinco y 24 metros a lo largo del fondo del mar. Ademas, esa banda de corteza marina dio un 'brinco' vertical de entre 80 centímetros y tres metros de alto. Fue en la zona más cercana al epicentro donde se registró el mayor movimiento: 24 metros en horizontal y tres metros en altura.

Ese es precisamente el tipo de movimiento que genera tsunamis como el del 11 de marzo. Al desplazarse hacia arriba, la corteza empuja el volumen de agua que tiene encima y empieza a desplazarla en todas direcciones. Es el mismo efecto que se observa cuando se da un golpe hacia arriba con la mano en el culo de un vaso. Los investigadores terminan su artículo haciendo una valoración de cuánta parte de la corteza se vio afectada por el movimiento. No tienen observaciones completas para poderlo demostrar, pero estiman que ese movimiento de traslación y de elevación registrado afectó a una banda del fondo marino de 70 kilómetros de longitud.

Lo que los científicos han encontrado más interesante es descubrir que el movimiento detectado por los traspondedores fue realmente cuatro veces más grande de lo que los sensores de tierra habían permitido deducir, lo que tiene repercusiones para mejorar las valoraciones sobre futuros tsunamis.


Otras conclusiones
Además de este artículo liderado por Mariko Sato, la revista Science publica en su último número algunos trabajos más sobre el seísmo del 11 de marzo, al que los geólogos han bautizado ya con el nombre de Gran Terremoto de Tohoku-Oki y que ayudan a entender mejor el tipo de movimiento qe se produjo y qué fue lo que liberó tanta energía.

 

Fuente: elmundo.es, 20-5-11

 

 

-El espacio está lleno de planetas rebeldes

El universo no deja de mostrar que otros mundos son posibles. Primero fueron los exoplanetas que orbitan estrellas fuera del Sistema Solar, después los supuestos gemelos de la Tierra y, ahora, una clase de mundos sin ataduras que se comportan de forma tan extraña que no hay ni consenso para ponerles nombre.

Son supuestos planetas que vagan libres por el espacio, sin dar vueltas a una estrella como hace la Tierra y la gran mayoría de los más de 500 exoplanetas confirmados desde 1995. Un equipo internacional describe hoy en Nature diez de estos mundos, a los que han llamado "masas planetarias". Tienen el tamaño de Júpiter, el mayor planeta del Sistema Solar, y su distancia a la estrella más cercana es diez veces mayor que la que hay entre el Sol y la Tierra (1.500 millones de kilómetros). Por ello, los autores sugieren que "la mayoría" de ellos "no están ligados a una estrella".

La idea de un planeta libre no es nueva. En 2000, un equipo de investigadores del Instituto de Astrofísica de Canarias fue el primero en observar estos cuerpos que habían soltado amarras de sus estrellas.

 

 Eran hasta 15 veces mayores que Júpiter y, en un artículo en Science, los astrónomos los bautizaron "planetas gigantes solitarios". También señalaron que su existencia cuestionaba las teorías terrícolas de cómo nace un planeta.

En su trabajo actual, los 30 investigadores de Japón, Nueva Zelanda, Reino Unido, EEUU, Polonia y Chile que firman el artículo ofrecen una posible explicación para su nacimiento. Los gigantes solitarios se formaron en torno a una estrella junto a otros planetas, es decir, el proceso habitual, pero en algún momento pasaron tan cerca de alguno de ellos que las fuerzas gravitatorias los expulsaron al espacio exterior.

Hacer un censo

"Nuestro estudio es como un censo de población", dice el astrónomo de EEUU David Bennett, coautor del trabajo, en una nota difundida por la NASA. Primero estudiaron una porción de la Vía Láctea durante dos años con el telescopio MOA de Nueva Zelanda, que capta picos de luz reflejada en estos planetas, y el OGLE, que hace observaciones directas desde Chile. Luego se cuenta el número de planetas solitarios y se extrapola al resto de la galaxia, explica Bennett.

 

El resultado es que este tipo de cuerpos pueden ser dos veces más numerosos que las estrellas normales, aunque por las técnicas de observación, basadas en la alineación de dos estrellas, son muy difíciles de ver. Eso significaría que en la Vía Láctea habría medio billón de estos rebeldes sin sol, según el experto en exoplanetas del CSIC Ignasi Ribas. "Es algo que predecían los modelos y que comenzamos a observar de forma directa", destaca.

Los autores del trabajo actual se cuidan de llamarlos planetas, ya que no está claro que un cuerpo que no orbita una estrella lo sea. Además se ignora de qué están hechos y si pueden albergar vida, algo que varios trabajos anteriores han visto que es posible. En un artículo complementario, el astrónomo de la Universidad de Heidelberg Joachim Wambsganss cita varias de las denominaciones que actualmente están en liza. Incluyen "planeta flotante", "planeta solitario" y, en un giro que recuerda al cantante Prince, "objetos antes conocidos como planetas". "Es un tema aún muy confuso, no sabemos cómo llamarlos, pero yo me resisto a que se les llame planetas", confiesa Ribas.

Fuente: publico.es, 19-5-11

-Einstein no se equivocó

La sonda espacial de la NASA Gravity Probe B acaba de confirmar las distorsiones del espacio-tiempo predichas por la Teoría de la Relatividad General de Einstein. Culmina así una larga empresa que ha costado cinco décadas de trabajo y más de 750 millones de dólares. Entre tanto, este mismo fenómeno ha sido puesto de manifiesto por otros experimentos, lo que ha ocasionado un debate en la comunidad científica sobre la necesidad y conveniencia de Gravity Probe B.

 

La Teoría de la Relatividad General enunciada por Albert Einstein en 1916 sigue siendo la mejor descripción existente de la gravedad, posiblemente la fuerza física más determinante en la estructura y evolución del Universo.

Según el físico alemán, un cuerpo masivo curva el espacio-tiempo en su entorno, lo que ocasiona que los rayos de luz abandonen en su proximidad la trayectoria rectilínea para seguir trayectorias curvadas, es lo que se conoce como �efecto geodésico�.

Otra consecuencia de la Teoría de Einstein, predicha por los físicos austríacos Lense y Thirring en 1918, es que si ese cuerpo masivo se encuentra girando (como hace la Tierra), las líneas del espacio-tiempo se deforman aún más, torciéndose para acompañar al giro. Es lo que se conoce como 'arrastre del marco de referencia'.

Se trata de un fenómeno similar a la creación de un campo magnético por una carga en rotación, por ello también se denomina efecto gravitomagnético. Para hacernos una idea aproximada, podemos pensar en la Tierra sumergida en chocolate fundido. Según gira el planeta, el chocolate del entorno es arrastrado y tiende a también a girar en el mismo sentido que la Tierra.

Bolas de ping pong ultraprecisas

Ya en 1920, Arthur Eddington sugirió utilizar giróscopos de alta precisión para detectar los efectos que el giro de la Tierra debía ocasionar sobre ellos, y probar así la Teoría de Einstein. La idea fue desarrollada a finales de los años 1950 y la NASA comenzó el diseño de los giróscopos más precisos de la historia. Del tamaño de una pelota de ping-pong, las esferas de dichos giróscopos fueron construidas en cuarzo y bañadas en niobio superconductor para lograr un comportamiento electromagnético óptimo. Tales giróscopos fueron embarcados en la nave Gravity Probe B que, tras múltiples estudios y peripecias, fue lanzada en el año 2004.

El satélite fue puesto en órbita polar a unos 650 kilómetros de altitud, y el eje de giro de los giróscopos (que en la nave espacial se encuentran en una situación equivalente a gravedad cero) fue orientado cuidadosamente en la dirección de la estrella IM Pegasi.

Si el espacio-tiempo no fuese curvo, el eje de giro de las bolas de cuarzo no debía variar en el tiempo. Pero lo que se ha observado es que, debido al efecto geodésico predicho por Einstein, el eje de giro varía (precesa) de 6.601,8 milisegundos de arco por año (con un margen de error del 0,3 por ciento).

Por otro lado, una variación adicional de 37,2 milisegundos de arco por año (con un margen de error del 19 por ciento) solo puede ser ocasionada por el arrastre del marco de referencia (Lense y Thirring predijeron un valor de 39). Estos resultados han sido publicados hace unos días en la revista especializada Physical Review Letters.

Un experimento 'relativamente' necesario

La sonda de la NASA confirma así dos predicciones fundamentales realizadas haci casi un siglo por la Teoría de la Relatividad de Einstein, lo que sin duda supone un nuevo éxito para el genial físico.

Sin embargo, no es esta la primera vez que la Teoría de Einstein ha sido sometida es este tipo de test; otros experimentos, realizados con anterioridad, habían logrado medir estos efectos aún con mayor precisión.

Por ejemplo, se realizaron otros tests similares a principios de los años 1970 mediante la medida precisa del movimiento de la Luna, ello se consiguió reflejando un láser en los espejos que fueron instalados en la superficie de nuestro satélite por las misiones Apolo. También el estudio de los púlsares binarios y el seguimiento mediante láser de los satélites LAGEOS permitió validar la misma Teoría de Einstein. Finalmente, la medida de los retrasos experimentados por una radioseñal emitida por la sonda Cassini consiguió medir el efecto geodésico con una precisión del 0,002 por ciento.

Así las cosas, no es de extrañar que la misión Gravity Probe B, plagada de graves dificultades técnicas, haya estado al borde de la cancelación en unas 7 ocasiones a lo largo de su desarrollo y haya sido el centro de un agrio debate en la comunidad científica.

El último examen de la misión realizado en 2008 pudo ser superado gracias a las aportaciones extraordinarias de capital privado, entre ellas la de la familia real de Arabia Saudí, que permitieron refinar el análisis de los datos. Se realizaron entonces modelos muy detallados de los efectos instrumentales que alteraban el giro de las esferas de manera indeseable, hasta conseguir una precisión aceptable en la identificación de los efectos relativistas.

Francis Everitt, el físico de la Universidad de Stanford que ha pilotado la misión durante estas cinco décadas, puede por fin respirar tranquilo tras alcanzar su objetivo de una manera que ha sido calificado como heroica. Sus datos encajan bien tanto con la teoría como con las medidas anteriores.

Sin embargo estos nuevos resultados pueden tener unas implicaciones tecnológicas superiores a las meramente científicas. La tecnología desarrollada podrá servir para optimizar la fabricación de relojes embarcados en naves espaciales. Es de esperar pues que los datos de Gravity Probe B sean de utilidad para mejorar la precisión de los sistemas de posicionamiento global mediante constelaciones de satélites.

También interesante

Fuente: elmundo.es, 18-5-11

 

-8 horas de internet al día

Cerca de la mitad de los usuarios que utiliza Internet pasa más de ocho horas al día online. De esta cifra hay que tener en cuenta que el principal uso es laboral. Con motivo de la celebración el 17 de mayo del Día de Internet, la comunidad Red Innova ha hecho público un estudio basado en encuestas a usuarios del que se desprende que el 49,4% de los usuarios de Internet pasan más de ocho horas conectados.

Una amplia mayoría, un 97,8%, lo hace para trabajar, el 90,7% para consultar el correo electrónico, siendo el segundo uso mayoritario, el ocio es la tercera opción con un 86,9% y la consulta de noticias se sitúa en la cuarte posición, aún con un porcentaje muy elevado (84,7%).

En cuanto al uso de las redes sociales, un 82,6% de los encuestados asegura utilizarlas para compartir información, mientras que un 75,4% las emplea para hacer contactos profesionales y buscar trabajo. En tercer lugar los usuarios emplean las redes sociales para mantener el contacto con los amigos (69,8%), mientras que un 58,6% de los internautas habituales afirma que navega por las redes sociales durante su tiempo de trabajo porque cree que son una fuente de información o sirven para mantener el contacto con sus clientes.

Además, el 66,3% considera que Internet es una excelente opción para compaginar mejor la vida profesional y la personal, mientras que un 65,7% de los encuestados señala como uso cotidiano las compras y la ejecución de operaciones bancarias. Del estudio se desprende que el 67,3% de los internautas afirma que utiliza su teléfono móvil para conectarse.

Fuente: publico.es, 17-5-11

 

 

-Primer mapa de las arrugas de la Luna

 

La Luna lleva impresos en su castigada superficie los daños que ha sufrido durante 4,5 millones de años. No hay cosmética que haya podido suavizar los cráteres de impacto o las oscuras llanurascreadas por antiquísimas erupciones volcánicas, unas cicatrices que pueden esclarecer a los científicos cuál es la auténtica historia de nuestro satélite natural. Ahora, científicos del Instituto de Tecnología de California en Pasadena han elaborado el primer conjunto completo de mapas que revelan la rugosidad de la cara de la Luna. Esta especial cartografía se ha realizado con detallados datos recogidos por un instrumento del Orbitador de Reconocimiento Lunar (LRO, por sus siglas en inglés) de la NASA, construido en el Centro de Vuelo Espacial Goddard en Greenbelt, Maryland.

Al igual que las arrugas en la piel, la aspereza de los cráteres y otras características de la superficie de la Luna pueden revelar su edad.«La clave está en buscar en la rugosidad en escalas largas y cortas», explica Meg Rosenburg, principal autora del artículo que describe los resultados, publicados en el Journal of Geophysical Research a principios de este año.

La rugosidad depende de las subidas y bajadas sutiles del paisaje, una calidad que los investigadores pueden descubrir mediante la medición de la pendiente en localizaciones por toda la superficie. Para armar un cuadro completo, los investigadores examinaron la rugosidad en un rango de diferentes escalas -las distancias entre dos puntos -de 17 metros a 2,7 kilómetros-.

«Los cráteres viejos y jóvenes tienen propiedades diferentes de rugosidad», dice Rosenburg. Eso es porque los cráteres más antiguos han sido golpeados durante mucho tiempo por meteoritos, cambiando la forma original del cráter. Esta es una forma de descubrir qué cráteres son viejos y cuáles nuevos.

Pistas sobre la evolución de la Luna

Al observar dónde y cómo están los cambios de rugosidad, los investigadores pueden obtener pistas importantes sobre los procesos que dieron forma a la Luna. Un mapa de la rugosidad del material que rodea la cuenca Oriental, por ejemplo, revela diferencias sutiles en el material expulsado cuando el cráter se formó por un objeto gigante que se estrelló contra la Luna.

Esa información se puede combinar con un mapa de contornos que muestra dónde están los puntos altos y bajos. «Al mirar los dos juntos, podemos decir que una parte de la cuencia Oriental no sólo es mayor o menor, sino también diferente en rugosidad», dice Rosenburg. «Eso nos da algunas pistas sobre el proceso de impacto que lanzó el material expulsado y también sobre los procesos de la superficie que más tarde actuaron para modificarlo».

De la misma forma, las llanuras lisas de María -que en un principio los astrónomos confundieron con mares- fueron creadas por la actividad volcánica y tienen una rugosidad diferente a la de las tierras altas de la Luna, lo que refleja orígenes distintos en los dos terrenos.

Fuente: abc.es, 16-5-11

-Malas noticias para un fármaco estrella contra el cáncer

Hace pocas semanas, EEUU decidió prohibir el uso de bevacizumab (más conocido por su nombre comercial Avastin) para el tratamiento del cáncer de mama. Una de las razones alegadas es que sus beneficios no parecen ser superiores a sus riesgos. Ahora, los resultados de una revisión ahondan en el tema de su seguridad al detectar un pequeño aumento de la mortalidad que invita a reconsiderar en qué situaciones debe usarse este fármaco 'superventas'.

El trabajo, publicado en la revista 'Journal of the American Medical Association', analiza los datos de 16 ensayos clínicos en los que se comparó el uso combinado de bevacizumab más quimioterapia o terapia biológica frente a estos dos tratamientos por separado en pacientes con distintos tipos de cáncer (colon, riñón, próstata, pulmón, mama y páncreas). Su conclusión es que "añadir este fármaco a la terapia antineoplásica se asocia con un aumento significativo del riesgo de sufrir reacciones adversas fatales", apunta el trabajo.

Basándose en la información de más de 10.000 pacientes, los autores concluyeron que aquellos tratados con Avastin tenían un riesgo 1,5 veces superior de sufrir un efecto secundario letal en comparación con los demás. Aunque se trata de una probabilidad pequeña (2,5%), los autores sugieren que el tratamiento con este fármaco se "debe reconsiderar" y "es importante para los médicos y los pacientes que entiendan y reconozcan los riesgos".

Algo que, según Ricardo Cubedo, oncólogo del Hospital Puerta de Hierro de Majadahonda (Madrid), ya se había observado. "Sabemos que Avastin tiene toxicidad y que hay que tener cuidado con las perforaciones [gastrointestinales] y las hemorragias", explica a ELMUNDO.es. El problema con este fármaco, según los expertos consultados por este medio, es otro.

Resultados inconsistentes

La historia de Avastin, un anticuerpo monoclonal que inhibe el desarrollo de nuevos vasos sanguíneos, fenómeno del que depende el crecimiento de tumores y metástasis, está llena de altibajos. A pesar de los buenos augurios iniciales, "el desarrollo clínico de bevacizumab incluye éxitos y fracasos decepcionantes", apunta Daniel Hayes, reputado oncólogo de la Universidad de Michigan (EEUU), en un editorial acerca de este estudio. La euforia inicial se ha ido disipando debido principalmente a las sospechas acerca de sus efectos adversos letales y a que Avastin no aumenta la supervivencia global de los pacientes.

"La inconsistencia de los resultados despierta cuestiones importantes: ¿Tiene bevacizumab beneficios específicos contra el cáncer?", se pregunta Hayes. La práctica clínica y el análisis detallado de la respuesta al fármaco sugieren que "funciona bien, pero sólo en pacientes seleccionados", señala este experto. Emilio Alba, presidente de la Sociedad Española de Oncología Médica (SEOM), coincide en que "en algunos pacientes funciona muy bien pero en otros no tiene ningún efecto".

Administrarlo o no

A pesar de esto, Avastin es el fármaco de su familia más utilizado en España y uno de los más empleados en EEUU. Pero es que averiguar qué personas se beneficiarían del tratamiento con Avastin pasa por realizar estudios biológicos que determinen qué biomarcadores predicen este efecto positivo y cuales indican el futuro fracaso. "Habría que hacerlo -subraya Cubedo-; pero, ¿quién lo hace?".

Por un lado, las farmacéuticas "no tienen ningún incentivo para llevar a cabo estas investigaciones", señala este oncólogo. Por otro, "cuestan demasiado dinero para que las hagan otras instituciones". Mientras tanto, bevacizumab se sigue administrando o se prohíbe para ciertos tumores, en función de las decisiones de las diferentes agencias reguladoras (Reino Unido, por ejemplo, ya le impuso serias restricciones).

¿Cuál es la acertada? Para Hayes, los beneficios de su uso generalizado "podrían no estar justificados" dados los "modestos" beneficios detectados y al enorme coste de este fármaco (unos 30.000 euros por paciente).

Fuente: elmundo.es, 15-5-11

-Muere un operario en Fukushima por causas desconocidas

 

La central nuclear de Fukushima, en Japón.ap

 

 

Un trabajador de la central nuclear Fukushima Daiichi falleció durante su jornada laboral, según anunció un portavoz de Tepco, la compañía dueña de la planta.Aunque las causas de la muerte son desconocidas por el momento, el portavoz declaró que su cuerpo no presentaba niveles elevados de contaminación radiactiva y que el operario llevaba ropa y máscara protectoras.

Se da la circunstancia de que la víctima, de 60 años, llevaba sólo un día trabajando en la central y se calcula que se había expuesto a 0,51 milisieverts el viernes y 0,17 en la parte de jornada laboral que cumplió el sábado, una cantidad "apenas cuatro veces superior a la que se obtiene tras hacerse cuatro radiografías de tórax", señala The Washington Post.

Al parecer, el operario se empezó a encontrar mal cuando trabajaba en un edificio de depósito de agua radiactiva. "La temperatura en las instalaciones no está siendo monitorizada, pero hemos sabido que no es un ambiente preocupante ni en términos de humedad ni en cuanto a niveles de radiación", explicó a los medios el portavoz de Tepco Yoshimi Hitosugi, que añadió que el trabajo de la víctima "no requería de gran esfuerzo físico". Varios medios japoneses han apuntado a que la causa de la muerte sería un infarto.

Se trata del primer fallecimiento de un trabajador de Fukushima durante los trabajos de reparación de la central. Dos operarios fallecieron anteriormente, pero por el terremoto y posterior tsunami que sacudió el país el pasado 11 de marzo.

Momento delicado

La muerte del trabajador viene en un momento delicado para Tepco, después de que el miércoles pasado Goshi Hosono, un asesor especial para el primer ministro japonés, Naoto Kan, expresara en rueda de prensa su preocupación por las condiciones laborales de los trabajadores de Fukushima. El diario japonés Mainichi, publicó que muchos operarios de la central están siendo obligados a trabajar sin estar completamente descontaminados. El diario citaba a un empleado de una subcontrata de Tepco que afirmaba que su empresa "firmaba permisos especiales" para permitir a sus trabajadores trabajar a más niveles de radiación de los permitidos.

La crisis coincide con el anuncio de que el Gobierno japonés continuará trabajando con energía nuclear, aunque fomentará el uso de otras energías alternativas. Según el periódico Yomiuri, así lo expresará Kan a los primeros ministros de los países más ricos del mundo en la reunión del G8, que se celebrará en Deauville, Francia, los próximos 26 y 27 de mayo. En la reunión hará hincapié, eso sí, en que Japón aumentará la seguridad en torno a la energía nuclear.

Fuente: publico.es, 14-5-11

 

 

-Cometas y meteoritos originaron la atmósfera de la Tierra y Titán

Investigadores del Consejo Superior de Investigaciones Científicas (CSIC) han hallado un nexo común en el origen de las atmósferas de la Tierra y del satélite de Saturno Titán. El análisis de los datos obtenidos por la misión Cassini-Huygens, un proyecto de la NASA, la Agencia Espacial Europea y la Agencia Espacial Italiana, sugiere que la evolución química de ambas atmósferas estuvo marcada por el último gran bombardeo de asteroides y cometas durante la formación del Sistema Solar, hace unos 3.900 millones de años.

Figura 1. Izqda. Reconstrucción de la Tierra primitiva en las fases de producción de materia orgánica en la atmósfera. Acuarela de J. Trigo Campoy. Dcha. Gráfica mostrando la similitud entre los cocientes isotópicos de la Tierra (línea roja) y los de Titán para los principales elementos constituyentes de la materia orgánica. Los datos se han extraído de diferentes resultados obtenidos por la misión Cassini-Huygens (ESA)./CSIC

 

Según los científicos del CSIC Josep Maria Trigo y Francisco Javier Martín, autores del estudio que aparece publicado en el último número de Planetary & Space Science, este “gran bombardeo tardío” se inició cuando los planetas gigantes Júpiter y Saturno migraron hasta sus actuales órbitas, lo que produjo un impulso gravitatorio sobre cuerpos helados formados en varias regiones de la parte externa del Sistema Solar. Como consecuencia, una gran cantidad de objetos ricos en agua y en materia orgánica empezaron a impactar sobre planetas rocosos como la Tierra.

Los científicos han hallado grandes similitudes entre la Tierra y Titán, a pesar de que ambos cuerpos planetarios se formaron muy lejos el uno del otro (el planeta azul se encuentra nueve veces más cerca del Sol que el satélite de Saturno). En concreto, sus atmósferas tienen en común la abundancia de nitrógeno molecular, deuterio, hidrógeno, carbono, nitrógeno y oxígeno. Todos estos elementos apuntan al mismo origen derivado del impacto de cometas y asteroides.

También han llevado a cabo un estudio termodinámico de las condiciones atmosféricas de ambos cuerpos planetarios. Los resultados sugieren que la evolución química de ambas atmósferas habría sido similar, marcada por varios impactos. “Dado que la Tierra se formó en un entorno muy caliente próximo al Sol, ese gran bombardeo tardío resultó fundamental para enriquecerla con los ingredientes básicos para la aparición de la vida. De hecho, la mayoría de cuencas y grandes cráteres de la Luna fueron provocados por el impacto de estos objetos enriquecedores en ese periodo, tal y como dataron las rocas lunares recogidas por las misiones Apolo”, explica Trigo, que trabaja en el Instituto de Ciencias del Espacio (CSIC) y el Instituto de Estudios Espaciales de Cataluña.

Según Trigo, además del registro lunar de cráteres, existen otras evidencias del importante papel que tuvo el impacto de estos objetos. Una de ellas revela que la composición de la corteza y el manto terrestre, en concreto su abundancia en metales, tiene su origen en ese proceso de enriquecimiento. “El manto alberga metales que, de no haber llegado de manera tardía, deberían estar en el núcleo terrestre. Además, los volcanes emanan gases con anomalías características de los meteoritos condríticos”, señala Trigo.

Una atmósfera terrestre inestable

Los investigadores van más allá y creen que el “gran bombardeo tardío” fue clave para cambiar el destino de la Tierra, un planeta que hace 3.900 millones de años no era adecuado para la vida. Aunque la superficie luminosa del Sol era en aquel periodo un 30% menor que en la actualidad, el flujo de radiación ultravioleta que emitía hacia la Tierra era mucho mayor.

“Debido a este flujo de un joven Sol, una atmósfera terrestre rica en nitrógeno molecular hubiese sido inestable. Esta circunstancia, unida al gran impacto que dio origen a la Luna, hace pensar que la Tierra pudo perder, quizás varias veces, su atmósfera”, explica al respecto Javier Martín Torres, que trabaja en el Centro de Astrobiología, un centro mixto del CSIC y el Instituto Nacional de Técnica Aerospacial.

 “La llegada de tales compuestos, y de partículas metálicas catalizadoras capaces de sintetizar moléculas orgánicas más complejas bajo el influjo de la radiación solar, permitió convertir nuestro planeta en el único oasis de vida que, por ahora, conocemos”, aseguran los autores del estudio. 

Fuente: csic.es, 13-5-11

 

-La dieta que alarga la vida de los gusanos

Los científicos no tienen ninguna duda de que la restricción dietética prolonga la vida, una vida que, además, resulta más saludable durante más tiempo. Muchos estudios han demostrado que la limitación de la ingesta de nutrientes permite vivir más y mejor a la levadura, los gusanos y las moscas, y que pospone las enfermedades relacionadas con el envejecimiento en los ratones. Sin embargo, este mecanismo, por qué comer menos está relacionado con la longevidad, todavía desconcierta a los científicos, que están convencidos de que aquí puede encontrarse la clave para descubrir nuevas terapias contra enfermedades como el Alzheimer, el Parkinson e incluso el cáncer.

Investigaciones con el gusano C. elegans en el Instituto Buck de Investigación del Envejecimiento han arrojado una nueva luz sobre el proceso. El secreto se encuentran en un grupo de moléculas que señalan lípidos llamadas N-Acylethanolaminas (NAEs), que informan a los animales sobre si han obtenido muchos o pocos nutrientes y les ayudan a regular su respuesta al envejecimiento ante los cambios en su dieta. Algunas de estas moléculas son similares a unas sustancias llamadas endocannabinoides, que se encuentran en el interior del cuerpo humano, donde se regulan diversos procesos fisiológicos como la ingesta de nutrientes y el balance energético. Así, el vínculo entre los endocannabinoides, la restricción dietética y el envejecimiento podría ocurrir en distintas especies. El estudio aparece publicado en la revista Nature.

«Esta es la pieza que faltaba del rompecabezas. Ahora estamos entrando en la mecánica del proceso», asegura Matthew S. Gill, responsable de la investigación. En el estudio, Gill y sus colegas del Instituto Buck demostraron que la abundancia de las moléculas NAEs en los gusanos se reducía durante los períodos de restricción de la dieta, y que esa deficiencia era suficiente para extender la vida útil de los animales.

 

También en los mamíferos

De acuerdo con Gill, la mayoría de las investigaciones sobre la restricción dietética se han centrado en la identificación de las proteínas y los genes individuales que funcionan en el proceso. La nueva investigación, por el contrario, identifica esta nueva pequeña molécula, que señala cómo el gusano responde a ambientes de alimentos limitados o abundantes.

Los endocannabinoides son activos en casi todos los sistemas en la fisiología de los mamíferos y, hasta ahora, se les había implicado en el aprendizaje y la memoria, el apetito, el metabolismo, la presión arterial, la inflamación y el crecimiento de los huesos. Sin embargo, la nueva investigación abre la posibilidad de que influyan también en el envejecimiento en los mamíferos. «Hay mucho interés en el desarrollo de fármacos que imitan los efectos de la restricción dietética pero sin que los pacientes tengan que reducir las calorías», afirman los investigadores. Los endocannabinoides podrían formar parte de los objetivos farmacológicos contra el envejecimiento.

Fuente: abc.es, 12-5-11

-Fuertes vientos barren el polvo interestelar de la galaxia

El telescopio espacial Herschel de la ESA ha detectado fuertes tormentas de polvo saliendo de varias galaxias. Hace tiempo que se sospecha que estas corrientes podrían tener la fuerza suficiente para despojar a las galaxias de gas, deteniendo el proceso de formación de estrellas a su paso.

Recreación artística de una galaxia con una fuga molecular

 

Herschel ha detectado vientos de una magnitud extraordinaria; los más rápidos soplan a una velocidad de más de 1000 km/s, lo que viene a ser unas 10 000 veces más rápido que los huracanes terrestres.

Esta es la primera vez que se observa este fenómeno de forma inequívoca en una serie de galaxias. Es un descubrimiento de gran importancia, ya que las estrellas se forman a partir del gas y el polvo interestelar, por lo que estas corrientes están despojando a las galaxias de la materia prima que necesitan para formar nuevas estrellas. Estos vientos podrían alcanzar la magnitud suficiente como para detener por completo la evolución de aquellas estrellas que se encuentran en pleno proceso de formación.

“Gracias a Herschel, por fin tenemos la oportunidad de estudiar qué papel juegan realmente estas corrientes de gas en la evolución de las galaxias”, comenta Eckhard Sturm del Instituto Max-Planck de Física Extraterrestre en Alemania, autor principal del artículo que presenta este descubrimiento.

El doctor Sturm y su equipo utilizaron el instrumento PACS (Photoconductor Array Camera and Spectrometer) a bordo de Herschel para estudiar una serie de 50 galaxias. Esta primera publicación presenta los resultados de la observación de seis de ellas.

Las observaciones sugieren que estas galaxias pueden llegar a perder 1200 veces la masa de nuestro Sol cada año debido a estos fuertes vientos. Esto sería suficiente para barrer todas sus reservas de gas en un periodo de entre un millón y 100 millones de años. En otras palabras, alguna galaxia podría perder todo el material que le permite formar nuevas estrellas en tan sólo un millón de años.

Estas corrientes podrían ser el resultado de la intensa emisión de luz y partículas de las estrellas más jóvenes, o de las ondas de choque generadas tras la explosión de las estrellas más viejas. Otras teorías sugieren que podrían tener su origen en la radiación desprendida por la materia que se arremolina entorno a un agujero negro en el centro galáctico.
 

Los vientos de mayor intensidad parecen proceder de las galaxias que contienen los ‘núcleos galácticos activos’ (AGN) más brillantes, en los que un agujero negro supermasivo engulle la materia que lo rodea. El doctor Sturn y su equipo están probando esta hipótesis en las otras galaxias que componen su estudio. Si su teoría es correcta, podría ayudar a explicar cómo se formaron las galaxias elípticas.

En este tipo de galaxias el proceso de formación de estrellas se detuvo hace tiempo, cuando se agotaron las reservas de gas interestelar.

Las teorías sugieren que las galaxias elípticas se forman siguiendo un proceso de realimentación negativa: cuando dos galaxias de menor tamaño colisionan y se fusionan, el agujero negro que domina el nuevo núcleo combinado tiene a su disposición más materia, que le permite crecer e incrementar su actividad. Como consecuencia, las corrientes que genere serán todavía más intensas, arrastrando más gas interestelar fuera de la galaxia, hasta el punto de detener por completo el proceso de formación de estrellas.

“Al observar estas tormentas de polvo en plena acción, Herschel puede aportar las pruebas necesarias para confirmar que la evolución de las galaxias está dominada por procesos de realimentación negativa”, concluye Göran Pilbratt, Científico del Proyecto Herschel para la ESA.
 
Fuente: ESA, 11-5-11

 

-Descubrir fármacos, una actividad arriesgada

Prácticamente la totalidad de los fármacos aprobados en las últimas dos décadas han sido descubiertos y desarrollados por la industria farmacéutica, ya sea en compañías de biotecnología o en grandes multinacionales. Esto contribuye a que la investigación que se lleva a cabo en los centros de investigación clásicos, la gran mayoría públicos, se esté distanciando cada vez más de la investigación aplicada, a pesar de los reiterados mensajes de los dirigentes políticos insistiendo en que la investigación sea cada vez más "traslacional".

Es por ello por lo que siempre quise que el Centro Nacional de Investigaciones Oncológicas (CNIO) tuviera un programa de descubrimiento de fármacos. Aún recuerdo cuando el Sanger Centre publicó en 2002 que la quinasa B-RAF estaba mutada en la mayoría de los melanomas. En aquel momento, justo después del éxito de Gleevec -el primer fármaco dirigido contra una diana molecular responsable de la leucemia mielógena crónica- B-RAF representaba una nueva oportunidad, además contra un tipo de tumor para el que no existía ningún tratamiento eficaz. Fui inmediatamente a hablar con el entonces director del Instituto de Salud Carlos III y presidente del Patronato del CNIO para proponerle establecer un pequeño centro de química médica que, compartido con nuestro vecino, el Centro Nacional de Investigaciones Cardiovasculares, nos permitiera implementar un programa de descubrimiento de fármacos compartiendo recursos y experiencias. Me dijo que era un megalómano y que si no tenía ya bastante con el CNIO. Le intenté explicar que eran dos cosas distintas, pero no entendió nada. Mi amigo, el doctor Yossi Schlessinger, que entonces trabajaba en la Universidad de Nueva York, tuvo la misma idea. Afortunadamente para él, se encontraba en otro entorno, mejor dicho en otro mundo, y pudo convencer a inversores privados para que invirtieran en una pequeña compañía de biotecnología, Plexxicon, que nunca llegó a tener más de 40 empleados. En 2010, ocho años más tarde, PLX4032, un inhibidor de B-RAF sintetizado en Plexxicon, consigue respuestas clínicas en un 80% de pacientes con melanoma metastático, una enfermedad para la que no existía ninguna terapia eficaz hasta entonces. Este año, Plexxicon ha sido comprada por una multinacional por 950 millones de dólares.

En 2004 se descubrió otra diana atractiva en oncología, la PI3K, un enzima mutado en un tercio de tumores de mama y colon. Entonces decidí no cometer el mismo el error. No pregunté. Poco a poco, sin que nadie se enterara, convertimos una planta del CNIO en una pequeña biotech para sintetizar inhibidores de PI3K, entre otros proyectos. La puesta en marcha del programa fue posible gracias al apoyo del entonces secretario de Estado, Miguel Ángel Quintanilla, que nos concedió el primer préstamo público en 2006, año que marca el inicio del Programa de Terapias Experimentales del CNIO. Empezar un programa de descubrimiento de fármacos con dos años de retraso no es ni mucho menos idóneo, pero al menos podíamos empezar. En octubre de 2010, tan solo cuatro años después (normalmente la industria tarda cinco o seisaños en llevar a cabo este proceso), el CNIO obtuvo la patente de toda una colección de inhibidores de PI3K, cuando menos comparable con la de las mejores compañías farmacéuticas. Ahora estamos trabajando contra reloj para recuperar el retraso inicial y poder licenciar estos compuestos en las condiciones más competitivas posibles.

El verano de 2010 nos ofreció una nueva oportunidad. Esta vez se trataba de un descubrimiento en mi propio laboratorio, lo que nos proporcionaba una ventaja sustancial sobre posibles competidores. Ratones programados genéticamente para desarrollar el tipo de cáncer de pulmón más común entre los fumadores, permanecían libres de tumor si eliminábamos, mediante una simple manipulación genética, la quinasa c-RAF. Estos resultados, aunque no lo garantizan, sí sugieren que inhibidores de c-RAF pueden tener actividad antitumoral en pacientes con cáncer de pulmón. Además, se dio la circunstancia de que en ese momento aparecieron varias publicaciones describiendo cómo PLX-4032, el inhibidor antes mencionado de la quinasa B-RAF, una prima hermana de c-RAF, estaban teniendo un efecto espectacular en melanoma metastásico. No hace falta ser un genio para darse cuenta de que lo que teníamos entre manos era potencialmente muy importante. Inmediatamente fui a hablar con el entonces jefe del Departamento de Química Médica del CNIO y le propuse sintetizar inhibidores de c-RAF con la condición de que fueran selectivos y suficientemente distintos de los inhibidores de B-RAF ya patentados para asegurarnos su propiedad intelectual. Cuando a los dos meses presenté este proyecto al FIS, un organismo financiador dependiente del Ministerio de Ciencia e Innovación (MICINN), se nos dijo que ya no podían darnos más préstamos públicos, algo bastante sorprendente cuando, como hemos sabido recientemente, el 25% del presupuesto del Ministerio ha quedado sin ejecutar (EL PAÍS, 2-4-2011).

Dada la relevancia del proyecto intentamos buscar dinero privado. Las gestiones dieron su fruto antes de lo esperado y en noviembre presentábamos al Patronato la posibilidad de recibir 10 millones de euros anuales por cinco años que garantizaran, no solo este proyecto, sino dos proyectos adicionales para los cuales tampoco existía financiación.

El proyecto era jurídicamente viable según lo avalaba el informe de dos de los más prestigiosos juristas del país en esta materia, Juan Alfonso Santamaría, catedrático de Derecho Administrativo y socio director de la prestigiosa firma Gómez Acebo & Pombo, y Enrique Rivero, también catedrático de Derecho Administrativo. Sin embargo, el MICINN removió Roma con Santiago para conseguir dos informes negativos, ninguno de ellos vinculante, pero que sirvieron para que a través del Patronato de la Fundación CNIO se denegara la autorización necesaria para llevar a cabo el proyecto. ¿Qué interés tenía el MICINN en bloquear esta financiación privada? ¿A quién beneficia que no se investigue para intentar generar nuevos y mejores fármacos? Al menos, por aquel entonces, los argumentos del MICINN estaban respaldados jurídicamente, con una interpretación muy cuestionable, pero respaldados. Pero he aquí que en marzo de este año, el Congreso aprobó la Ley de Economía Sostenible, que en sus artículos 53 y 56 dice claramente que las fundaciones del sector público estatal, en las que se integra el CNIO, pueden participar en sociedades mercantiles dedicadas a la investigación, desarrollo e innovación. Estos artículos, al ser parte de una ley posterior, invalidan el artículo 24 de la Ley de Fundaciones en el que se basó el MICINN para denegar la inversión privada que habíamos solicitado a través de un tipo de sociedad mercantil denominado agrupación de interés económico (AIE).

Como se explicaba en un artículo de EL PAÍS del domingo pasado, una AIE permite que la Fundación CNIO, es decir, el propio MICINN, organismo de quien depende, controle hasta un 99% de la agrupación y retenga el 100% de la propiedad intelectual, algo imposible si se hubiera intentado establecer una spin-off financiada con capital-riesgo. Por lo tanto, en este momento el MICINN se ha quedado sin argumentos. No permite financiar los programas de descubrimiento de fármacos del CNIO simple y llanamente porque no quiere.

Ahora, en lugar de reconsiderar su postura, el MICINN reacciona mediante la descalificación y la intimidación. Como consecuencia de la mera denuncia de estos hechos, el próximo día 16 de mayo habrá un nuevo director en el CNIO. ¿Cuál será el siguiente paso? ¿Despedirme de la Fundación y, por lo tanto, prohibirme trabajar en el CNIO? ¿Quizás bloquear mi reingreso en el CSIC, del que soy profesor de Investigación? A partir de ahora, aquellos que critiquen a un ministro/a, ¿quedarán fuera del sistema? ¿Volveremos a la época de los intelectuales represaliados? Sin duda, son preguntas interesantes. Pero yo estoy mucho más interesado en que alguien me responda a otra pregunta. ¿Por qué impide la ministra Garmendia que se intenten generar fármacos contra el cáncer en el CNIO? Creo que todo aquel que esté interesado en el tema del cáncer se merece una explicación, y una explicación que nos convenza a todos.

Fuente: elpais.com, 10-5-11

-Un nuevo sensor detecta la presencia de proteínas infecciosas en la sangre

Detectar la presencia de proteínas infecciosas llamadas priones en la sangre antes de los primeros síntomas. Esta es la principal aplicación de un nuevo sensor óptico desarrollado por un equipo de científicos españoles y estadounidenses. El sistema, basado en una estructura cristalina de nanopartículas de oro, supone un avance en la detección precoz de enfermedades como la de las vacas locas o la de Creutzfeldt-Jakob en humanos. Los resultados del trabajo aparecen publicados en Proceedings de la Academia Nacional de Estados Unidos (PNAS).

Los “padres” de este método han conseguido diseñar un supercristal capaz de actuar como una “nanoantena” y que identifica la “huella dactilar” de una molécula. El sensor detecta la presencia de hasta 10 priones (proteínas infecciosas que tienen alterada su estructura secundaria) por cada litro de sangre.

“El método consiste en sumergir este supercristal con el sensor óptico en una muestra de plasma o sangre centrifugada. El sensor, que genera un campo eléctrico extremadamente alto en la superficie del cristal, hace que la señal que rebota en los priones la obtengamos de forma ampliada. Así es fácil cuantificar su presencia”, explica el principal autor del estudio, Ramón Álvarez, que trabaja en una unidad asociada del Consejo Superior de Investigaciones Científicas (CSIC) en la Universidad de Vigo.

Entre las aplicaciones directas del nuevo sensor, los científicos destacan el análisis “eficiente y regular” del ganado bovino y ovino, vulnerable a enfermedades de origen priónico. “Hoy se sabe que el Alzheimer o el Parkinson comparten también este origen, así que podrían diseñarse sistemas de diagnosis temprana para estas enfermedades. Otra utilidad sería detectar trazas de priones en los bancos de sangre”, señala Álvarez.

Fuente: química.es, 9-5-11

 

Imagen de microscopio del supercristal de nanovarillas de oro emitiendo la señal vibracional sobre los priones.

 

 

-Merkel confirma el final de la era atómica

"Una cosa sí puedo asegurar: antes de la pausa estival habrán concluido los procedimientos parlamentarios legales para un cambio rápido a las renovables". Con estas declaraciones al periódico regional Ruhr Nachrichten, Ángela Merkel anunciaba así su intención de convocar una consulta en el Bundestag para poner fin a la energía atómica antes del verano. Se confirman así los rumores iniciados hace una semana: el objetivo de la canciller es acelerar el calendario para desconectar las plantas aún en funcionamiento, y echar así por tierra la ley que ella misma impulsó en septiembre de 2010 para prolongar el uso de la energía nuclear 14 años de media.

El nuevo plan se aprobaría a mediados de junio, fecha en que expira la moratoria provisional que puso Merkel sobre la mesa, a raíz de la presión ciudadana que desencadenó la crisis de Fukushima, para detener durante tres meses los reactores más antiguos. El nuevo concepto energético que fragua la canciller no sólo implica una rectificación de la ley nuclear, sino que además abrirá "las vías legales necesarias para el desarrollo de las energías alternativas", incluido aumentar la eficiencia energética y el saneamiento de los edificios para proteger el clima.

De valedora a detractora

El radical cambio de opinión de Merkel, hasta hace unos meses abanderada de la energía nuclear, sólo se explica como ella misma ha dicho en las consecuencias del desastre de Japón y el temor que ello desató entre los ciudadanos. "Se trata de un gran proyecto de futuro para nuestro país y espero que se lleve adelante sobre una amplia base social"; así argumenta ahora el viraje energético alemán la líder cristianodemócrata, que confía en contar con el respaldo detodos los partidos.

 

La canciller alemana divisa un parque eólico ubicado en el mar Báltico, el pasado 2 de mayo.-AFP

 

No obstante, no apuesta aún por una fecha definitiva para apagar las 17 centrales del país. "No puedo descartar que determinados y definidos contingentes energéticos desempeñen un papel en nuestro concepto", apuntó Merkel, que en un comienzo deberá apostar por las energías fósiles. No en vano, amén de las pérdidas millonarias que registrarán los grandes consorcios energéticos con el apagón (y por las que ya planean demandar al Gobierno), el otro gran problema es que alrededor de un 21% de la energía que se consume aún es atómica.

Fuente: publico.es, 8-5-11

 

 

-Las especies del mar profundo colonizan las costas de la Antártida

Las especies de las profundidades marinas están subiendo a la superficie y colonizando la plataformacontinental antártica. Este ecosistema, que había permanecido estable bajo una capa dehielo durante los últimos mil años, está quedando al descubierto tras el colapso de más de 10.000 km² de hielo en los últimos 15 años. Lo peor es que la tendencia y velocidad del deshielo no parece haber aminorado.

Estas son algunas de las conclusiones a las que ha llegado un equipo internacional de investigadores, entre ellos científicos del Consejo Superior de Investigaciones Científicas (CSIC), que durante 70 días han estudiado los efectos del cambio climático en la Antártida."Hasta hace cinco años, cuando el proyecto CLIMANT, en el que se engloba esta expedición, visitó por primera vez las bahías Larsen A y B (en la costa oriental de la península Antártica), se pensaba que los procesos de recolonización de la plataforma continental eran muy lentos. En aquella ocasión los resultados abrieron nuevos interrogantes acerca de la velocidad de recuperación deesas zonas", explica el investigador del CSIC Enrique Isla, del Instituto de Ciencias del Mar, que ha participado en la expedición al continente helado.

Sin embargo, este año, los investigadores han observado que la recuperación de los fondos marinos varía en función de las diferentes regiones. "Aparentemente, la plataforma continental antártica en la zona de las bahías Larsen, en el sector occidental de Weddell, se está recolonizando a mayor velocidad que la alta Antártida", continúa Isla.

Gracias a las imágenes tomadas por un vehículo submarino ROV (Remoted OperatedVehicle), controlado desde el rompehielos alemán Polarstern, los investigadores han podido constatar que la fauna existente a 300 metros de profundidad ha sufrido importantes cambios en los últimos cuatro años. "Entre otros fenómenos, hallamos más esponjas que las que habíamos visto anteriormente, y entre las nuevas vimos varias especies que habitualmente se encuentran en zonas más profundas", añade. Para los investigadores, estos resultados refuerzan la hipótesis de que, como ocurrió en los periodos interglaciares, las especies de mar profundo están colonizando laplataforma continental", apunta Isla.

Proceso de deshielo

Otra de las conclusiones de la expedición es el derretimiento de la plataforma de hielo que divide las bahías Larsen, así como la probable existencia bajo ella de una conexión entre ambas zonas a 230 metros de profundidad. Según los expertos, esto explicaría el hecho de que las comunidades bentónicas, los organismos propios de los fondos marinos, encontradas en las dos bahías presenten composiciones similares. "Hemos regresado con miles de muestras de animales y sedimentos que nosmantendrán ocupados en el laboratorio durante el próximo año, pero estamos muyentusiasmados porque los resultados nos proporcionarán información muy valiosa acerca de cómo estamos transformando el lugar del mundo menos alterado por elhombre", concluye Isla.

Fuente: publico.es, 7-5-11

 

-Una nueva central nuclear en Japón en cuarentena

El primer ministro japonés, Naoto Kan, ha pedido a la empresa operadora de la planta nuclear de Hamaoka, al suroeste de Tokio, que paralice todas sus operaciones por seguridad, según la agencia local Kyodo.

La planta de Hamaoka, operada por Chubu Electric, se encuentra en la costa del Pacífico en Tokai, un área donde confluyen tres placas tectónicas y donde se teme que pueda producirse un terremoto de hasta 8 grados de magnitud en la escala de Richter. Kan cree que todos los reactores de la planta deberían pararse hasta que haya medidas suficientes para afrontar un tsunami o terremoto, según los medios locales. A consecuencia de la exigencia del primer ministro japonés, Chubu Electric, tercera eléctrica de Japón, paralizará los dos reactores nucleares que están activos en esa central y actualmente producen 2.500 megavatios de electricidad, según Kyodo.

"Esta es una decisión tomada después de reflexionar sobre la seguridad de la gente", dijo el jefe de Gobierno japonés, que previamente reconoció que la respuesta de su Gabinete a la catástrofe del 11 de marzo fue "inadecuada en varios aspectos".

La planta nuclear de Hamaoka estará paralizada hasta que se tomen las medidas de seguridad necesarias, apuntó en rueda de prensa Kan, que no ofreció una fecha para la reanudación de sus operaciones. La decisión del primer ministro se produce cuando Japón vive una persistente crisis nuclear al no haber podido controlar la situación en la planta de Fukushima, cuyos reactores se quedaron sin sistema de refrigeración por el terremoto de 9 grados Richter y tsunami del pasado 11 de marzo.

 

Central nuclear de Hamaoka.| Reuters

 

 En el complejo nuclear de Hamaoka están en este momento operativos los reactores 4 y 5, mientras las unidades 1 y 2 han sido desmanteladas.

La operadora Chubu Electric había anunciado además su intención de retomar las operaciones en el reactor 3 una vez se realizasen las inspecciones previstas para el mes de julio. El Gobierno ya había pedido a la compañía operadora que revisase los sistemas de seguridad de la planta en el eco de la grave crisis nuclear que vive Japón y por considerar que no eran suficientes para afrontar un terremoto de elevada magnitud. Hoy el Ejecutivo indicó que se tratarán de paliar los posibles problemas de suministro eléctrico derivados de la paralización de Hamaoka.

El Ministerio japonés de Ciencia calcula que hay un 37% de probabilidades que la zona donde se encuentra esa planta nuclear sufra en los próximos treinta años un seísmo de 8 grados de magnitud en la escala abierta de Richter.

Desde el 11 de marzo cuatro centrales nucleares están no operativas desde que entraron en parada automática por el fuerte terremoto, lo que ha provocado una disminución en el suministro eléctrico en Japón.

Según la agencia Kyodo, un reactor de otra planta nuclear, la de Tsuruga (centro de Japón), será parado mañana sábado manualmente al detectarse filtraciones de materiales radiactivos.

Las autoridades de la provincia japonesa de Fukui, donde se encuentra Tsuruga, sospechan de fugas procedentes de barras de combustible nuclear del reactor 2 de esa central, aunque en niveles no excesivos.

Fuente: elmundo.es, 6-5-11

 

-Un gen provoca un nuevo tipo de "vejez" precoz

Un equipo de investigadores dirigido por el catedrático de Bioquímica y Biología Molecular de la Universidad de Oviedo, Carlos López-Otín, ha identificado una nueva forma de una enfermedad ya conocida la progeria que causa el envejecimiento prematuro acelerado de sus afectados y que está asociada a un gen "no descrito hasta ahora como responsable de ninguna patología", según explicó el científico en conversación telefónica.

El investigador español Carlos López-Otín. EFE

 

Tras el hallazgo, publicado hoy en American Journal of Human Genetics, se esconde una historia de compromiso personal de los autores con la enfermedad, para cuya forma más grave la de Hutchinson-Gilford diseñaron un prototipo de cura, que está siendo estudiado en EEUU, Italia y Francia, tras la publicación en 2008 de resultados exitosos en ratones en Nature Medicine.

Según explica López-Otín, fue precisamente el eco que tuvo aquella investigación lo que ha permitido la identificación de la nueva forma de progeria. "Cuando publicamos aquel trabajo, algunos pacientes se acercaron a nosotros para participar en el ensayo clínico; nosotros se lo facilitábamos, a pesar de que no lo dirigíamos, si tenían mutados los dos genes asociados a la enfermedad", explica el científico.

Un día se puso en contacto con él un posible afectado que, sin embargo, no presentaba los genes mutados. Además, la forma clínica de la patología era distinta, con más problemas óseos y menos cardiovasculares. "Había superado la expectativa de vida media de estos pacientes, de 15 años", apunta el catedrático. "En aquel momento no pudimos ofrecerles nada, pero nos comprometimos a que cuando se desarrollaran tecnologías que permitieran la secuenciación genómica más rápida y barata nos pondríamos en contacto con ellos", relata López-Otín.

Meses después, su equipo fue uno de los elegidos para contribuir al Consorcio Internacional del Genoma del Cáncer, lo que les hizo dotarse de dicha tecnología. Con ella, estudiaron al pacientey a un segundo que le abordó en una conferencia en Madrid y descubrieron que su patología era una forma única de progeria, asociada al gen BANF1. Aunque esto no supondrá un beneficio para los pacientes, sí lo será para sus familias, que podrán saber quién heredará la dolencia y beneficiarse del consejo genético a la hora de tener descendencia.

Fuente: publico.es, 6-5-11

 

 

-Un cráneo revela al "abuelo" de sapiens y neandertales

Uno de los mayores retos de la paleoantropología es encontrar al abuelo que compartieron humanos modernos y neandertales, identificar el ancestro común más cercano del Homo sapiens y el Homo neanderthalensis. Un linaje que podría llevar a ambas especies hasta una pequeña localidad al sur de Roma, Ceprano, donde en 1994 se encontró la parte superior del cráneo de un individuo adulto, entonces el resto europeo más antiguo recuperado hasta la fecha.

Ahora, un grupo de investigadores de la Universidad de Roma y de la Unidad de Antropología Biocultural de la Universidad del Mediterráneo (Marsella, Francia) asegura que las características de ese cráneo lo emparentan tanto con sapiens como con neandertales.

Según el trabajo de estos investigadores, que ha publicado la revista PLoS ONE, el cráneo de Ceprano tendría en torno a 400.000 años y no los más de 800.000 años que se le llegaron a asignar inicialmente. Además, a partir de un detallado análisis comparativo junto con otros ejemplares pertenecientes al género Homo, el grupo francoitaliano ha optado por clasificar este cráneo dentro de la especie Homo heidelbergensis.

Hasta ahora, se había especulado largamente con la catalogación de este cráneo, muy difícil de atribuir. Distintos equipos lo han datado con fechas dispares, y una de las últimas investigaciones lo ubicaba como Homo antecessor, el Hombre de Atapuerca. Tal es la confusión que rodea al cráneo romano que se llegó a hablar de Homo cepranensis, definiendo a este hominino como perteneciente a una especie propia diferente a todas las demás.

Sin embargo, según el grupo de Aurélien Mounier y Giorgio Manzi, este robusto cráneo sin mandíbula pertenece a los heidelbergensis, una especie muy controvertida por la cantidad de fósiles con características muy dispares hallados por medio mundo.

El problema es el nombre

Es precisamente esta catalogación la que le chirría al codirector de las excavaciones de Atapuerca, José María Bermúdez de Castro. "La idea que propone este trabajo es muy interesante, no es para nada descabellada. El problema es el nombre, que no termina de convencer", afirma Bermúdez de Castro, que sin embargo no duda de la teoría de que el fósil italiano sea ancestro común de sapiens y neandertales.

"Parece que una maldición persigue a este pobre cráneo. El problema es que es muy difícil de datar, ya que se encontró en una cuneta, fuera de su contexto", lamenta el codirector de Atapuerca , que la semana pasada presentó los resultados de un estudio que dejan en el limbo de las especies al primer europeo, una mandíbula de 1,2 millones de años que originalmente se catalogó como antecessor. Bermúdez de Castro considera que el trabajo publicado en PLoS ONEva en la misma línea que el suyo: "Estos hallazgos nos están obligando a reinterpretar el escenario de las especies".

Fuente: publico.es, 5-5-11

-La supernova que engalanó el nacimiento de un rey

La espectacular supernova Casiopea A fue la 'estrella' que se hizo visible a pleno día en el nacimiento del rey británico Carlos II, el Monarca Alegre. Esto es lo que concluye, aunque de manera tentativa, un estudio presentado en la reunión reciente de la Royal Astronomical Society, tratando de resolver un misterio que ha intrigado a los astrónomos durante largo tiempo. Se sospechaba que tal supernova debió hacerse visible en el s. XVII, pero hasta ahora no se ha conseguido asociar ningún fenómeno astronómico de la época con aquella explosión cósmica.

Una estrella señaló el nacimiento del rey

El 29 de mayo de 1630 es una fecha bien conocida por los historiadores: se trata del día del nacimiento de Carlos II de Inglaterra, un monarca que reinó desde 1660 hasta su muerte en 1685. Durante este reinado se desarrollaron el partido liberal y el conservador (Whig y Tory) que, aunque considerablemente transformados, todavía dominan la escena política británica.

Carlos II también es conocido por su elevado número de hijos ilegítimos (de los que llegó a reconocer a catorce), lo que le hizo merecer el título de 'el Alegre Monarca'.

Según las crónicas, el día del nacimiento del rey estuvo ornamentado con la aparición de una estrella tan brillante que resultaba visible en pleno día. Esta estrella fue referida por diferentes fuentes históricas durante unos 30 años y su aparición fue utilizada por los historiadores reales como un importante elemento de propaganda.

¿Fue esa estrella Cas A?

El astrónomo británico Martin Lunn y la historiadora estadounidense Lila Rakoczy proponen ahora que la estrella que figura en las crónicas históricas de la casa real inglesa corresponde a la explosión de la supernova que dio lugar a Cas A. Lunn y Rakoczy han presentado su estudio en la reunión de la prestigiosa Royal Astronomical Society que ha tenido lugar recientemente en Llandudno, Gales.

Aunque la propuesta resulta muy sugerente, quedan muchos cabos por atar. Cas A es un astro circumpolar, es decir, resulta visible durante todo el año desde Europa. En el s. XVII había numerosos astrónomos (¡y astrólogos!) observando el cielo y resultaría extremadamente sospechoso que ninguno de ellos refiriese en sus observaciones un acontecimiento astronómico de este calibre.

'Casiopea A' observada desde el espacio en el infrarrojo, visible y rayos X | NASA/ESA, SST, JPL-Caltech, Krause et al.

Por otra parte, las predicciones realizadas por los astrónomos actuales sitúan la explosión de la supernova en la segunda mitad del s. XVII, más concretamente hacia 1670. Una diferencia de 40 años con la aparición de la estrella en el nacimiento de Carlos II que no resulta fácilmente explicable.

En resumen, la propuesta de Lunn y Rakoczy no puede ser considerada aún como la solución definitiva al enigma de Cas A. Descartarla o confirmarla requiere de una investigación más exhaustiva, investigación que siendo realizada por astrónomos e historiadores en colaboración estrecha pronto nos ofrecerá una respuesta definitiva.

 

También es interesante

  • El primer astrónomo real, John Flamsteed, anotó en su diario de observaciones la aparición de una estrella en Casiopea el 16 de agosto de 1680. En 1980, el británico W.B. Ashworth propuso que tal estrella pudo corresponderse con Cas A, pero un estudio más detallado muestra una importante discrepancia entre las posiciones de ambos objetos.


     

  • Las dos explosiones de supernovas que se divisaron en 1572 y en 1604 fueron descritas en detalle, respectivamente, por los grandes astrónomos Tycho Brahe y Johannes Kepler. Resulta por ello sorprendente que la explosión de Cas A no haya encontrado eco en las observaciones de los astrónomos de la época. Las supernovas de Tycho y de Kepler presentan hoy una estructura en forma de burbuja muy similar a la de Cas A.


     

  • La Nebulosa del Cangrejo se asocia con una explosión de supernova que fue referida por astrónomos chinos el 4 de julio de 1054. La supernova fue tan brillante que permaneció visible en pleno día durante tres semanas. Sin embargo, esta supernova tampoco aparece en las crónicas de los astrónomos europeos y árabes de la época. ¿Quizás hubo mal tiempo generalizado por esta parte del mundo?

Fuente: elmundo.es, 4-5-11

-Río Tinto, el Marte español

El astronauta realiza un paseo en el rover 'Eurobot'. | Agencia Espacial Europea.

 

Marte sigue siendo un gran desconocido para el hombre aunque los robots enviados al planeta rojo nos han dado ya algunas pistas sobre cómo es su superficie. Sabemos que algunas zonas de la Tierra, como la cuenca minera de Río Tinto (Huelva), guardan cierto parecido con Marte. Los científicos las denominan 'análogos marcianos' y son utilizadas para probar los equipos que están siendo diseñados para futuras misiones.

Precisamente Río Tinto (Huelva) ha sido el lugar elegido por la Agencia Espacial Europea (ESA) para organizar a finales de abril la primera expedición europea en la que se ha probado tecnología para viajar a Marte. Durante una semana, se realizaron ensayos con el vehículo robótico 'Eurobot'. Además, el astronauta probó un nuevo traje y un nuevo equipo médico que monitoriza su estado de salud. El proyecto, ha sido coordinado por el Centro de Astrobiología (CAB) y el Foro Austriaco del Espacio.

"Río Tinto es un análogo casi perfecto para probar tecnología y para simular las rocas que hay en Marte. Además, está muy cerca de una zona habitada, lo que facilita la organización de las expediciones", explica a ELMUNDO.es Felipe Gómez, investigador especializado en ambientes extremos del CAB y coordinador del proyecto Europlanet. "Para poder hacer perforaciones en Marte es necesario probar la tecnología en la Tierra y Río Tinto es un gran lugar para hacerlo".

Proyecto Europlanet

"A través del proyecto Europlanet, que comenzó en 2009, se coordinan las visitas de los investigadores a la zona, como la que hicimos hace unos días a Río Tinto. Nuestro objetivo es intentar organizar las ciencias planetarias en Europa". Y es que aunque en el Viejo Continente hay muchos especialistas en este área, la falta de organización les impide a menudo ser competitivos, sobre todo en comparación con EEUU.

Nos encontramos en el laboratorio de extremofilia del Centro de Astrobiología de Madrid. "Aquí creamos ambientes extremos, es decir, ambientes que no son habituales desde el punto de vista humano. Por ejemplo, Río Tinto tiene 100 kilómetros de longitud y un pH muy ácido, de 2 (en una escala que va del 1 al 14). Es ácido sulfúrico. Pero en algunos puntos hay incluso menos, llegando a alcanzar 0,8 (ácido sulfúrico concentrado)", explica Gómez. Para hacerse una idea de la acidez de estas aguas, el pH neutro, como el del agua, es 7, y el de la piel humana oscila entre 4,5 y 5,9. Río Tinto está cargado de metales. Aunque está presente toda la tabla periódica, hay varios metales que son más abundantes, como el hierro (precisamente su color rojo característico es por el hierro en estado oxidado, férrico).

Origen natural

Durante muchos años se pensó que estas características del río se debían a la contaminación de la explotación minera. A finales del siglo XIX, los británicos fundaron la empresa minera Río Tinto Mine Company, que fue explotada durante décadas. Posteriormente fue gestionada por los propios trabajadores aunque terminó siendo cerrada. En la actualidad hay posibilidades de que sea reabierta, ya que el cobre vuelve a ser rentable.

Un grupo de científicos investigó en la zona y concluyó que, aunque la mina tuvo una actividad impactante, la composición de Río Tinto es fundamentalmente natural. Allí viven unos microorganismos llamados quimiolitotrofos (literalmente 'comepiedras), que no necesitan materia orgánica. Pueden crecer oxidando minerales, es decir, materia inorgánica. Según explica Gómez, básicamente oxidan pirita, que es un sulfuro de hierro. Precisamente en el subsuelo de Río Tinto hay una de las fosas de pirita más importantes del mundo y la más grande de Europa. Los quimiolitotrofos oxidan el azufre y el hierro de la pirita a sulfato (ácido sulfúrico) y a férrico, que son los dos elementos fundamentales que hay en el río.

"Realmente es ese metabolismo de los quimiolitotrofos los que originan el ambiente de Río Tinto", asegura el investigador. Y es que los científicos han podido demostrar que antes de que el hombre explotara esta rica zona minera de la que se ha extraído abundante cobre, oro, plata y hierro, la cuenca minera tenía unas características muy particulares.

Interés de la NASA

Sin embargo, Río Tinto se ganó hace pocos años su fama internacional. El robot Opportunity de la NASA encontró en Marte un mineral denominado jarosita. Se trata de un sulfato de hierro, potasio y sodio que sólo se sintetiza si hay agua (debe ser agua ácida y cargada de metales). El hecho de que Río Tinto fuera muy rico en jarosita despertó la atención de los científicos de la NASA, que comenzaron a desarrollar proyectos de investigación en esta zona.

Las aguas del río tienen una química muy compleja y a pesar de que es un ambiente extremo, en ellas viven representantes de todas las ramas del árbol de la vida: "Se pensaba que era un río sin vida pero hay una diversidad tremenda", explica Felipe Gómez. Se han encontrado bacterias, más de mil hongos, etc. Lo que no hay son peces. Hay animales pero son unicelulares o pluricelulares: "Tiene un pH muy ácido y teóricamente en este tipo de ambientes hay poca diversidad".

Asimismo, a pocos centímetros de profundidad no hay oxígeno y las bacterias que se desarrollan tienen la capacidad de respirar férrico. Por eso, el color cambia en esa zona y es azulado o transparente.

Existen otros análogos marcianos en Europa y el norte de África. En el norte de Túnez, en Rusia, en Noruega, en Marruecos. En España hay también una laguna salina. La laguna de Tirez, situada en localidad de Villacañas (Toledo) también se considera análogo marciano pero no ha sido tan estudiada como Río Tinto, que ya está consolidado internacionalmente.

Un 'rover' marciano en Río Tinto

A pesar de que la lluvia y el viento interrumpieron en varias ocasiones la expedición de la Agencia Espacial Europea, que se llevó a cabo durante la semana del 15 al 22 de abril, se pudieron realizar con éxito la mayor parte de los ensayos previstos y recopilar abundante información que está siendo analizada por médicos, ingenieros y científicos.

El vehículo 'Eurobot' de la ESA tiene cuatro ruedas y está diseñado para transportar a un astronauta, que puede dirigirlo mediante un mando de control o con la voz. Cuenta con sus propios ojos, sensores y un par de brazos en los que se pueden instalar herramientas intercambiables.

El astronauta probó también un nuevo traje espacial, denominado Aouda.X y desarrollado por el Foro Espacial Austriaco. El pesado traje (de más diez kilos) cuenta con una pantalla integrada en el visor. Aunque simula la rigidez que tendría en un ambiente extraterrestre, el traje que llevarán los astronautas será seguramente más pesado. El astronauta puede beber y comer sin necesidad de quitarse el traje pues está diseñado para llevarlo durante largos periodos de tiempo. Ponérselo tampoco es una tarea sencilla. El astronauta tardaba alrededor de tres horas cada día en vestirse.

Durante esta semana también se probó la última versión del Sistema de Monitorización Médica a Largo Plazo de la ESA (LTMS, en sus siglas en inglés), un dispositivo colocado en un chaleco interior que es capaz de medir en todo momento las constantes vitales y varios parámetros fisiológicos del astronauta.

Para Bruno Gardini, principal consejero del director de misiones espaciales tripuladas de la ESA, el balance de esta expedición ha sido muy positiva. El experto de la Agencia Espacial Europea señala, sin embargo, que aún estamos lejos de poder tener lista la tecnología necesaria para emprender un viaje al planeta rojo. En conversación telefónica con ELMUNDO.es, Gardini explica que los principales obstáculos serán minimizar los efectos de la ausencia de gravedad en la salud de los astronautas y crear un material que los proteja de la radiación de tipo ionizante que sufrirán durante el vuelo. También habrá que transportar un pequeño reactor nuclear capaz de resistir el vuelo. Yo diría que para viajar a Marte harán falta, al menos, 30 o 40 años. Quizás más".

Fuente: elmundo.es, 3-5-11

 

-Hacia la detección precoz del alzhéimer

Todavía no está claro que diagnosticar precozmente el alzhéimer sirva para frenarlo, pero ese es el objetivo de los investigadores. Con motivo del año internacional contra la enfermedad, la Fundación Reina Sofía ha financiado, junto a GE Healthcare y la Fundación Eulen, un proyecto, desarrollado por el Grupo de Demencia de la Comunidad de Madrid (Demcam), que trata de avanzar en la fiabilidad del diagnóstico precoz a través de la resonancia magnética.

"Se han realizado estudios, mediante esta técnica, en 170 pacientes de diferentes unidades de demencia y las imágenes se han obtenido en menor tiempo, con más definición y mejor contraste, repercutiendo en una mejora en la fiabilidad del diagnóstico. La aplicación de esta tecnología ha permitido desarrollar un programa automático capaz de evaluar el riesgo individual de pertenecer al grupo de personas cognitivamente sanas, pacientes con deterioro cognitivo leve y enfermos de alzhéimer, con un nivel de acierto de entre el 90% y el 95%", señala la Fundación Reina Sofía en una nota.

El estudio está dirigido por el doctor Juan Álvarez Linera, de la Fundación Centro de Investigación de Enfermedades Neurológicas (CIEN), y la doctora Ana Frank, del Hospital La Paz.

Fuente: elpais.com, 2-5-11

-Mapa 3D del universo remoto

La luz emitida por 14.000 quasares, galaxias situadas a miles de millones de años luz de distancia con agujeros en sus centros, ha sido utilizada por unos científicos del proyecto Sloan Sky Digital Survey (EEUU) para trazar el mapa más completo hasta ahora, en tres dimensiones, del universo de hace unos 11.000 millones de años, cuando era muy joven. El mapa es un éxito de su estrategia de observación y no ha hecho más que empezar, puesto que piensan seguir tomando datos hasta 2014 y extender su cartografía celeste con observaciones de 140.000 quasares. Pero la investigación es mucho más ambiciosa: pretende averiguar como ha cambiado la tasa de expansión del universo a lo largo del tiempo y así ayudar a aclarar algo acerca de la misteriosa energía oscura, lo que se considera el descubrimiento cosmológico más inesperado y desafiante de los últimos 20 años.

"Los quasares son los objetos más brillantes del universo y nosotros los utilizamos como focos de fondo muy apropiados para iluminar el hidrógeno gaseoso que llena el cosmos entre ellos y nosotros", ha explicado Anze Slosar en una reunión de la Sociedad Americana de Física donde se han presentado estos resultados el pasado fin de semana. "Podemos ver las sombras [de los quasares] y detalles en ellas, lo que nos permite ver cómo ese gas está agrupado a lo largo de nuestra línea de visión", continúa.

Presentación bidimensional del mapa BOSS del universo en 3-D en el que los puntos negros corresponden a galaxias relativamente cercanas y en el exterior se representa el hidrógeno intergaláctico a unos 10.000 millones de años luz (las regiones coloreadas en rojo tienen más hidrógeno y las azules, menos).- ANZE SLOSAR / BOSS LYMAN-ALPHA COSMOLOGY WORKING GROUP

 

 "Lo sorprendente es que con esto podemos ver el universo muy lejano donde es difícil medir las posiciones de muchas galaxias individuales". Es algo así como observar la Luna entre nubes de manera que puedes ver las formas de éstas últimas precisamente por la luz lunar que bloquean.Las observaciones de estos científicos son el primer intento, explican los especialistas del Laboratorio Nacional Lawrence Berkeley (EE UU), de utilizar las llamadas oscilaciones acústicas bariónicas (BAO, en sus siglas en inglés) como instrumento de precisión para medir la energía oscura. Hasta ahora, los mapas tridimensionales hechos con esas oscilaciones se basaban en la distribución de galaxias visibles, mientras que los científicos de este proyecto, denominado BOSS (Rastreo de Oscilaciones Acústicas Bariónicas), lo hacen por primera vez también con el hidrógeno utilizando los quásares. Ellos han presentado sus resultados en un artículo que está disponible en internet.

 

Mapa del universo distante del proyecto BOSS en el que los puntos azulados brillantes son los quásares utilizados para medir el hidrógeno gaseoso intergaláctico.- SLOAN DIGITAL SKY SURVEY

 

Los 14.000 primeros quásares y el mapa confeccionado demuestran que es posible determinar las variaciones en la densidad del hidrógeno intergaláctico a distancias cosmológicas y, por tanto, medir los efectos de la energía oscura a dichas distancias. Se ha llamado energía oscura a un inexplicado fenómeno por el cual la expansión del cosmos se está acelerando, como si estuviera actuando en el universo una fuerza repulsiva, una especie de atracción gravitatoria de signo opuesto. Los científicos aún no saben explicar por qué, pero este fenómeno se ha convertido en el reto de moda en cosmología y varios equipos internacionales compiten para diseñar y poner en práctica estrategias de observación que permita descifrarlo.

La cuestión, de momento, es averiguar si la tasa de expansión a partir del Big Bang ha cambiado a lo largo de la historia del universo o se ha mantenido constante y para esto es muy útil el nuevo mapa del cosmos profundo. "Nadie tiene ni remota idea acerca de qué es la energía oscura, y nosotros lo estudiamos estudiando por la historia de la expansión y el crecimiento de las estructuras del universo, para lo cual hacemos estos mapas del cosmos en diferentes épocas", añade Slosar.

En el proyecto Boss los científicos se centran en diferentes tipos de estrategias de medición en el cielo, de manera que cubren, por un lado, distancias de 2.000 a 6.000 millones de años luz (con métodos estándar bien calibrados) y por otro, con los quásares, distancias de 10.000 a 11.000 millones de años luz. En realidad, los científicos se centran, en las llamas lineas Lyman-alpha del hidrógeno en el espectro de la luz de los quásares captada, lo que permite localizar con precisión las nubes de gas interpuestas en la línea de visión.

"Cuando terminemos el proyecto BOSS, habremos sido capaces de medir cómo de rápido se estaba expandiendo el universo hace 11.000 millones de años con una precisión de aproximadamente un 2%", ha dicho Patrick McDonald, pionero de la técnica de medición de distancias cósmicas utilizada. Con las observaciones de 160.000 quásares, en 2014, estos físicos obtendrán un mapa del universo distante diez veces mayor que el ahora presentado.

Fuente: elpais.com, 2-5-11

 

-La NASA pospone de nuevo el lanzamiento del "Endeavour"

La NASA ha vuelto a posponer el lanzamiento del transbordador espacial Endeavour, que no partirá mañana como esperaba la agencia cuando aplazó el despegue el viernes, y no fijó una nueva fecha para la operación.

"Los administradores de la NASA han decidido que no es posible lanzar el transbordador especial el lunes, que había sido la fecha de despegue más temprana posible después de posponerse el lanzamiento el viernes", dijo la agencia en su cuenta oficial de Twitter.

El pasado viernes, la agencia espacial estadounidense decidió aplazar el lanzamiento del transbordador por un problema técnico. Según el director del lanzamiento, Mike Leinbach, hubo un fallo con dos calentadores de la unidad de potencia auxiliar (APU).

Los errores se detectaron a última hora durante los procedimientos de mantenimiento antes del vuelo y aunque hicieron varias maniobras para repararlos, no fue posible. La pieza es fundamental para los sistemas de control y aterrizaje de la nave. Leinbach aseguró que no podían arriesgarse a que el transbordador saliese con una o dos unidades porque "si se pierde uno de los que están bien", se corre "un alto riesto de que la unidad se congela y no funcione". "No volaremos hasta que esté preparado", aseguró entonces Leinbach.

Pese al retraso, cuando el 'Endeavour' despegue lo hará para completar su última misión en el espacio

 

El transbordador espacial Endeavour.-AFP

 

Fuente: elmundo.es, 1-5-11