Inicio

 

Ya puedes DESCARGAR todos nuestros PROGRAMAS DE RADIO "EL ALEPH" en la Sección NOSOTROS-PROGRAMACIÓN--

 

NOTICIAS CIENTÍFICAS


FEBRERO 2010

TITULARES DE LAS NOTICIAS DEL MES

 

La basura, el nuevo combustible de California

¿Qué es un tsunami?

Hordas de estrellas alienígenas invaden nuestra galaxia

Identificadas unas moléculas que impiden que se desarrolle el SIDA

Schank "El e-learning es la misma basura pero en diferente sitio"

Los oncólogos afirman que el abordaje del dolor es una "catástrofe"

Descubierta una nueva especie de dinosaurio

Una imagen violenta revela la violenta historia de una luna de Saturno

El mayor "cazameteoritos" de España

Viajar a velocidad luz nos mataría en pocos segundos

Los efectos de la vacuna contra el SIDA se desvanecen en un año

5000 nuevas especies en el abismo

Píldora inteligente: chequeo y cirugía desde el interior del organismo

"Las matemáticas dan una cosilla... como un subidón"

¿Es esta la primera partícula de la materia oscura?

"Encaramos el gran reto de la ingeniería"

Buscando el origen de "Fobos"

Las claves genéticas de la "cuna" de la humanidad

La falta de reconocimiento aleja a los científicos de la divulgación

Olas lejanas que rompen en el Atlántico

La diversidad química del cosmos en un meteorito

Tutankamon y su extraña familia

Cambio climático, IPCC . ¿Qué pasa?

Crean en el laboratorio las condiciones posteriores del Bing-Bang

Así actúa  un agujero negro

Descubren el "arma secreta" de las células cancerígenas contra la quimioterapia

Matemáticos y periodistas

El nivel del mar puede aumentar dos metros por siglo

Viaje a las auroras de Saturno

Primeras imágenes de una "estrella vampiro" en acción

En busca de organismos sintéticos inmortales

Un extraño pez gigante filmado por primera vez en su entorno natural

Resaca por la pandemia de la gripe A

Identificadas las primeras variantes genéticas relacionadas con el envejecimiento

¿Fue Brahe asesinado?

Aprender con YouTube

El Gobierno indio y la Comisión europea apoyan a Pachauri

El tumultuoso nacimiento de las galaxias espirales

Las huellas más antiguas del mundo

El nido estelar gigante más próximo al sol

Las 12 caras de Plutón

Salvemos la libertad científica

Astronautas de la NASA SA

Resuelven el enigma de cómo las células viejas dan lugar a nuevas

Cae el dogma: Nuevas respuestas a viejas cuestiones

Una investigadora revela que Cristobal Colón era hijo de la aragonesa Isabela de Alagón y nació en Cerdeña

El cerebro humano emplea redes para representar redes en el espacio

El transplante de sangre periférica tan eficaz como la de médula

 

Archivo


-La basura, el nuevo combustible de California

Hasta noviembre, Altamont Landfill era poco más que un montón de basura. Un enorme vertedero frente a San Francisco en el que, desde 1980, se han ido amontonando las más de 15 millones de toneladas de desperdicios producidos por la ciudad de la bahía. Sin embargo, hoy los cientos de camiones de basura que se acercan a diario a sus colinas ya no van a descargar, sino a llenar el depósito. La compañía Waste Management ha convertido Altamont Landfill en la mayor planta de tratamiento de gas metano del mundo.

A través de más de 200 pozos hundidos en las 100 hectáreas de esta minirrefinería, la compañía recoge este gas de efecto invernadero, producido por la descomposición de la basura, para transformarlo en gas natural licuado (GNL). Así se obtiene una fuente de energía con menor impacto ambiental que cualquier combustible fósil, cuyo uso podría servir para reducir las emisiones hasta en un 70%, y que además es entre un 30% y un 60% más barata que la gasolina.

El uso de gas licuado reduciría las emisiones un 70%

Desde su puesta en marcha, la estación vive un trasiego inusual. A diario, más de 500 camiones de basura, autobuses y vehículos escolares de una veintena de localidades del norte de California se acercan allí para llenar sus depósitos. El proceso es sencillo: después de extraer el metano, se licúa a -161ºC. Kenneth Lewis, director de operaciones de la planta, resume su labor: "Convertimos los basureros en centros de producción energética". La planta puede distribuir 60.000 litros de GNL al día, lo que significa ahorrar 11,3 millones de litros de diésel cada año y "evitar que 30.000 toneladas de CO2 lleguen a la atmósfera", asegura Lewis.

Un coche por habitante

El coste de la instalación, 12 millones de euros, ha sido subvencionado en parte dos millones por el estado de California, el más castigado por la contaminación del tráfico. Cerca de 32 millones de vehículos circulan por sus carreteras, casi uno por habitante.

El gobernador Arnold Schwarzenegger pretende reducir las emisiones en California un 25% para 2020. La nueva planta evitará que en los próximos cuatro años lleguen a la atmósfera 1,5 millones de toneladas de CO2. La administración ya negocia la aportación a una planta gemela a 40 kilómetros al sur de Los Ángeles, la ciudad con la mayor flota de autobuses impulsados por GNL del país, unos 2.700.

 

Carga de una cisterna en la planta de Altamont. - LINDE

 

"El GNL reduce la dependencia de los combustibles fósiles y supone un enorme beneficio ambiental para las comunidades", asegura Duane Woods, vicepresidente de Waste Management. El giro ecológico de la compañía de Houston (Texas), que lleva más de un siglo dedicada a la recogida de residuos, parece haber calado. La Agencia de Protección Ambiental de EEUU estima que casi uno de cada tres vertederos municipales del país cuenta con algún proyecto energético.

Fuente: publico.es, 28-3-10

 

 

 

 

-¿Qué es un tsunami?

Un tsunami es una ola o serie de olas que se producen en una masa de agua al ser empujada violentamente por una fuerza que la desplaza verticalmente. Terremotos, volcanes, derrumbes costeros o subterráneos e incluso explosiones de gran magnitud pueden generar este fenómeno.

El brusco movimiento del agua desde la profundidad genera un efecto de 'latigazo' hacia la superficie que es capaz de lograr olas de magnitud impensable. Teniendo en cuenta que la profundidad habitual del Océano Pacífico es de unos 4.000 metros, se pueden provocar olas que se mueven a 700 km/h. Y como las olas pierden su fuerza en relación inversa a su tamaño, al tener 4.000 metros puede viajar a miles de kilómetros de distancia sin perder mucha fuerza.

Sólo cuando llegan a la costa comienzan a perder velocidad, al disminuir la profundidad del océano. La altura de las olas, sin embargo, puede incrementarse hasta superar los 30 metros (lo habitual es una altura de seis o siete metros).

La causa más frecuente para la formación de olas gigantes son los terremotos ocurridos en el fondo marino. Cuando éste se mueve violentamente en sentido vertical, el océano ve alterado su equilibrio natural. Cuando la inmensa masa de agua trata de recuperar su equilibrio, se generan las olas gigantescas.

Su tamaño dependerá de la magnitud del seísmo y de la deformación vertical del fondo marino. No todos los terremotos generan tsunamis, sino sólo aquellos de magnitud considerable, que ocurren bajo el lecho marino y que son capaces de deformarlo.

Si bien cualquier océano puede experimentar un tsunami, es más frecuente que ocurran en el Océano Pacífico, donde son también más comunes los terremotos de magnitudes considerables (especialmente las costas de Chile, Perú y Japón).

Además el tipo de falla que ocurre entre las placas de Nazca y Sudamericana (donde se ha producido el seísmo que ha azotado Chile), llamada de subducción -cuando una placa se va deslizando bajo la otra- hacen más propicia la deformidad del fondo marino y, por ende, los tsunamis u olas gigantes.

Precisamente por eso los más devastadores casos de olas gigantescas han ocurrido en el Océano Pacífico, pero también se han registrado casos en el Atlántico e incluso en el Mediterráneo. Un gran tsunami acompañó los terremotos de Lisboa en 1755, el del Paso de Mona de Puerto Rico en 1918, y ee de Grand Banks de Canadá en 1929.

 

Fuente: elmundo.es, 27-3-10

 

 

 

-Terremoto en Chile  de 8,8 y en Japón de 7,3

 

Terremotos en los últimos 7 días

Hace poco Haití nos sorprendió con la violencia del terremoto que tuvo lugar cercade Puerto Príncipe. Hoy, “un terremoto de 8,8 grados de la escala de Richter ha sacudido hoy la región chilena de Bio Bio, unos 300 kilómetros al sur de Santiago, según el último informe del Instituto Geológico de Estados Unidos (USGS) . El instituto estadounidense ha dado como magnitud este terrremoto 8,8 en la escala de Richter“. Información actualizada aquí.

 

“El terremoto, de un minuto de duración, pudo sentirse en la capital, que se quedó a oscuras, según pudo constatar Efe. Además, las comunicaciones telefónicas quedaron interrumpidas en gran parte de Santiago de Chile, según informa Reuters.” Sin embargo, el USGS señaló que el epicentro del temblor se localizó en el mar, en Maule, a 59,4 kilómetros de profundidad, por lo que emitió una alerta de tsunami para ese país y Perú, así como otra alerta “en grado de vigilancia” para Ecuador.

El Centro de Avisos del Pacífico de EE.UU. amplió hoy la alerta de tsunami en grado de vigilancia para Colombia, Panamá, Costa Rica y la Antártida, además de Ecuador, incluido inicialmente, tras el seísmo de 8,8 grados en la escala de Richter registrado en Chile.”

“La alerta de tsunami se mantiene para Chile y Perú, los países que en principio podrían verse más afectados por la ola gigante, según el último boletín del Centro de Advertencia de Tsunami para el Pacífico, de la Administración Nacional de Atmósfera y Océanos (NOAA, por su sigla en inglés).”

“La observación del nivel del mar indica que el tsunami se ha generado. Puede ser más destructivo en las costas cercanas al epicentro del terremoto y podría ser también una amenaza para costas más distantes”, se explica en la página web del NOAA.”

A TSUNAMI ADVISORY CONTINUES IN EFFECT FOR THE STATE OF HAWAII.

AN EARTHQUAKE HAS OCCURRED WITH THESE PRELIMINARY PARAMETERS

   ORIGIN TIME - 0834 PM HST 26 FEB 2010
   COORDINATES - 36.1 SOUTH   72.6 WEST
   LOCATION    - NEAR COAST OF CENTRAL CHILE
   MAGNITUDE   - 8.8  MOMENT
   MAGNITUDE   - 8.4  RICHTER (MS)

MEASUREMENTS OR REPORTS OF TSUNAMI WAVE ACTIVITY

 GAUGE LOCATION        LAT   LON    TIME        AMPL         PER
 -------------------  ----- ------  -----  ---------------  -----
 CALDERA CL           27.1S  70.8W  0843Z   0.45M /  1.5FT  20MIN
 ANTOFAGASTA CL       23.2S  70.4W  0832Z   0.40M /  1.3FT  58MIN
 TALCAHUANO CL        36.7S  73.4W  0653Z   2.34M /  7.7FT  88MIN
 COQUIMBO CL          30.0S  71.3W  0852Z   1.32M /  4.3FT  30MIN
 CORRAL CL            39.9S  73.4W  0739Z   0.90M /  2.9FT  16MIN
 SAN FELIX CL         26.3S  80.1W  0815Z   0.53M /  1.7FT  08MIN
 VALPARAISO CL        33.0S  71.6W  0708Z   1.29M /  4.2FT  20MIN

 LAT  - LATITUDE (N-NORTH, S-SOUTH)
 LON  - LONGITUDE (E-EAST, W-WEST)
 TIME - TIME OF THE MEASUREMENT (Z IS UTC IS GREENWICH TIME)
 AMPL - TSUNAMI AMPLITUDE MEASURED RELATIVE TO NORMAL SEA LEVEL.
        IT IS ...NOT... CREST-TO-TROUGH WAVE HEIGHT.
        VALUES ARE GIVEN IN BOTH METERS(M) AND FEET(FT).
 PER  - PERIOD OF TIME IN MINUTES(MIN) FROM ONE WAVE TO THE NEXT.

EVALUATION

 THE PACIFIC TSUNAMI WARNING CENTER HAS ISSUED AN EXPANDING
 REGIONAL TSUNAMI WARNING AND WATCH FOR PARTS OF THE PACIFIC
 LOCATED CLOSER TO THE EARTHQUAKE. AN EVALUATION OF THE PACIFIC
 WIDE TSUNAMI THREAT IS UNDERWAY AND THERE IS A POSSIBILITY THAT
 HAWAII COULD BE ELEVATED TO A WATCH OR WARNING STATUS."

“Según datos de la Oficina de Emergencia, que fueron citados por la emisora Radio Cooperativa, de momento hay al menos 100 muertes como consecuencia del terremoto. Con posterioridad se han registrado dos réplicas de menor intensidad.”

“El servicio eléctrico y las comunicaciones están cortadas en la región metropolitana y en la de Valparaiso y se han registrado derrumbes menores internos en edificios.”

“En la escala Mercalli, que mide la intensidad, el seismo ha alcanzado 8 grados en la región metropolitana, de 5 a 6 en la región de Valparaiso, de 4 a 5 en la de los Lagos, y de Coquimbo de 3 a 4.”

“Ayer un terremoto de 7,3 grados de magnitud ha sacudido el sur de Japón, según el Servicio Geológico de Estados Unidos.”

“El temblor se produjo a las 5.30 de la madrugada hora japonesa (21.30 hora española), a 84 kilómetros de Naha, la isla japonesa más al sur de Okinawa.”

“El seísmo más grave ocurrido en Japón en años recientes se registró en Kobe (oeste del país) el 17 de enero de 1995, con una magnitud de 7,3 grados en la escala abierta de Richter, y causó más de 6.000 muertos.

Fuente: blog ciencia marina y otros asuntos, 27-3-10

 

 

-Hordas de estrellas alienígenas invaden nuestra galaxia

No cabe duda. Nuestra galaxia, la Vía Láctea, está sufriendo, literalmente, la invasión de una gran oleada de... estrellas alienígenas. Esa es la extraordinaria conclusión a la que ha llegado un equipo de científicos de la universidad australiana de Swinburne. Los astrónomos acaban de publicar un estudio en el que concluyen que uno de cada cuatro cúmulos de estrellas de la Vía Láctea proceden, en realidad, de alguna parte de «fuera» de ella.

Lo cual significa un número inmensamente grande de soles «extranjeros», del orden de decenas de millones de ellos. De alguna manera, esa enorme cantidad de cúmulos estelares se formó en otras regiones del universo y después «emigró» hacia nuestra particular isla espacial. «Se hace evidente -asegura el astrónomo Duncan Forbes, investigador principal del estudio- que muchas de las estrellas y cúmulos que vemos cuando observamos el cielo no son nativos, sino aliens procedentes de otras galaxias. Y que se han estado dirigiendo hacia nosotros durante los últimos miles de millones de años».

Messier 80

 

La imagen, obtenida por el Hubble, muestra el cúmulo globular Messier 80, un objeto formado por cientos de miles de estrellas y que se encuentra en la dirección de la constelación del Escorpión. Se conocen unos 160 cúmulos globulares como éste dentro de la Vía Láctea.

Hasta ahora, los astrónomos sospechaban que algunos de estos cúmulos (agrupaciones de estrellas que pueden contener desde 10.000 a varios millones de soles cada uno) no habían nacido aquí, sino que venían del exterior. pero eso era algo difícil de demostrar.

Sin embargo, utilizando los registros del Telescopio Espacial Hubble, Forbes y su colega canadiense Terry Bridges han elaborado la mejor base de datos de cúmulos estelares que existe sobre nuestra galaxia. En ella se recogen con detalle las propiedades químicas, la composición y la edad de más de 150 de estas impresionantes agrupaciones de estrellas.

 

Tragos de galaxias enanas

«Utilizando esa base de datos -explica Forbes- hemos sido capaces de identificar aspectos clave en muchos de esos cúmulos que nos han revelado sus historias y su origen externo. Y hemos determinado que estos cúmulos globulares foráneos suponen, en la actualidad, cerca de un cuarto de todos los que podemos ver en la Vía Láctea»

«Eso implica - continúa el astrónomo- que decenas de millones de estrellas individuales se han ido sumando y haciendo que nuestra galaxia crezca». Los investigadores también sugieren que la Vía Láctea podría haberse «tragado» muchas más galaxias enanas de lo que se creía hasta el momento.

A este respecto, los investigadores se han dado cuenta de que muchos de los cúmulos estelares alienígenas formaban parte, en su origen, de alguna de esas mini galaxias. «Nuestro trabajo muestra que hay más restos de galaxias enanas dentro de la Vía Láctea de lo que se creía. Otros estudios habian confirmado hasta ahora la existencia de dos de esas galaxias enanas dentro de nuestra Vía Láctea, pero nuestra investigación sugiere que debería de haber por lo menos otras seis que aún están por descubrir».

«A pesar de que las galaxias enanas están rotas y sus estrellas han sido asimiladas por la Vía Láctea, los cúmulos globulares que alguna vez formaron parte de ellas siguen intactos y han sobrevivido al proceso de acreción». Forbes añade que «tendremos que explorar más, pero es una interesante perspectiva que nos ayudará a comprender mejor la historia de nuestra propia galaxia».

 

Fuente: abc.es, 26-2-10

 

 

 

-Identificadas unas moléculas que impiden que se desarrolle el SIDA

En España hay unas 250 personas con VIH (aproximadamente el 0,2% de las 150.00 infectadas) que controlan el virus de manera natural, sin necesidad de medicación. El fenómeno no es exclusivo de España, y los científicos llevan 20 años buscando una explicación a estos casos de los denominados "no progresores" (porque la infección no avanza y no desarrollan sida). Una de las causas ha sido descrita por un grupo del hospital Clínic de Barcelona, que ha visto que estos pacientes tienen una enorme capacidad de generar unas moléculas llamadas alfa-defensinas. El estudio ha sido publicado en la revista Plos One.

Las alfa-defensinas son unas moléculas que segregan de manera natural varias células del organismo, entre ellas, las dendríticas, que son cruciales en la defensa contra agentes infecciosos. Estas defensinas son capaces de inhibir el VIH y modulan las reacciones del sistema inmunitario para que sea más eficiente. "Funcionan como antibióticos naturales", explicó ayer el jefe del Servicio de Infecciosas del Clínico, Josep Maria Gatell. Lo que ha descubierto junto con Marta Rodríguez-García, de cuya tesis doctoral parte la investigación, y Teresa Gallart es que los seropositivos que no precisan tratamiento tienen una capacidad 10 veces mayor de producir estas moléculas que el resto. Los controladores de élite logran así frenar la expansión del sida.

Hay otros factores que tienen un efecto similar, explica Gatell. Por ejemplo, "la producción de una gran cantidad de anticuerpos neutralizantes" o "un déficit parcial o total del correceptor celular CCR5 [una de las llaves que permite que el virus entre en las células que infecta]". También se ha visto que la población que presenta una mejor defensa ante el virus de la hepatitis C, también la tiene en el caso del sida.

 

El virus de la inmunodeficiencia humana (VIH) entra en los linfocitos y los destruye.- AG

Los investigadores del Clínic afirman que "la producción de alfa-defensinas se puede manipular de manera sencilla", lo que ofrece nuevas expectativas terapéuticas. "De momento, sabemos qué defiende al paciente del virus del sida y eso nos será muy útil para la elaboración de vacunas terapéuticas", señalan los investigadores. La estimulación de las alfa-defensinas podría "evitar el tratamiento a miles de personas" y sería útil también para otras enfermedades infecciosas, afirman.

Éste sería el segundo escalón de un estudio, realizado en el Centro Catalán de Investigación y Desarrollo de Vacunas para el Sida (Hivacat), un consorcio público-privado con colaboración de la Generalitat de Cataluña, la Fundación La Caixa y los laboratorios Esteve.

Fuente: elpais.com, 25-2-10

-Schank "El e-learning es la misma basura pero en diferente sitio"

Roger Schank.- GIANLUCA BATTISTA

  Roger Schank es un experto en Inteligencia Artificial que investigaba cómo educar a los ordenadores y acabó descubriendo que a los humanos nos educan mal. Schank fue profesor de Ciencias de la Computación y Psicología en la universidad de Yale y, posteriormente, director del Proyecto de Inteligencia Artificial de la misma institutión. En 1989 fue contratado por la universidad de Northwestern para crear el Instituto de Ciencias de la Educación. Ha sido también profesor en Standford y Carnegie Mellon, pero ha tenido que esperar hasta los 64 años para que una institución académica le permitiese poner en práctica sus teorías: la Escuela de Negocios de La Salle presenta en marzo una serie de másters en Internet basados en la revolucionaria visión educativa de Schank.

Pregunta. ¿Qué piensa del actual sistema de enseñanza virtual, el e-learning?

Respuesta. Es la misma basura, pero en un sitio diferente. Las escuelas cogen las nuevas tecnologías y las arruinan. Por ejemplo, cuando salió la televisión todas pusieron una en cada aula, pero la usaban para hacer exactamente lo mismo que antes. Igual ahora con los ordenadores: ¡Oh, sí, tenemos e-learning! ¿Y qué significa? Pues que dan el mismo curso terrible, pero en línea, usando los ordenadores de forma estúpida.

P. En su página web leo: "Sólo hay dos cosas que están mal en el sistema educativo: qué enseñamos y cómo lo enseñamos". ¿Qué deberíamos enseñar?

R. A vivir, que tiene muchos aspectos, como aprender a ser un abuelo o una madre. Pero la escuela no nos lo enseña. Tampoco a tomar decisiones sobre nuestra vida, aprender valores humanos o decidir qué trabajo nos gustaría.

P. ¿Y cómo deberíamos enseñar?

R. La fórmula del profesor que da la clase magistral y los alumnos hacen exámenes no funciona. Deberíamos aprender como cuando éramos pequeños: nuestros padres no nos sentaron en una mesa y nos dijeron que nos iban a enseñar a hablar, que eso era la gramática y lo otro, el vocabulario. No. El niño habla y, cuando se equivoca, sus padres le van corrigiendo. Aprendemos conversando con los niños, usando el lenguaje.

P. Es lo que usted llama "aprender haciendo".

R. Sí: todo lo que puedas aprender está basado en la práctica. Para saber conducir un coche no tienes que estudiar cómo funciona el motor o por qué se mueven las ruedas. Toda la educación debería ser así, práctica.

P. En sus libros explica que es así como aprende la mente humana.

R. Los seres humanos tienen diferentes procesos mentales que funcionan desde que nacemos, como hacer predicciones, decidir objetivos o establecer la causa de las cosas. Si lo haces bien, triunfas en la vida. Pero en la escuela no lo enseñan. Como mucho te enseñarán la relación causa-efecto en física, pero no adaptada a la vida real. Lo que necesitamos es conocimiento práctico de por qué suceden las cosas con las que nos enfrentamos cada día de nuestras vidas.

P. ¿Pero cómo enseñar de forma práctica algo tan importante como filosofía, literatura o historia?

R. Es que no son tan importantes. Lo son para los académicos, que deciden qué debemos aprender. Si una parte de la población quiere, de acuerdo, pero no deberían obligar a todos los estudiantes del mundo a aprenderlo. Y sí, es posible estudiar historia de forma práctica, por ejemplo con una simulación que te lleve a la Revolución Francesa.

P. ¿Cómo pueden los ordenadores ayudar al "aprender haciendo"?

R. Con simulaciones más o menos elaboradas que presenten situaciones reales: tenemos este problema, cómo podría resolverse. Ni tan sólo necesitas un ordenador para esto, aunque lo facilita, ya que te permite trabajar con personas que no están en tu misma habitación. El auténtico cambio es cómo se enseña, no los instrumentos.

P. Los mejores hackers que conozco son autodidactas, ninguno ha aprendido en las universidades sino con sus ordenadores.

R. Exacto, han aprendido haciendo, como ir en bicicleta.

P. ¿Entonces, no necesitamos escuelas?

R. Por supuesto que no y deberían ser eliminadas. Las escuelas están controladas por los gobiernos, que no se preocupan de que salga de ellas gente inteligente. Todo lo contrario: quieren gente simple que no se haga muchas preguntas ni complique las cosas.

P. ¿Cómo llegó a estas conclusiones?

R. Mi campo de estudio es la inteligencia artificial, hacer a los ordenadores inteligentes. En los setenta trabajábamos muy seriamente sobre cómo los ordenadores deberían aprender. En los 80, cuando ya era un experto en educación, mis hijos entraron en la escuela. Y cuando ví lo que hacían allí me llevé las manos a la cabeza. ¡Qué forma más estúpida de aprender!

P. ¿Por qué?

R. Un ejemplo con mi hijo: a los 6 años me llegó una nota de la profesora que decía que no era bueno en matemáticas, cuando yo sabía que a los 4 ya hacía multiplicaciones. Fuí a verla y me explicó que aprendían a hacer cuentas con líneas hechas con rotuladores ¡y que mi hijo no dibujaba bien las líneas!

P. Ahora experimenta con sus nietos. Ha creado videojuegos que les enseñan matemáticas o a leer. ¿Funciona su sistema?

R. Sí. Mi decisión más importante se refiere al mayor, que tiene 8 años. Mi hija dudaba a qué escuela llevarlo. Le propuse montar una con otros padres y hoy son doce chicos en una habitación, con una profesora, que lo único que hacen es lo que les gusta a esa edad: construir trenes, coches, camiones, robots.

P. Es la misma línea que ha seguido para crear los másters de La Salle de Barcelona, haciendo que los alumnos se enfrenten no a teorías sino a situaciones simuladas de la vida real...

R. Va a cambiar el mundo. Es divertido, emocionante, algo muy nuevo. Cuando me lo propusieron pensaba que bromeaban porque hablamos de una universidad, que es parte del sistema, que me contrata para cambiar este sistema.

Fuente: elpais.com, 25-2-10

 

-Los oncólogos afirman que el abordaje del dolor es una "catástrofe"

Es un secreto a voces -o, mejor, habría que decir a gritos-: el abordaje del dolor en muchos países europeos es una "catástrofe" sanitaria. Esta es la conclusión de un estudio elaborado por las sociedades europeas de Oncología y de Cuidados Paliativos, que publica Annals of Oncology.

"Muchos pacientes en Europa no reciben tratamiento adecuado contra su dolor por un exceso de regulaciones restrictivas y por problemas de acceso a los opioides", afirman los autores del artículo.

En esa comparación, España no sale especialmente bien parada. En la única tabla numérica (la que mide el consumo de morfina por habitante), ocupa el puesto 23 de 41 países, y está, con menos de seis miligramos por cabeza, por debajo de la media mundial (5,98) y la europea (12,59). Si sólo se miden los países de la UE, la posición española es todavía peor: 18 de los 27.

El trabajo es el primer paso para conseguir un tratamiento del dolor "acorde con los derechos humanos", afirman los autores del trabajo, entre los que está Josep Baselga, del Hospital Vall d'Hebrón (Barcelona).

Aparte de la cantidad de medicamento, otros problemas encontrados son la dificultad del tratamiento en situaciones de emergencia (cuando no está el médico presente), las trabas burocráticas, como necesidad de permisos especiales para prescribir o recibir esos fármacos; o incluso falta de acceso y trabas legales, establecidas para evitar que los medicamentos se desvíen a mercados paralelos como drogas de abuso, aparte de cuestiones más personales como el miedo a usar estos fármacos por prevención de los pacientes o los médicos.

Fuente: elpais.com, 24-2-10

 

 

-Descubierta una nueva especie de dinosaurio

Un equipo de paleontólogos ha descubierto una nueva especie de dinosaurio, que han bautizado como Abydosaurio. Este animal pertenecería al grupo de los braquiosaurios, esos enormes ejemplares de largo cuello y de alimentación herbívora. 


Lo curioso del caso es que han recuperado cuatro cabezas, dos de ellas intactas, de una presa del Monumento Nacional de los Dinosaurios, que se encuentra al este de Utah. Sólo se han recuperado cráneos completos de 8 de las más de 120 especies de saurópodos conocidas. «Sus cabezas son más ligeras que las de los mamíferos porque se encontraban en el extremos de un largo cuello», asegura Brooks Britt, paleontólogo de la Universidad de Brigham Young.
«En lugar de los anchos huesos ensamblados, las cabezas de estos saurópodos están compuestas de huesos más ligeros, unidos entre sí por tejidos blandos. Normalmente, cuando el animal muere, la cabeza solía separarse del cuerpo y desintegrarse», añade Britt, coautor del artículo sobre el descubrimiento en la revista «Naturwissenshaften».
Los estudiantes y paleontólogos que participaron en la excavación recurrieron a martillos neumáticos para perforar la capa de roca de 105 millones de años de antigüedad que contenía los huesos. Incluso hubo que emplear explosivos para retirar la roca sobrante. Los análisis de los huesos confirman que el pariente más cercano del Abysosaurio es el braquisaurio, que pisaba la Tierra 45 millones de años antes que la nueva especie descubierta.
«La pieza más compleja con la que he trabajado personalmente es una vértebra que estaba corroida antes de sus hallazgo y resulta tan frágil que si la examinas de forma incorrecta puede desintegrarse», asegura Kimmy Hales, otro de los geólogos que han participado en el descubrimiento.
Dada la dificultad de encontrar cráneos en buen estado de este tipo de dinosaurios, la información de la que se dispone suele ser «de cuello para abajo». Sin embargo, en este caso, las cabezas aportan nueva información a los investigadores sobre cómo se alimentaban estos descomunales ejemplares. «Ellos no mascaban la comida, sino que la prensaban  y luego la tragaban tal cual. Hay que tener en cuenta que la cabeza sólo representa el 2 por ciento del cuerpo del animal. Frente a la gran variedad de formas dentales de los saurópodos en el período Jurásico, al final de esta era lo normal era que los dientes fueran estrechos como un lápiz.

Fuente:  22-2-10

 

 

-Una imagen violenta revela la violenta historia de una luna de Saturno

 

La sonda espacial Cassini ha captado por primera vez una imagen en 3 D de Prometeo, una de las lunas más cercanas de Saturno. La fotografía muestra que este mundo helado tiene una forma alargada que los científicos asemejan a una ballena blanca y, lo que es más importante, expone sus irregularidades, cráteres y cicatrices. Estas imperfecciones revelan un violento pasado: Prometeo sufrió impactos de meteoros que desfiguraron su aspecto hasta convertirlo en una especie de gran «patata» espacial, una descripción que utilizan los propios científicos de la NASA. Prometeo es una de las lunas más cercanas a Saturno. Orbita alrededor del gigante de gas a una distancia de unos 140.000 kilómetros y tiene 86 kilómetros de envergadura en su punto más ancho. Fue descubierto por el Voyager 1 de la agencia norteamericana en 1980. En esta ocasión, la cámara de ángulo estrecho de Cassini capturó dos imágenes en blanco y negro de la luna el 26 de diciembre de 2009. Así, el equipo de imagen combinó ambas para lograr este nuevo punto de vista «en estéreo». Se ve diferente a la imagen en forma de huevo difundida el pasado mes de enero porque entonces se mostraba uno de los extremos más cortos de esta luna de formas irregulares. En esta nueva imagen 3-D, el sol ilumina Prometeo en un ángulo diferente, lo que hace visible el cuerpo alargado de la luna.

Prometeo

 

Fuente: abc.es, 22-2-10

 

 

 

 

 

-El mayor "cazameteoritos" de España

El leonés José Vicente Casado, de 42 años, ha logrado acumular en su vivienda y en un garaje aledaño 3.000 kilos de material terrestre y extraterrestre: miles de fósiles, algunos de especies que no se conocían hasta que él se topó con ellas, como un antepasado del saltamontes, y también millares de meteoritos llegados a nuestro planeta de los confines del Universo.

José Vicente, de una familia modesta, nunca pudo estudiar en la universidad, pero su formación autodidacta le permite ser requerido para dar conferencias en importantes instituciones científicas, con las que colabora, y que sus colecciones sean visitadas por decenas de miles de personas en toda la geografía española.

El primer meteorito con el que se tropezó en su vida fue el que cayó en Villalbeto de la Peña (Palencia) en 2004. Desde entonces lleva 40 hallazgos. "El primero fue muy emocionante, como tener en las manos un trozo del cielo", recuerda.

Poco a poco, se enganchó en esta caza interminable, hasta el punto de que se pasa la vida de aquí para allá, recorriendo desiertos, subiendo montañas y visitando las ferias de compra-venta más concurridas del planeta. Y asegura que no lo hace por vivir de ellos (los alquila y los vende, pero también los dona para la ciencia), sino "para que se investiguen y se descubra lo que se pueda sobre el origen del Universo, de nuestro planeta y de la propia vida".

Un pedazo de 'Murchinson'

Su última adquisición, en un certamen en Tucson (Arizona) son unos gramos del meteorito Murchison, el mismo que esta semana se ha revelado como un tesoro de la diversidad química del Cosmos. Unos científicos europeos han descubierto que su composición esconde más de 14.000 elementos, que podrían dar lugar a millones de moléulas diferentes.

Hoy, este es uno de sus tesoros más pequeños, pero en su almacén, entre cajas y maquinaria, destaca una piedra negra, reluciente, de 600 kilos. Procede de Uruguay. "Me costó 30.000 euros, pero la forma que tiene es especial, nos explica cómo fue su trayectoria y por ello es interesante para explicar al público su largo viaje".

Jose Vicente Casado

Entre los muchos meteoritos, fósiles y también tectitas (arena fundida por la caída de meteoritos) también se esconden falsficaciones. Las tiene para explicar al público las diferencias entre un pedrusco y un auténtica roca extraterrestre. Asegura que el 90% de lo que se vende en internet es falso.

Aunque nunca estudió geología, ni química ni física, reconoce que su verdadera cualidad es ser capaz de discernir de un vistazo un meteorito entre millares de piedras. Y es fruto de la experiencia. "Pero en este país no se valora. He tenido problemas por no tener carrera, pero estoy convencido de que se más que muchos que van de expertor por ahí".

El lugar que más ha visitado son los desiertos del norte de África. Están cerca, no hay vegetación que oculte los meteoritos y, además, es un lugar que ha permanecido estable durante miles de años. Hace un mes, en Libia, encontró cuatro. Y es encontrarlas que no es tarea fácil. Se calcula que cada año llegan a la Tierra entre 200 y 300 meteoritos, pero casi todos caen en el mar.

En su agenda, ya tiene para este año un nuevo viaja a Bolivia y Chile (el desierto de Atacama), otro a Malí y un tercero a Omán, con el norteamericano Mike Farmer, que con José Vicente forma parte del este pequeño grupo de unos 50 ¡'cazameteoritos' que hay en el mundo.

También está escribiendo un libro de divulgación sobre el tema en español, porque dice que no hay ninguno. "Mi sueño sería que en España se hiciera con todo ésto un Museo del Espacio, pero no hay interés", concluye.

 

Recreando seres prehistóricos

Una actividad paralela de José Vicente Casado son los fósiles: los busca y también los reconstruye. Entre las negras rocas cósmicas, en su almacén se pueden ver centenares de plantas fosilizadas, trilobites, insectos en ámbar antiguo, cránesos y dinosaurios.

Su primera actividad científica fue la reconstrucción de fósiles de cráneos de antepasados humanos y de animales prehistóricos, como los dinosaurios y los megadolones (tiburones gigantes).

Algunos de sus ejemplares, sorprendentes recreaciones hechas con resinas, pueden verse en Dinópolis (Teruel) y en otros museos europeos. "Normalmente, los hago por encargo y casi siempre fuera de España. Yo hago los moldes, las resinas y las soldaduras, y tengo los dedos manchados pero, para hacerlo, antes leo muchos artículos científicos. Aquí, por desgracia, la intelectualidad se desliga de la manualidad, asi que ahora me dedico más a los meteoritos", explica.

En estos momentos también prepara una colección de fósiles leoneses que serán expuestos en el futuro Museo de la Minería del Bierzo, aún en construcción.

Fuente: elmundo.es, 21-2-10

 

 

-Viajar a velocidad luz nos mataría en pocos segundos

Malas noticias para todos los que soñábamos con recorrer la galaxia a velocidades relativísticas. Según parece, al desplazarnos a velocidades cercanas a la de la luz, los escasos átomos de hidrógeno que existen en el espacio «vacío» nos golpearían tan duro como las partículas aceleradas por el Gran Colisionador de Hadrones (LHC). Si los científicos de la Universidad Johns Hopkins están en lo cierto, esos pequeños átomos nos freirían en pocos segundos.

William Edelstein, un físico de la Universidad Johns Hopkins School of Medicine en Baltimore, Maryland, ha hecho algunos cálculos y obtenido resultados demoledores. Asegura que si nos desplazásemos por el espacio a velocidades cercanas a la de la luz, moriríamos a los pocos segundos. Y no se trata de un problema orgánico producido por la aceleración necesaria para alcanzar esa velocidad. Simplemente, el problema al que nos enfrentamos reside en que lo que acostumbramos a llamar «espacio vacío», en realidad dista bastante de ser un verdadero «espacio vacío». La atmósfera de la Tierra posee, en cada centímetro cúbico, unos 30 millones de billones de átomos (algo así como 1,000,000,000,000,000,000 átomos). En el espacio, con algo de suerte, solo podemos encontrar un par de átomos de hidrógeno por cada centímetro cúbico. Pero esa ridícula cantidad de materia alcanza y sobra para impedirnos viajar «a lo Star Trek».

Spock, «frito» en segundos

En efecto, si la USS Enterprise fuese de verdad, y respetase las leyes físicas que rigen el Universo, Kirk, Spock y el resto de la tripulación morirían a los pocos segundos de pisar el acelerador. La culpa sería de esos dos átomos de hidrógeno por centímetro cúbico y de la Teoría de la Relatividad de Einstein. Esa débil cantidad de materia se convertiría en un haz de radiación lo suficientemente intenso como para matar a los humanos abordo en pocos segundos, e incluso bastaría para destruir los instrumentos electrónicos de la nave, y a la nave misma.

La Teoría de la Relatividad Especial describe cómo el espacio y el tiempo se encuentran distorsionados para observadores que viajan a diferentes velocidades. Para la tripulación de una nave espacial que acelera hasta cerca de la velocidad de la luz, el espacio interestelar parece muy comprimido, lo que aumenta el número de átomos de hidrógeno que golpean la nave cada segundo, convirtiéndolos en un verdadero rayo de la muerte apuntado hacia la proa.

Desde el punto de vista de los viajeros, los átomos mencionados son acelerados hacia ellos, por lo que su energía cinética aumenta. Si quisiésemos viajar al centro de la Vía Láctea -distante unos 50.000 años luz de la Tierra- en un lapso de tiempo razonable -digamos unos 10 años- nuestra nave debería desplazarse a una velocidad cercana al 99,999998 por ciento de la velocidad de la luz. A estas velocidades, los átomos de hidrógeno impactarían contra nuestro vehículo con una energía de aproximadamente 7 TeV (Teteraelectron voltios), el doble de la energía que se espera alcanzar con el Gran Colisionador de Hadrones cuando funcione a pleno rendimiento. «Para la tripulación de la nave, el efecto de estos átomos acelerados sería el mismo que si se parasen frente al haz del partículas del LHC», dice Edelstein.

 

Sin protección

¿Estar dentro del reforzado casco de la nave hace alguna diferencia? Sí, pero no demasiada. La estructura de la nave, de hecho, ofrece poca protección. Edelstein calcula que un tabique construido con 10 centímetros de aluminio lograría absorber menos del 1% de la energía que impacta contra el vehículo espacial. Dado que los átomos de hidrógeno tiene un protón en su núcleo, su impacto nos expone a una peligrosa radiación ionizante, capaz de romper los enlaces químicos de nuestro ADN y dañarlo irreversiblemente. «Los átomos de hidrógeno son como minas espaciales inevitables», afirma Edelstein, sepultando definitivamente nuestras ganas de recorrer la galaxia a altas velocidades.

La dosis de radiación mortal para un ser humano es de aproximadamente 6 sievert. Los cálculos efectuados por Edelstein demuestran que la tripulación recibiría una dosis de radiación superior a los 10.000 sieverts cada segundo. La radiación seria tan intensa, que incluso debilitaría la estructura de la nave espacial y dañaría sus instrumentos electrónicos. Puesto a especular, el científico cree que ésta puede ser una de las razones por las cuales las civilizaciones extraterrestres más avanzadas aún no nos han visitado. Aunque ET haya logrado la tecnología necesaria para construir una nave interestelar, no puede viajar a velocidades cercanas a la de la luz sin convertirse en un cadáver a bordo de una debilitada nave fantasma.

Parece que el Universo se opone a que nos movamos rápido por su interior. Esos pocos átomos dispersos en el espacio se convierten en una verdadera barrera para nuestros desplazamientos. ¿Podríamos evitarla? Quizás. Seguramente no con la tecnología actual, pero si fuésemos capaces de construir un poderoso campo magnético en el frente de la nave, desviaríamos el haz de protones antes de que nos dé de lleno. De hecho, algo así es lo que usamos para que los protones acelerados dentro de la «máquina de Dios» describan una curva de 27 kilómetros de diámetro por el interior del túnel principal. ¿Qué crees?

Fuente: abc.es, 19-2-10

 

 

-Los efectos de la vacuna contra el SIDA se desvanecen en un año

La vacuna contra el sida que funcionó parcialmente en Tailandia, que se anunció como el principio del fin de la epidemia -aunque luego se rebajó el entusiasmo- podría proteger a los pacientes sólo de forma temporal porque sus efectos comienzan a desaparecer al año de su aplicación, según han informado los investigadores.

Eso explicaría por qué los resultados de la vacuna experimental fueron tan difíciles de interpretar, ha explicado el doctor Nelson Michael, coronel del Instituto de Investigación del Ejército Walter Reed Army, en Maryland, que ayudó a conducir el ensayo.

El equipo de Michael está intentando descubrir cómo o por qué pudo haber funcionado. En septiembre pasado los investigadores sorprendieron al mundo cuando mostraron que la vacuna experimental reducía el riesgo de infección en un 31%.

"Es muy probable que esta vacuna sólo funcione por un corto período de tiempo", dijo Michael a la agencia Reuters. "Es un efecto débil y modesto, pero es algo que podemos desarrollar", agregó.

La vacuna -RV144- es una combinación de dos inmunizaciones, ALVAC -de Sanofi Pasteur- y AIDSVAX -fabricada por una compañía de San Francisco llamada VaxGen-, que ahora es propiedad de la organización sin fines de lucro Soluciones Globales para Enfermedades Infecciosas.

Redefinir el ensayo

El investigador ha anunciado durante la Conferencia de Retrovirus e Infecciones Oportunistas (CROI), que se está celebrando en San Francisco, que es posible diseñar un ensayo que demuestre más fehacientemente si la vacuna puede ayudar a las personas. Una parte del problema fue que los 16.000 voluntarios tailandeses que probaron la vacuna no estaban en un riesgo particularmente alto de sufrir una infección por VIH, sostuvo Michael. El especialista dijo que trabajará junto al doctor Anthony Fauci, director del Centro Nacional de Alergias y Epidemias Infecciosas de Estados Unidos, para diseñar ensayos en Asia y Africa.

De acuerdo con el último informe de la ONU sobre el sida, más de 33 millones de personas están infectadas con el virus y cada año se registran 2,7 millones de nuevas infecciones. Según el doctor Michael, hasta una vacuna que nos proteja por un año sería útil. Si bien reconoció que no es lo ideal, también recordó que hay vacunas como la de la gripe que necesitan refuerzos todos los años. En las próximas semanas, Michael dijo que los estudios comenzarán a buscar claves acerca de la sangre de los voluntarios vacunados. "Todos quieren saber por qué esto funcionó y qué medidas pudimos tomar en el laboratorio para predecir lo que pasó", dijo.

Fuente: elmundo.es, 19-2-10

 

 

-5000 nuevas especies en el abismo

El equipo internacional de científicos del «Censo de Vida Marina» anunciaba hace unos meses el hallazgo de miles de nuevas especies que sobreviven en el fondo de los océanos, en un mundo obscuro entre los 200 y 5.000 metros de profundidad. Ahora, estos especialistas han ofrecido un avance de sus investigaciones. Aseguran que este nuevo catálogo incluye 5.000 nuevas especies en la que se incluyen criaturas extrañas y llenas de colorido, pero la lista puede no cerrarse aquí, ya que todavía queda mucho por estudiar. El censo completo será hecho público el próximo mes de octubre.

Epimera, nueva especie. Tiene 25 mm

 

Anémona Stephanthus antarcticus

 

Los primeros resultados del proyecto, que ha implicado a más de 344 científicos de 34 países, han sido dados a conocer en la reunión anual en San Diego (EE.UU.) de la Asociación Americana para el Avance de la Ciencia. Entre las nuevas criaturas hay animales tan curiosos como el cangrejo Kiwa hirsuta, de aspecto afelpado, hallado en la isla de Pascua, tan único que ha dado nombre a una nueva familia de cangrejos; o una nueva especie de esponja de los cayos de Florida con una sustancia química con propiedades anticancerígenas que está siendo investigado como potencial terapéutico. También hay exóticos gusanos, corales y erizos de mar.

Los investigadores utilizaron cámaras de inmersión profunda, sónares y otras tecnologías de vanguardia para observar a estas criaturas en su medio natural, zonas marinas donde ni siquiera llega el sol, la llamada «zona de crepúsculo», el lugar donde la ausencia de luz impide el proceso de fotosíntesis y, por lo tanto, la existencia de flora activa.

«Aunque el barro de los fondos profundos parecer ser monótono y pobre en alimentos, en realidad tiene la máxima diversidad de especies posible», señalaron en su día los científicos.

Los investigadores creen que este nuevo censo sentará las bases científicas para que los gobiernos puedan crear políticas de proteción para los hábitats marinos vulnerables, especialmente las delicadas barreras de coral, tristemente dañadas por la actividad humana y la falta de protección.

Fuente: abc.es, 21-2-10

 

 

 

-Pildora inteligente: chequeo y cirugía desde el interior del organismo

Distintas compañías trabajan en el diseño de una cápsula que, además de ofrecer imágenes del aparato digestivo, haga una análisis de los tejidos, administre fármacos allí donde sea necesario o extirpe incluso pequeñas lesiones. Todo ello sin cicatrices y sin las molestias de la endoscopia tradicional.

Alguna vez habrá fantaseado con encontrar el secreto de la vida eterna. Poder ingerir una píldora que nos cure de todos los males o que, incluso, pueda hacernos durar 100 años. Aunque esta pastilla mágica aún pertenece al mundo de la ciencia ficción, muchos investigadores trabajan ya en los primeros prototipos de lo que podría ser «la píldora robótica del futuro»: un dispositivo capaz de detectar enfermedades, tratarlas desde dentro, recoger muestras y operar sin bisturí desde una úlcera hasta un cáncer. La pastilla que podría impresionar al mismísimo doctor House nacerá de la combinación entre biomedicina, tecnología y comunicación inalámbrica. Esta nueva área del conocimiento ha surgido tras la que ya se conoce como revolución «body 2.0», una nueva concepción de la medicina centrada en diseñar medicamentos capaces de interactuar con el organismo. Con estos nuevos chips, el papel del médico sería similar al de un director de orquesta: estar atento a que nada desafine dentro del organismo.

Píldora inteligente


Para una de las mayores expertas españolas en este campo, la investigadora del Centro de Investigación en  Nanociencia y Nanotecnología (CIN2) Laura Lechuga, la píldora multiusos del futuro «debería llevar incorporada una microcámara, como la que ya se utiliza en muchos hospitales españoles para realizar endoscopias, pero que permita visualizar todas las partes del cuerpo y no sólo el tracto intestinal». «Además, tendría que incorporar –añade–  un microchip que detecte la enfermedad y emita una señal rápida para avisar al médico o al paciente, por un sistema sin cables, de que algo no funciona». Otra alternativa, dice la experta, sería que la propia píldora llevase almacenados medicamentos para liberar «en el momento la dosis exacta».
Una de las aproximaciones más innovadoras al «médico encapsulado» es la que han diseñado los expertos de Proteus Biomedical. Esta compañía americana, pionera en el desarrollo de microchips digeribles, ha fabricado un prototipo capaz de viajar al centro del organismo y transmitir desde allí las constantes vitales del paciente. En tiempo real, todo lo que sucede dentro del individuo queda registrado en  el ordenador o el móvil de su médico, que podrá tomar decisiones incluso sin ver al paciente en consulta. Esta joya de la medicina se llama «Raisin» y la farmacéutica Novartis está probando ya su eficacia en Reino Unido. Cerca de veinte pacientes ya han ingerido el chip dentro de sus píldoras para la hipertensión y su satisfacción con el tratamiento ha mejorado, subiendo del 30 al 80 por ciento en los seis primeros meses de experimento.
A pesar de sus innegables ventajas, el principal obstáculo que encontrará este dispositivo para llegar a las farmacias es su volatilidad. Puede durar en el organismo poco más que un café de máquina, por lo que permitiría controlar al paciente un máximo de 72 horas. Por eso, Proteus trabaja ya en «Chipskin», una versión implantable de «Raisin» que no se desintegra tan fácilmente al contacto con los fluidos corporales. El objetivo de la empresa es que este nuevo dispositivo pueda mantenerse activo durante meses, quizá años, dentro del organismo.

Mayor aprovechamiento
Otro candidato a convertirse en «píldora prodigiosa» llega desde Holanda. Su promotor es la empresa Philips, que está intentando dar una nueva vuelta de tuerca a la primera generación de microcápsulas inteligentes, nacidas en 2001 para jubilar a la endoscopia en la detección de trastornos del aparato digestivo de forma menos invasiva. Están perfilando la «iPill», una pastilla que destaca por ser capaz de servir como «medio de transporte» del fármaco hasta el foco de la enfermedad. Esta innovadora técnica, que aún no ha sido probada en humanos, permitiría aprovechar mejor los principios activos de los medicamentos, que se desperdician al ingerirse por el método tradicional. El secreto está en su microprocesador, una especie de GPS que indica en cada momento su ubicación dentro del cuerpo a través de la medición del Ph del entorno. Esta capacidad del dispositivo permite al médico apuntar y «disparar» el fármaco en el centro del dolor.
El principal inconveniente de la «iPill» es que carece de cámara de video, algo que podría subsanarse en futuras versiones. De hecho, aunque todavía es pronto para anunciar nuevos proyectos, en esta línea podría avanzar la nueva versión de la píldora inteligente de Philips. «Podría tener un tamaño menor que el actual prototipo o, manteniendo sus dimensiones, contar con mayor capacidad para almacenar medicamentos e incluir una minicámara en su interior», según reveló a este semanario el portavoz de Philips Research en Eindhoven, Steve Klink. Además, la nueva píldora «podría aumentar las capacidades de diagnóstico de la actual “iPill’», focalizada por el momento en demostrar su eficacia en el diagnóstico y tratamiento del  cáncer de colon, la colitis y la Enfermedad de Crohn. Según Klink, esta fórmula «mejorará la eficacia y reducirá los efectos secundarios de muchas terapias que, como es el caso de los nuevos fármacos basados en péptidos, proteínas y ADN, no pueden ser administradas de forma efectiva a través de una simple ingestión oral». Y no es para menos: la pastilla de Proteus fue capaz de averiguar si este antihipertensivo estaba siendo eficaz en todo los casos, cuál era el mejor momento para tomarlo y qué dosis reportaba a cada uno los máximos beneficios.
No obstante, la aspiración más ambiciosa para la futura «pastilla robótica» es que sea capaz de operar al paciente desde dentro, de forma segura y sin incisiones. Convertirla en realidad es el objetivo de un grupo de investigadores de las más prestigiosas escuelas de Robótica de Europa, entre ellas la Escuela Superior de Santa Ana (Italia). Su proyecto consiste en diseñar «biomicrorobots» capaces de realizar operaciones en el intestino, gastroscopias o biopsias de tejidos.  Su introducción en el organismo se realizaría a través de la ingestión de tres píldoras que, posteriormente, mediante electroimanes, se volverían a reunir en el estómago del enfermo. Allí, estos tres dispositivos actuarían juntos como en una verdadera «sala de operaciones». Otra vía de investigación abierta por estos científicos pretende mejorar la movilidad de los chips ainteligentes. Para ello han desarrollado un prototipo conocido como «píldora araña». Se trata de una pastilla con cámara incorporada que se diferencia de las anteriores por contar con ocho patas dirigidas a control remoto, lo que le da un aspecto similar al de los inquietantes insectos de las películas de David Cronenberg. Esta peculiaridad permite al médico variar el rumbo del aparato dentro del intestino o el colon y utilizarlo como alternativa a la gastroscopia. Su efectividad ha sido probada en cerdos con buenos resultados y los ensayos en humanos podrían comenzar este mismo año.
Según Elisa Buselli, investigadora de la  escuela italiana de Santa Ana, la idea de la que nace esta píldora es intentar «imitar a un animal como la araña». «Por eso se le dota de extremidades robóticas que permiten moverla por el intestino o el colon, grabando imágenes y controlando, por ejemplo, el avance de un cáncer». Un paso más en la línea de estos dispositivos-araña lo ha dado el proyecto que han desarrollado en Israel los científicos de la Universidad de Technion. A medio camino entre la ciencia-ficción y la realidad, en la ciudad de Haifa un equipo de científicos ha logrado desarrollar un robot del tamaño de una pulga capaz de recorrer el sistema circulatorio de un individuo a la asombrosa velocidad de un centímetro por segundo. Este artilugio lleva incorporado un complejo sistema nanoeléctrico que se sirve de los campos magnéticos y de la inercia del propio flujo sanguíneo para avanzar por cualquier vena o arteria de nuestro organismo a excepción de los capilares, demasiado estrechos para su envergadura.
La novedosa tecnología utilizada en este proyecto –bautizada como MEMS, por sus siglas en inglés– ha  permitido a los científicos israelíes reducir a la mínima expresión a este Livingstone de la robótica. La clave es que prescinde de las aparatosas baterías con las que tienen que cargar los dispositivos dotados de cámara. Una vez dentro del cuerpo, la principal tarea de este microrrobot es «patrullar» por el sistema circulatorio.
El objetivo es localizar obstrucciones y potenciales trombos que puedan derivar en paros cardiacos e infartos cerebrales. A la espera de que su prototipo sea probado en humanos, en la Universidad de Techion trabajan ya en un nuevo proyecto que incorporará a este robot una cámara para detectar tumores.
Cada una de estas píldoras tiene una o varias de las características de la futura pastilla perfecta, un invento que, sin duda, mejoraría la vida de los pacientes crónicos y ahorraría mucho dinero en bajas laborales y camas de hospital. Sin embargo, muchos pacientes podrían vivir este avance como una verdadera historia de terror, pues  la futura pastilla ofrecería, por primera vez en la historia, la posibilidad de implantar un dispositivo electrónico para controlar las constantes vitales.

Fuente: larazon.es, 19-2-10

 


 

 

-"Las matemáticas dan una cosilla... como un subidón"

 

"Es como si estuvieras en tu equipillo y de repente fueras llamada a la selección... No te esperas tanta repercusión". Isabel Fernández (Linares, 1979) saltó de alegría hace un año, cuando la invitaron a la reina de las cumbres matemáticas. Será la primera española que acuda al International Congress of Mathematicians (ICM) gracias a su investigación sobre la geometría de las pompas de jabón. Suena cómico y enigmático, pero ella corrige: "Apasionante". La cita: el próximo agosto en Hyderabad (India).

 

Isabel Fernández analiza pompas de jabón.- PÉREZ CABO

 

Fernández ha escogido hoy el céntrico restaurante Contenedor de Sevilla. Ha llegado al almuerzo en bicicleta desde la universidad, donde trabaja como profesora. "Conozco su delicioso arroz con pato, pero pídelo tú y yo pruebo otra especialidad", aconseja. Durante la comida, Fernández es una ametralladora que dispara ideas complejas adobadas con sonrisas que hacen terrenal su inteligencia. Cuando su entusiasmo se lo permite, ataca la ensalada de salmón.

Tras descartar el sueño de arqueóloga a lo Indiana Jones, Fernández se decantó "a lo kamikaze" por lo que mejor se le daba. Las mates impregnaron su vida y las tangentes se mezclaron con las curvas planas con sabor infantil a jabón. "Pero que conste, no mortifico a mi novio y no le cuento cada vez que alcanzo un lema [previo a los teoremas]. Me gusta lanzar catenoides. Tienes cierto control sobre las propiedades de las superficies y las pones a prueba", cuenta resuelta.

El próximo verano explicará ante la élite matemática sus avances en la geometría de las pompas de jabón, junto a su compañero Pablo Soto. Didáctica y siempre con la sonrisa en la recámara, Fernández define sus investigaciones, pero apenas ha tocado la ensalada que el camarero trajo hace ya 15 minutos: "Estudiamos superficies agradables como las pompas, con el menor esfuerzo. Pero no he hecho una pompa en mi vida", avisa. ¿Nunca? "Jamás". Sorprendente que esta joven no se haya lanzado a una bañera Mistol y alambre en mano para poner en práctica las formas y dulzura que adaptan las pompas. Todo son fórmulas y más fórmulas que escribe en el folio en blanco para luego contrastar con su colega Soto por skype. Con ella, la teoría no baja a la práctica. "En clase puedo llenar pizarras y pizarras de fórmulas, no me canso", avisa. ¿Y canta eureka? "Pues la verdad, soy más del 'sí, sí" [cierra el puño con fuerza]. A continuación, recuerda que la maravilla de las cualidades de las pompas, avanzadas por el belga Joseph Plateau, está aplicada con éxito, como en el estadio olímpico de Múnich.

Fernández rompe el tópico del matemático despistado y en las nubes, y no hay dudas de su pasión por la investigación: "Hay cosas que te emocionan, y esa idea de que las matemáticas son aburridas... luego te da una cosilla... como un subidón". Pasados 40 minutos, el zumo de tomate sigue a medias mientras se pisa las frases, pero al menos ya saborea el bacalao acompañado de una "excelente" crema de boniato. Con la boca pequeña confiesa que las clases en la facultad le sirven "para recuperar la autoestima y resolver problemas que sabes". Antes de irse, bromea sobre su conferencia en la India: "Me temblarán las piernas, pero intentaré que no se note mucho".

 

Fuente: elpais.com, 19-2-10

 

 

-¿Es esta la primera partícula de la materia oscura?

De confirmarse, podríamos encontrarnos ante el mayor descubrimiento en muchos años en el mundo de la Física, un hallazgo que daría la vuelta por completo a los parámetros científicos que manejamos ahora. Un equipo de científicos, entre los que se encuentran investigadores de la Universidad de Florida (EE.UU.), ha encontrado la que puede ser la primera partícula de materia oscura. Las pruebas aún no son concluyentes, pero sí muy esperanzadoras. No se trata de rumores. El estudio ha sido publicado en la edición online de la prestigiosa revista Science.

La materia «ordinaria», la que conocemos, da forma a todo lo que podemos ver, desde un pequeño insecto a una galaxia, pero los científicos creen que sólo suma el 4% del Universo. El resto, un inmenso 96%, está compuesto por materia y energía que no conocemos, razón por la que las hemos llamado «oscuras». La materia oscura daría cuenta, según los investigadores, de otro 20% de la masa total del universo (el restante 77% estaría hecho de energía oscura, un concepto aún más extraño y desconocido). Por eso, encontrar una partícula tan especial supondría un magnífico acontecimiento. Tras nueve años de búsqueda, quizás hayamos dado el primer paso. El detector CDMS (Cryogenic Dark Matter Search), construido en las profundidades de la mina Soudan, una antigua explotación de hierro en Minnesota, ha captado dos posibles partículas de este tipo, también conocidas como WIMPS. Entre sus características conocidas, se encuentran que sólo reaccionan ante dos de las cuatro fuerzas de la naturaleza (la gravedad y la fuerza nuclear débil, responsable de la radiación). Pero no todo está ganado. Según los expertos de la Universidad de Florida, hay una oportunidad entre cuatro de que estas partículas sean simplemente «ruido de fondo». «Es algo complicado, los números son demasiado pequeños», admite Tarek Saab, uno de los físicos que participa en el experimento junto a docenas de colegas.

 

La materia oscura, tal y como los científicos creen que se distribuyen en el Universo / ABC

En cinco años

Los científicos reconocieron hace décadas que la velocidad de rotación de las galaxias y el comportamiento de los cúmulos de galaxias no podían explicarse por las fuerzas tradicionales de la gravedad. Otra cosa -algo invisible, imperceptible pero muy potente- tenía que ejercer la fuerza necesaria para que la galaxias rotasen a más velocidad de la esperada y otras anomalías similares. A esto se ha llamado materia oscura -oscura porque no refleja ni absorbe la luz de ninguna forma-, que, a pesar de su innegable influencia, nunca ha podido ser observada directamente.

El nuevo hallazgo, aunque aún no puede confirmarse, ayuda a eliminar algunas teorías más o menos vigentes sobre la materia oscura, delimita el perfil de los WIMPS y puede acelerar la carrera para detectarlos. «Mucha gente cree que estamos extraordinarmente cerca, no sólo nosotros», afirma Saab. No falta mucho. «Ciertamente, en los próximos cinco años, alguien verá una señal clara».

Fuente: abc.es, 18-2-10

 

 

-"Encaramos el gran reto de la ingeniería"

Sergio Idelsohn, especialista en mecánica de fluidos, acaba de obtener una beca de tres millones de euros del Consejo Europeo de Investigación (ERC) para desarrollar sistemas de simulación informática que puedan realizar cálculos en tiempo real. Este investigador ICREA en el Centro Internacional de Métodos Numéricos en la Ingeniería (CIMNE) de la UPC en Barcelona, de origen argentino, maneja técnicas que sirven para comprobar cómo se comporta un avión en vuelo o cómo navega un petrolero. La Armada de Estados Unidos utiliza sus técnicas en uno de sus proyectos.

Sergio Idelsohn muestra una de sus simulaciones en el Centro Internacional de Métodos

Numéricos en la Ingeniería (UPC).- CARMEN SECANELLA

A los 62 años, Idelsohn nunca deja de pensar. Llega a la entrevista con una hoja rebosante de ecuaciones, fruto de la consulta de su jefe, Eugenio Oñate, con la almohada. Revisará el trabajo mientras pasea, su gran espacio de inspiración.

Pregunta. ¿En qué han cambiado los métodos numéricos desde que comenzó a investigar, hace 40 años?

Respuesta. Son métodos matemáticos utilizados para resolver problemas de ingeniería o física. En los años cincuenta y sesenta estos problemas se resolvían a mano. Desde los años setenta, lo hacen los ordenadores, pero fue necesario adaptar los métodos.Una ecuación que rige el movimiento de los líquidos, por ejemplo, se escribe en dos líneas de una pizarra. Pero saber la velocidad que rige esa ecuación es algo muy difícil y hasta la aparición de los computadores se realizaba en papel. Entonces, un sistema de 20 ecuaciones con 20 incógnitas podía requerir un par de días; hoy en día se pueden resolver entre cuatro y cinco millones de ecuaciones en minutos.

P. ¿Qué aplicaciones tiene?

R. Hay casos en que no es posible realizar ensayos reales. Un problema típico de la siderurgia es calcular la altura desde la que se puede volcar un material en una vasija de metal fundido para mezclarlo sin salpicar el trabajador, pero hay otros: ¿Cuánto tiempo tardará la impureza del metal fundido en subir a la superficie? ¿Cómo mezclo azufre con el metal a 1.500 grados y cuánto tiempo tarda en mezclarse?

P. ¿Cuál es su mayor reto?

R. Realizar cálculos numéricos de problemas de ingeniería en tiempo real es un gran reto, siempre nos hemos estado peleando con el tiempo de cálculo. Muchas veces no se pueden realizar aplicaciones prácticas porque no funciona el método para resolver el problema en tiempo real.

P. ¿Qué representa el nuevo método que ha desarrollado y por qué dicen que es revolucionario?

R. Es el método de Elementos Finitos de Partículas, que realmente ha traído un cambio importante en muchas de las ecuaciones que resolvemos. Por ejemplo, en los problemas de superficies libres (una superficie que separa un líquido del aire o de otro líquido), también llamadas interfases. Hasta ahora, se podía simular cómo avanza una ola, pero no cuando ésta rompe contra un rompeolas. Cuando aparecen muchas partículas, las gotas se convierten en muchas superficies libres. El método de partículas permite prevenir los efectos de un tsunami en una ciudad costera.

P. ¿Se utiliza esta técnica en la práctica?

R. Los vulcanólogos nos han pedido que simulemos la interacción de los fluidos en la cámara magmática de los volcanes, que normalmente se encuentra en situación estacionaria. Suponen que las erupciones empiezan cuando, por algún motivo, entra en esa cámara un líquido más caliente, se produce una reacción térmica y aumenta la presión hasta producirse la erupción. Quieren comparar los resultados con el material despedido por los volcanes.

P. ¿Cuál es la idea del proyecto seleccionado por el ERC?

R. La Unión Europea quiere competir científicamente con EE UU y Japón, y los proyectos ERC deben ser de alto riesgo para que los que obtengan resultados sean de primera línea. En nuestro caso, queremos resolver problemas que utilicen los cálculos numéricos en tiempo real. Sería impensable un GPS que ofreciera al conductor de un coche una dirección al cabo de tres minutos, en vez de tres segundos. Por ejemplo: ¿Qué pasaría si durante un incendio forestal cambia de repente el viento? ¿Habrá que desalojar las viviendas cercanas? Los bomberos podrían ir con ordenadores de bolsillo y conocer mejor la evolución del incendio. Lo mismo serviría para tsunamis.

P. ¿Cómo funcionará un sistema de cálculo en tiempo real?

R. Vamos a utilizar la tecnología de videoconsolas, que cuentan con tarjetas gráficas de altas prestaciones y de propósito general (GPUGP), más potentes que muchos ordenadores personales. El problema de los videojuegos, sin embargo, es la falta de precisión, algo fundamental en la industria. Esta precisión es importante, por ejemplo, durante una intervención quirúrgica: es necesario calcular en tiempo real la tensión que soporta la sangre (para evitar que se rompa, que cambien sus propiedades físicas) cuando el cirujano introduce un corazón artificial o una válvula.

P. ¿Y dónde venden su idea?

R. Nos ha costado muchos años, pero hemos conseguido entrar en un mercado tan difícil como Estados Unidos. Por ejemplo, la Agencia Nacional de Estandarización Técnica (NIST) nos ha pedido que simulemos la propagación de incendios en el mobiliario doméstico. También trabajamos para la Office for Naval Research en la nueva generación de barcos rápidos sobre colchón de aire, para conocer cómo se deforma su estructura con fuertes oleajes y cómo navegan en aguas poco profundas. La Armada estadounidense también nos ha encargado estudiar el efecto de la implosión en el fondo marino. Igualmente vamos a coordinar proyectos para evaluar cómo pueden afectar huracanes y terremotos a las construcciones e infraestructuras viarias, que es de interés del Banco Interamericano de Desarrollo y el Banco Mundial. Y en Europa tenemos actualmente 30 proyectos; por ejemplo, cómo reforzar los polímeros con nanopartículas, algo interesante para crear textiles de alta resistencia con los cuales poder construir puentes con vigas llenas de aire o hangares portátiles que llevaría la propia avioneta. En el terreno de la seguridad, en colaboración con la empresa Dragados, hemos creado un sistema para evaluar la seguridad de la construcción del puerto de Langosteira en A Coruña, debido a que sólo es posible trabajar un número limitado de días al año por causa del mal tiempo.

Fuente: elpais.com, 17-2-10

 

 

-Buscando el origen de "Fobos"

La sonda 'Mars Express' de la ESA ha modificado su ruta investigadora para poner el telescopio en marcha sobre 'Fobos', la luna más grande de Marte, con el objetivo de desentrañar el origen y el proceso de formación del satélite, según informó este martes la Agencia Espacial Europea (ESA).

Para ello, la ESA ha planificado una serie de sobrevuelos alrededor del cuerpo, de forma que el próximo 3 de marzo la investigación alcanzará su "punto culminante", cuando se sitúe a "tan sólo" 50 kilómetros de la superficie de 'Fobos', la distancia más cercana a la que ha estado un aparato de la luna marciana.

Recreación de Fobos

 

Así, la campaña de sobrevuelos ha comenzado el martes a las 07.52 (hora española) a 991 kilómetros del satélite. Además, estos continuarán a diferentes altitudes hasta el 26 de marzo, momento en el que 'Fobos' modifique su rango.

"'Mars Express' se encuentra en una órbita elíptica y polar con una distancia máxima de Marte de cerca de 10.000 kilómetros y pasa regularmente por 'Fobos'. Esto representa una excelente oportunidad para llevar a cabo ciencia extra", dijo el científico del proyecto Olivier Witasse.

En 2009, el equipo de la misión decidió ajustar de nuevo la órbita de la sonda espacial, desde el Centro Europeo de Operaciones Espaciales en Darmstadt (Alemania), a 50 kilómetros por encima de 'Fobos'. "Es lo más cercano que nos dejaron volar sobre el satélite", afirmó Witasse.

El origen de 'Fobos' es un misterio para los expertos. En este sentido, contemplan tres posibles escenarios: que la luna es un asteroide capturado; la segunda es que se formó 'in situ' al mismo tiempo que Marte; y la tercera, que 'Fobos' se formó a partir de restos de escombros de Marte después de que un meteorito chocara contra el planeta rojo.

Fuente: elmundo.es, 18-2-10

 

 

-Las claves genéticas de la "cuna" de la humanidad

Durante años las investigaciones de genética humana han provocado un enorme sesgo en las bases de datos a favor de las poblaciones de origen europeo. De todos los genomas completos que se han publicado hasta la fecha sólo uno de ellos es de África, el lugar donde habitaba el ancestro común y desde el que el ser humano colonizó el resto del planeta. Ahora, una investigación dirigida por científicos de la Universidad de Penn State (EEUU) ha demostrado hasta qué punto estaba equivocado el camino científico seguido por los estudios genéticos.

El estudio ha analizado la secuencia de ADN de cuatro bosquimanos de la etnia Khoisán y un miembro de los Bantú, para lo que se ha prestado voluntario el arzobispo y Premio Nobel de la Paz Desmond Tutu. Los investigadores han identificado 1,3 millones de variantes genéticas desconocidas hasta la fecha. Con la secuenciación de los dos europeos, tres asiáticos y un africano secuenciados hasta ahora sólo se habían documentado entre 3 y 4 millones de variantes.

"La variación genética humana es vital para determinar el riesgo de padecer una enfermedad que tiene un individuo o la capacidad que tiene para responder a un determinado fármaco", explica la coautora del trabajo Vanessa M. Hayes, de la Universidad de New South Wales en Australia.

Un grupo de bosquimanos camina por un sendero de Namibia. | Stephan C. Schuster

"Hay que recordar que la genómica humana está llegando a ser una fuente de conocimiento médico real y muy poderosa que podría alcanzar su punto álgido en 2010", asegura el autor principal del trabajo, Stephan C. Schuster, científico de Penn State y líder del grupo que descifró el genoma del mamut hace algunos meses.

Los últimos cazadores-recolectores

Schuster seleccionó a cuatro representantes de la etnia Khoisán, una población de bosquimanos que habita en Namibia, por ser el único grupo que aún mantiene el tipo de vida cazador-recolector que tenían los primeros seres humanos.

Además, ha evolucionado sin interrupción desde la separación del ancestro, algo que no han hecho las poblaciones europeas o asiáticas que pasaron por un cuello de botella genético cuando unos pocos individuos se expandieron por el hemisferio norte. "Hay más diferencias genéticas entre dos bosquimanos que entre un europeo y un asiático", compara Hayes.

"Estas características permiten a los científicos estudiar no sólo las aplicaciones médicas sino también las adaptaciones al modo de vida", explica Tomás Marqués Bonet, investigador del Departamento de Ciencias Genómicas de la Universidad de Washington y del Instituto Médico Howard Hughes.

La investigación detalla un perfecto ejemplo de este tipo de mutaciones relacionadas con el modo de vida. Los individuos analizados no poseen el gen que permite fabricar la enzima que digiere la lactosa. Como es lógico los cazadores-recolectores no consumían leche, porque no explotaban ganado. Algo que sí comenzaron a hacer los humanos con el inicio de la agricultura y la ganadería. Por ello ese gen y la capacidad de digerir la leche sí se encuentra en las poblaciones europeas o asiáticas.

Fuente: elmundo.es, 17-2-10

 

 

-La falta de reconocimiento aleja a los científicos de la divulgación

En los últimos años, la presencia de la ciencia en los medios de comunicación, ya sea en forma de divulgación o de debate político, ha aumentado considerablemente, pero aún está lejos de alcanzar el peso que se le concede habitualmente en nuestras vidas, en la transformación de la sociedad y la economía.

«No sólo hay que contar que se ha descubierto algo, sino también explicar por qué es importante, a dónde te lleva ese conocimiento», aclara el antropólogo, quien no cree tanto en la idea de divulgación -por ser «banal»- como en la necesidad de integrar el concepto de ciencia en el sustrato mismo de la sociedad. «Cuando rompamos la barrera entre conocimiento y pensamiento, la ciencia será como el fútbol, formará parte de nuestra cultura», añade.

Javier Armentia, astrofísico y director del Planetario de Pamplona, explica que «el reto está en pasar de la información a la reflexión». Pero, ¿por qué es tan difícil dar este paso? «La información económica requiere mucho más esfuerzo, y los toros también tienen su propio lenguaje», comenta Armentia. «El problema es que se ha claudicado, se dejado la ciencia como algo que hacen los científicos».

Lo curioso es que, en contra del mito del científico en su torre de marfil, muchos jóvenes investigadores no se sienten cómodos con este estatus. «La gente es consciente de la importancia de la ciencia, incluso la admira, pero pone una distancia», lamenta Santiago Rello Varona, del Instituto Gustave Roussy, en Francia.

El mencionado estudio europeo, publicado en diciembre de 2007, también señalaba una diferencia fundamental entre los investigadores más veteranos y los más jóvenes, éstos últimos mucho más acostumbrados, y también más proclives, a relacionarse con los medios. Pero el esfuerzo por comunicar no siempre se ve recompensado: escribir un ensayo divulgativo, mantener un 'blog' o colaborar con la prensa no puntúa oficialmente en la carrera del investigador. Y, aunque se quiera hacer, no siempre es fácil saber qué palos se han de tocar.

«La falta de una financiación específica para comunicación, la falta de tiempo y las dificultades de encontrar un lenguaje sencillo para comunicar clara y efectivamente a audiencias más amplias son subrayados como los mayores obstáculos desde la comunidad científica», concluía el estudio de la Comisión Europea.

«Hay científicos que no tienen interés en comunicar porque piensan que a la sociedad no le interesa, y hay otros que no encuentran la manera de realizar esa comunicación», resume Carbonell.

Además, la vorágine de publicaciones, tareas de docencia y obligaciones burocráticas varias no deja mucho tiempo para una actividad considerada secundaria. Todo lo cual redunda en que la sociedad perciba el saber científico como una serie de nociones más o menos lustrosas, y no como el modo de discurrir y asomarse al mundo en el que quieren verse reflejados los científicos. «En nuestro país, parece que el documental es sinónimo de ñúes cruzando el río para llegar a las llanuras bajo el acecho de lobos y cocodrilos», ironiza Rello Varona.

En todo caso, la divulgación no es sólo una obligación del científico hacia la sociedad; aprender a comunicar es también, en cierto modo, aprender a organizar las propias ideas, lo cual conecta con un concepto fundamental para Carbonell: «Los científicos 'senior', que llevamos toda la vida investigando, tenemos que hacer este aprendizaje, debemos convertir en pensamiento lo que nuestra experiencia ha acumulado como conocimiento».

La brecha que separa a los investigadores del público sigue abierta, y hay quien opina que lo estará hasta que se pueda hablar de ciencia como se habla de otras áreas que también requieren de un conocimiento muy específico, como son el deporte, la economía o el arte moderno. Quizás el problema estribe en que la ciencia no es sólo un lenguaje, sino también -y sobre todo- una forma de ver el mundo.

Un estudio de la Comisión Europea, en el que participaron investigadores de todas las edades y casi todas las nacionalidades del continente, reveló que todos los profesionales de la ciencia se muestran unánimes en que sería deseable «una relación continua y más profunda con los medios, para que el público se dé cuenta de que la ciencia se basa en adquirir nuevos conocimientos y satisfacer la curiosidad, no sólo de invenciones y nuevos productos».

«Una cosa es el conocimiento científico y otra cosa es el pensamiento científico», indica Eudald Carbonell, profesor de la Universidad Rovira i Virgili y codirector del yacimiento de Atapuerca.

Otra de las tesis que reflejaba el citado estudio es que en los nuevos países miembros ('UE 12)', la desconfianza de los científicos hacia los medios, por miedo a que se politicen o banalicen los temas, es mayor que en la Europa de los 15; lo cual da una idea de que, cuanto más importante es la ciencia en un país, mejor se comunica y menor es la brecha entre sociedad y laboratorio.

En España, tal y como recordaba hace unos días la ministra de Ciencia e Innovación, Cristina Garmendia, hemos experimentado en los últimos años el segundo crecimiento más rápido del mundo, sólo por detrás de China, y ya somos la novena potencia científica mundial. Sin embargo, es evidente que aún hay desajustes, como muestra el hecho de que nuestras universidades están muy lejos de ocupar esas posiciones. En comunicación de la ciencia, como en todo lo demás, ocurre que hemos mejorado muy deprisa pero aún nos queda mucho por aprender.

«Muchos científicos miraban a los que sí divulgaban como una especie de 'vedettes' que sólo querían lucirse», comenta Armentia, quien reconoce, sin embargo, que «las nuevas generaciones, tanto de comunicadores como de investigadores, creen que divulgar la ciencia es parte de su trabajo».

Sin embargo, aún se acusa en nuestro país cierta dependencia del mundo anglosajón en la elección de informaciones científicas, lo cual no sería tan problemático si no fuera porque se pierden algunos fundamentos básicos de la comunicación: «Una mayor presencia española daría una sensación de cercanía, se podría enmarcar la divulgación en un contexto humano», señala Armentia. Esta lejanía se acentúa, a menudo, en el caso de la investigación universitaria: «Es más pausada, menos espectacular y más analítica, y por eso le cuesta más llegar al gran público», argumenta Rello Varona.

El conocimiento científico es un ingrediente esencial de la sociedad. Ser partícipe del saber es un derecho elemental de todo ciudadano y, por tanto, el proporcionar tal conocimiento, de manera accesible, es un deber de los investigadores. Pero, más aún, la divulgación científica no puede ser meramente informativa y unidireccional (del científico hacia el ciudadano), sino que la percepción que el ciudadano obtiene de la ciencia debe ser transmitida de nuevo hacia los científicos. Este f'eedback' debe permitir al científico saber cuáles son los elementos más apreciados de su actividad y cuáles los que mejor contribuyen al bienestar social.

El problema obvio para la socialización del conocimiento es que la ciencia es 'difícil'. Obtener una cultura científica requiere un esfuerzo intelectual que el ciudadano no siempre puede realizar. Y, por otra parte, nuestros científicos, completamente embelesados por su intenso trabajo y desbordados por la creciente burocracia de las publicaciones, las solicitudes de subvenciones y los informes de actividad, no siempre pueden hacer ese sacrificio por explicarle a su abuela (que diría Einstein) el resultado de sus investigaciones.

Pero hay que salvar esas barreras, y la astronomía proporciona ejemplos muy provechosos sobre cómo hacerlo. Los científicos podríamos seguir el maravilloso modelo de un Carl Sagan que no sólo produjo resultados científicos de primer nivel, sino que fue capaz de fascinar a varias generaciones con el fruto de la ciencia. Y las instituciones podrían inspirarse en la excelente labor de divulgación que despliegan las agencias espaciales ESA y NASA.

De manera análoga a cuando se dice que la guerra es demasiado importante para dejársela sólo a los militares, no cabe ninguna duda de que la ciencia tampoco puede ser dejada solamente en manos de los científicos. Pero el conocimiento es a menudo demasiado complejo como para ser dejado sólo en manos de los periodistas o de los comunicadores. Popper decía que «es imposible hablar de tal manera que no se pueda ser malinterpretado». Para, en la medida de lo posible, evitar interpretaciones erróneas de la ciencia, para evitar banalizaciones y excesos de superficialidad, es indispensable que el científico y el comunicador trabajen en estrecha colaboración. Y es indispensable que nuestras autoridades sean conscientes de que la integración de la ciencia en la cultura es ya inaplazable.

Fuente: elmundo.es, 17-2-10

 

-Olas lejanas que rompen en el Atlántico

Las enormes olas procedentes del Pacífico que chocan contra las costas de América, a miles de kilómetros de la Antártida, pueden estar influyendo en el deshielo y provocando que enormes trozos se separen de las plataformas de hielo que bordean el continente blanco.

Un estudio de Peter Bromirski del Instituto Scripps de Oceanografía (Universidad de California-San Diego) plantea la relación causa-efecto entre ambos fenómenos. El trabajo ha sido publicado por la revista Geophysical Research Letters y describe cómo las tormentas que se producen en el océano Pacífico Norte provocan un oleaje que transfiere una energía suficiente para desestabilizar las plataformas de hielo antártico.

Borde de la plataforma Wilkins en la Antártida, a punto de

 fracturarse en enero de 2009.- REUTERS

 

Pero la cuestión no es tan simple. Las olas que alcanzan la costa oeste de América producen además al romper una vibración de la tierra sólida costera que se manifiesta en forma de zumbido sonoro subsónico, inaudible para el oído humano. En el mar esta energía se transmitiría hacia el sur generando las llamadas ondas u olas "infragravitatorias", de periodo muy largo, hasta llegar al continente helado.

"Esto nos da una indicación de la cantidad de energía de las olas que están impactando contra las costas. Es posible que cuando se entienda mejor este proceso se pueda aplicar a la investigación de la estructura del manto superior y la corteza terrestres", según Bromirski.

Existen sismogramas archivados durante décadas que conforman un historial de microseísmos generados por las olas a lo largo de la costa oeste americana. El registro de la energía de estas olas sirve como un indicador retrospectivo del cambio climático y la aparición de tormentas violentas desde 1930.

En el estudio publicado por Bromirski y sus colaboradores (Olga Sergienko de la Universidad de Princeton y Douglas MacAyeal de la Universidad de Chicago) se propone que "el viaje al sur de las ondas infragravitatorias puede ser un agente mecánico clave que contribuye a la producción y/o ampliación de las zonas de grietas en las plataformas de hielo antárticas", y que las ondas infragravitatorias también pueden producir el impacto necesario para iniciar por sí mismas el proceso de desprendimiento de grandes pedazos de hielo de las plataformas.

Los investigadores utilizaron datos sísmicos recogidos en la plataforma de hielo de Ross para identificar las señales generadas por las ondas infragravitatorias que se originaron a lo largo de las costas del norte de California y de Columbia Británica, y analizaron el modelo de la cantidad de estrés que sufrió la plataforma de hielo de Ross como respuesta a estos impactos.

Bromirski afirma que es muy reciente la tecnología que se está usando y que es necesario desplegar sismómetros en el hielo durante largos períodos de tiempo para capturar estas señales y sacar conclusiones fiables.

Sin embargo, el estudio también determinó que cada uno de los desprendimientos producidos en la plataforma de Wilkins en 2008 coincidió con estimaciones de la llegada de las ondas infragravitatorias. Por ello los autores señalan que esas ondas pueden afectar a la estabilidad de la plataforma de hielo provocando la aparición de grietas, la reducción de la integridad de hielo a través de fracturas y el inicio de un colapso de desprendimiento, todo ello favorecido por el fuerte derretimiento de la superficie ".

De acuerdo con esta teoría, si se incrementasen tanto la frecuencia como la energía de estas ondas infragravitatorias debido a un aumento en la intensidad de las tormentas de origen climático, esto podría contribuir o favorecer el colapso de la plataforma de hielo en la Antártida.

Sin embargo, ésta es una cuestión que todavía no está lo suficientemente contrastada y para hacerlo se necesitarían más datos instrumentales. Según esta teoría, al aumentar la frecuencia de onda de las ondas infragravitatorias y, por tanto, su energía inducida, debido a la mayor intensidad de las tormentas asociadas al cambio climático, ésto contribuiría a desencadenar el colapso de la plataforma de hielo. Pero esta posibilidad debe comprobarse más. Según Bromirski, "es necesario obtener más datos de la Antártida para hacer esa conexión con seguridad

Fuente: elpais.com, 16-2-10

 

 

-La diversidad química del cosmos en un meteorito

El famoso meteorito de Murchison, encontrado hace 40 años en Australia, contiene un impresionante arsenal de millones de componentes orgánicos, muchos más de los que se habían identificado hasta ahora, según han demostrado los últimos análisis de un grupo de químicos europeos.

Fragmento del meteorito Murchison. | Carl Henderson

 

El hallazgo pone de manifiesto que el Sistema Solar que acoge nuestro planeta contiene una variedad de química orgánica que sobrepasa la diversidad molecular que se encuentra en la Tierra. En concreto, se han localizado más de 14.000 diferentes elementos en la composición de la roca espacial.

El meteorito Murchison es uno de los tres más famosos localizados hasta ahora (los otros son el Allende, que cayó en México, y el Orgueil, en Francia) debido a su riqueza química. Cayó cerca de una localidad australiana, a la que debe su nombre, un 28 de septiembre de 1969. "Estos meteoritos son fundamentales para investigar la Tierra primitiva y entender las interacciones químicas y mineralógicas primigenias que contribuyeron al origen de la vida", explica el investigador del Centro de Astrobiología del CSIC-INTA Jesús Martínez Frías.

Los estudios que a lo largo de los años han hecho los investigadores en esta condrita (roca)carbonácea demostraron que contenía muchos aminoácidos fundamentales para la vida, si bien también dieron lugar a un intenso debate entre quienes defendían que se trataba de contaminación de origen terrestre y quienes aseguraban que habían venido del espacio exterior.

Posible contaminación

En este nuevo trabajo, publicado en Proceedings of National Academy of Science (PNAS), los autores, dirigidos por Philipe Schmitt-Kopplin, del Instituto alemán de Química Ecológica, han estudiado tres fragmentos del Murchison obtenidos en tres colecciones para diferenciar la posible contaminación del contenido original (estaban en Alaska, Japón y Luxemburgo).

Para analizarlos, utilizaron un espectrómetro de masa muy sofisticado que identificó 14.197 elementos en su composición, que podrían dar lugar a varios millones de estructuras moleculares. "Esta complejidad sugiere que la diversidad química extraterrestre es muy alta cuando se la compara con la bioquímica terrestre", aseguran los investigadores.

Además, han logrado determinar las interacciones que se han producido en el meteorito entre compuestos orgánicos (carbono, oxígeno, hidrógeno y nitrógeno) e inorgánicos (sulfuro de hierro y níquel).

Para Martínez Frías este hallazgo es especialmente importante porque "relaciona los meteoritos con las komatiitas, que son las lavas primitivas de la Tierra, las rocas más antiguas, y que también se han encontrado asociadas a sulfuros de hierro, lo que confirmaría su relación con los meteoritos que formaron nuestro planeta y que dieron lugar a la vida".

Se cree que el Murchison se formó en los primeros días del Sistema Solar, quizás antes que el Sol, y que atravesó las nubes de ese primitivo sistema recogiendo elementos orgánicos. Por ello, los autores sugieren que trazando la secuencia de las moléculas orgánicas se puede conocer la cronología de la formación y alteración de esas moléculas. En definitiva, un viaje al pasado para entender qué ocurrió.

Fuente: elmundo.es, 16-2-10

 

 

-Tutankamon y su extraña familia

Aunque a todos nos gusta pensar que los sucesos más dramáticos de la historia se producen a causa de conspiraciones, cuanto más rocambolescas mejor, o de accidentes muy espectaculares, la verdad es tozuda y se empeña en contradecirnos. Así le acaba de ocurrir a Tutankamón, el joven faraón cuya muerte prematura estaba envuelta en numerosos misterios. Entre esas hipótesis se contaba la del asesinato, pues en la momia se apreciaba una fractura en la nuca, aunque quizá ésta fue producto de las manipulaciones de Howard Carter y sus arqueólogos en 1922, cuando le arrancaron la máscara de oro que estaba pegada al cadáver con cuchillos calientes... o el envenenamiento. Pero también se especulaba con una caída brutal cuando corría en un carro, pues los restos también presentaban una fractura de fémur... Pues bien, ninguna de ellas va a resultar cierta.

El «Journal of the American Medical Association» ha publicado un estudio encargado por Zahi Hawass, director del Consejo Supremo de Antigüedades de Egipto, y que a partir de biopsias, análisis radiológicos y de ADN de 10 momias relacionadas con el faraón —que murió siendo un adolescente de 19 años cerca del 1324 a. de C. durante la XVIII Dinastía del Nuevo Reino, tras casi una década de reinado— no sólo han permitido conocer qué pudo haberle causado la muerte, sino además diversas enfermedades que afectaban a su familia, así como también cuál era su filiación, al identificar a su padre y a su madre, entre otros parientes.

Empecemos por señalar qué enfermedades no padecía Tutankamón. En primer lugar, los investigadores descartan que sufriera el Síndrome de Marfan, una patología que se apreciaba en otros miembros de su familia. Este mal afecta al tejido conectivo y se caracteriza por un excesivo crecimiento de los miembros. En segundo lugar, también se ha descartado que sufriera ginecomastia, que es un desarrollo anormal de los pechos en los varones y que puede deberse a una desequilibrio hormonal. Los científicos tampoco han advertido en el joven faraón signos que apunten a ninguna patología que produzca feminización a pesar de que las representaciones artísticas que de él se tienen lo muestren con rasgos andróginos o feminoides. Esto puede deberse a que las figuraciones que se realizaban de los faraones y de los miembros de la familia real no eran reales sino idealizaciones, y éstas, durante ese periodo —el de Amarna— así los mostraban, quizá debido a las reformas religiosas impuestas por Akenatón.

La muerte de Tutankamón más más bien pudo deberse a otras patologías. La principal sería la malaria. Los análisis genéticos han identificado varios genes: Stevor, AMA1 y MSP1, que son específicos del Plasmodium falciparum, parásito que causa la malaria, lo mismo en el faraón que en tres miembros de la familia. La malaria asociada con una necrosis avascular de los huesos (falta de vascularización que provoca la muerte de los osteocitos) sería probablemente lo que finalmente le causó la muerte.

Por último, Tutankamón también padecía la enfermedad de Kohler II, una falta temporal de vascularización que deforma el segundo metatarsiano del pie, provocando su achatamiento y que se da durante la adolescencia. Esta patología, también conocida como enfermedad de Freiburg, luego mejora, aunque puede tener como consecuencia la cojera. Es necesario diferenciarla de la enfermedad de Kohler I, la escafoiditis tarsiana —según explica a ABC el Dr.Mariano de Prado— pues ésta afecta al escafoides, y que según algunas informaciones nunca constrastadas ha padecido el tenista Rafael Nadal.
 

El gran misterio: era nieto de Tiye e hijo de Akenatón

El gran reto de la arqueología era saber de quién era hijo el faraón más famoso del Antiguo Egipto. Los investigadores realizaron análisis de entre 2 y 4 muestras del ADN de cada una de las diez momias vinculadas a él, así como de otras cinco pertenecientes al Nuevo Reino que se utilizaron como grupo de control. La identidad de tres de ellas ha quedado determinada. La conocida como KV35EL corresponde a Tiye, que era abuela de Tutankamón. La KV55 es con toda probabilidad la de su hijo Akenatón quien, a su vez sería el padre del joven faraón. Además de otras características morfológicas, padre e hijo compartían el mismo grupo sanguíneo. Por último, la momia KV35YL correspondería a su madre, aún sin nombre (¿Kiya, Nefertiti?)

Fuente: abc.es, 16-2-10

 

 

-Cambio climático, IPCC . ¿Qué pasa?

Las últimas informaciones sobre los errores científicos del Grupo Intergubernamental de Expertos sobre el Cambio Climático (IPCC en sus siglas en inglés) han causado un gran malestar en el Gobierno británico.Teme que los grupos conservadores que niegan la influencia del ser humano en el cambio climático lo utilicen para obstaculizar un acuerdo internacional ya de por sí difícil de alcanzar.

Debido a la actual polémica en torno al Panel Intergubernamental sobre Cambio Climático de la ONU (IPCC), la revista Nature recogió recientemente en un artículo la opinión de cinco expertos que valoran el futuro de la organización. Los autores recomiendan cambios en el IPCC para recuperar su credibilidad perdida. Esta creciente falta de confianza se debe a los errores detectados en el último informe del organismo, así como al escándalo de los correos electrónicos de científicos que fueron publicados y usados en contra de los propios expertos.

Recientemente se  publicaban datos acerca del posible impacto del incremento de la temperatura en más de tres grados centígrados para mediados de siglo que podría producir la disminución de la capacidad productiva de la tierras cultivables que podría ocasionar una catástrofe alimentaria entre las más de 3.000 millones personas que vivirán en las cercanías del ecuador del planeta, según la información recogida en un especial de la revista Science (12 de febrero de 2010). Aún sin contar con los posibles efectos adversos de un clima más cálido, el crecimiento de la población mundial en más del 30% antes de 2050 representa un notable desafío que obligaría a duplicar la producción de grano.

Sin embargo, el presente invierno se está mostrando especialmente crudo en gran parte del hemisferio norte y especialmente en Europa, pero, aunque esto nos lleva dudarlo, el calentamiento sigue avanzando a escala planetaria.

Un nuevo análisis de la temperatura global en superficie realizado por científicos de la NASA ha encontrado que el pasado año 2009 ha empatado con otros como el segundo más cálido desde 1880, algo más de un siglo. En el caso del hemisferio sur, ha sido el más cálido desde que existen registros.

El período enero de 2000 a diciembre de 2009 fue la década más cálida nunca registrada. Mirando hasta 1880, cuando la instrumentación científica moderna comenzó a utilizarse, una clara tendencia al calentamiento está presente, aunque se produjo una cierta nivelación entre los décadas de 1940 y 1970. Pero en las tres últimas décadas, los registros de temperaturas tomadas por el GISS muestra una tendencia al incremento de 0, 2 grados centígrados por década. En total, el promedio de temperatura global ha subido en 1,5 grados desde 1880.

Es obvio que el hombre usa al planeta en su beneficio (algunos más que otros) pero deberíamos plantearnos cuanto puede durar esta manera de usarlo y si hay forma de cambiar nuestra actitud.

Fuente: Blog ciencia marina y otros asuntos, 15-2-10

 

 

-Crean en el laboratorio las condiciones posteriores del Bing-Bang

Físicos del Laboratorio Nacional de Energía de Brookhaven Nueva York han conseguido crear una especie de «sopa» de materia 250.000 veces más caliente que el centro de nuestro Sol y que reúne condiciones similares a las que se produjeron justo después del Big Bang, la gran explosión que dio origen al Universo. En 2005, los científicos sospechaban que habían alcanzado este estado de la materia, pero es la primera vez que pueden confirmar estas temperaturas infernales.

 

Experimento producido en el Relativistic Heavy Ion Collider (RHIC)

«Es la materia más caliente nunca creada en laboratorio», ha asegurado Steven Vigdor, director del laboratorio asociado de física nuclear y de partículas en el Departamento de Energía de EE.UU. La temperatura es tan caliente que puede «derretir los protones y los neutrones». El experimento se logró haciendo chocar el núcleo de partículas de oro a velocidades super rápidas, de forma que se derretían los protones. Dos chorros de núcleos de oro se aceleraron en direcciones opuestas a lo largo de la pista circular de un acelerador de partículas llamado Relativistic Heavy Ion Collider (RHIC), un hermano pequeño del europeo LHC.

A lo largo de los 3,9 kilómetros del circuito, los núcleos de oro alcanzaron una velocidad cercana a la de la luz. Cuando dos de esas partículas chocan, sus colisiones producen tanta cantidad de energía que la materia se calienta a 4 billones de grados Celsius. Estas condiciones son suficientes para para derretir los protones y neutrones hasta que sólo quedan partículas elementales llamadas quarks y gluones, según ha explicado el investigador Steven Vigdor, en una conferencia impartida en la Sociedad Americana de Física, en Washington. Los científicos creen que esta sopa de quarks y gluones llenó el Universo unos microsegundos después del Big Bang, hace casi 14.000 millones de años. Después, la materia se enfrió y condensó, formando los protones y neutrones que la forman hoy día.

Unos milisegundos

Esta sopa de partículas fundamentales duró tan sólo unos milisegundos. Ni un suspiro. Pero el tiempo fue suficiente para que los físicos pudieron medir sus propiedades y temperatura. De forma sorprendiente, descubrieron que este estado primitivo de la materia se comporta como un líquido, aunque los expertos esperaban encontrarse con un gas.

Los físicos tendrán la oportunidad de estudiar un estado aún más caliente de la materia cuando el Gran Colisionador de Hadrones de Ginebra, que se pondrá en funcionamiento de nuevo a finales de mes, consiga funcionar a gran velocidad. La «máquina de Dios» producirá temperaturas dos o tres veces más calientes que las conseguidas por el Relativistic Heavy. Los físicos quieren entender por qué la materia se formó en sus primeros estadio. También esperan encontrar aplicaciones prácticas, como los spintronics, que tienen el objetivo de hacer más rápidos, pequeños y poderosos los dispositivos electrónicos.

Fuente: abc.es, 15-2-10

 

 

-Así actúa  un agujero negro

Los agujeros negros se han convertido en una verdadera obsesión para muchos físicos y astrónomos. En realidad, conocer cómo funcionan y de qué son capaces estas verdaderas fieras devoradoras de energía no es algo sencillo, pero se trata de un problema abordable. Los astrónomos Thomas Müller y Daniel Weiskopf han creado un software que utiliza los datos de más de 100.000 estrellas reales para simular el comportamiento de estos objetos.

Un agujero negro es una región del espacio que contiene tanta materia concentrada en un sitio (relativamente) tan pequeño, que su enorme gravedad ni siquiera permite que la luz escape. Aunque para un observador pueda parecer un verdadero agujero, no está vacío, sino todo lo contrario. La gran concentración de masa superdensa que existen en su interior crea fuerzas gravitatorias tan intensas que ninguna partícula material -ni siquiera los fotones que componen la luz- puede escapar. Estas características tan atípicas los han convertido en un objeto sumamente atractivo para los científicos, quienes se dedican a observar el espacio buscando indicios de su existencia. En efecto, dada su naturaleza resultan imposibles de observar directamente, pero pueden detectase por el efecto que causan en los cuerpos que lo rodean. Una nota aparecida en el American Journal of Physics da cuenta de que dos astrónomos han creado un software gratuito que, a partir de los datos astronómicos de estrellas reales, puede simular los efectos que causa sobre ellas un agujero negro.

 

Thomas Müller y Daniel Weiskopf, junto a un grupo de ingenieros de la Universidad de Stuttgart, en Alemania, han creado un software que puede simular agujeros negros. Para realizar su trabajo, el programa utiliza datos reales de las estrellas de nuestra galaxia para mostrar en alta resolución una simulación de muy buena calidad. Los astrónomos han utilizado la posición y masa de 118.000 estrellas conocidas, y una vez que el usuario elige el sitio donde va a estar emplazado y datos iniciales del agujero negro que quiere simular, el software se encarga de mostrarnos cómo cambian de lugar, la distorsión que causa la lente gravitacional que crea el objeto súper masivo, e incluso la Difracción de Fraunhofer asociada. La Difracción de Fraunhofer, a veces llamada «difracción del campo lejano» es un patrón de difracción de una onda electromagnética, y no es más que un caso particular de la difracción de Fresnel que explica la forma en que las ondas electromagnéticas se comportan en determinadas circunstancias. Todo esto les ha permitido a Müller y Weiskopf crear un producto con el aspecto más realista posible.

Un tiovivo infernal

La simulación, que puede descargarse como una aplicación para Linux o Windows, tiene dos modos diferentes de visualización. En el primero de ellos el espectador se encuentra girando alrededor del agujero negro, como si se encontrase montado en una suerte de tiovivo infernal. En el otro, el punto de vista corresponde a alguien que está siendo atraído lentamente hacia el agujero negro, mientras que ve cómo las estrellas que lo rodean comienzan a ser arrastradas hacia la singularidad. Ambos modelos son lo suficientemente realistas como para mostrar la manera en que las estrellas que resultan afectadas por el campo gravitatorio del agujero negro (y aceleradas a velocidades cercanas a la de la luz) cambian de color debido al efecto Doppler.

Obviamente, el programa no se convertirá en una herramienta de investigación a la que recurran los físicos que estudian el comportamiento de estos objetos, ya que ellos cuentan con superordenadores valuados en decenas de millones euros que pueden hacer aun un mejor trabajo. Pero este programa puede convertirse en una excelente herramienta para el aficionado, el curioso o los estudiantes que no tienen acceso a ordenadores tan potentes. Si quiere ver que se siente al caer hacia un agujero negro, utiliza el link de descarga que corresponda a tu sistema operativo en la página de los autores.

Fuente: abc.es, 15-2-10

 

 

-Descubren el "arma secreta" de las células cancerígenas contra la quimioterapia

Un equipo de científicos británicos ha identificado el "arma secreta" que utilizan las células cancerígenas para combatir y sobrevivir a los tratamientos con quimioterapia.

El hallazgo realizado por expertos de Cancer Research UK, una organización no gubernamental (ONG) dedicada a la investigación de esta enfermedad, tiene que ver con la estructura de una proteína que se encuentra en el corazón del sistema de defensa de los tumores cancerígenos.

Identificada como FANCL, esta proteína ayuda a las células malignas a reparar el daño que sufre su ADN a consecuencia del tratamiento del enfermo con quimioterapia. "Hemos averiguado la estructura del motor del sistema de funcionamiento de la célula", dijo la máxima responsable del estudio, Helen Walden, quien explicó que "si conseguimos detenerlo conseguiríamos células mucho más receptivas a la quimioterapia".

"Hemos logrado la primera fotografía atómica completa de una proteína implicada en el sendero de la reparación de una célula, justo en el mismo corazón de la ruta por la cual la células cancerígenas se defienden de tratamientos que tienen como objetivo destruirlas", señaló esta experta.

Walden añadió que "bloqueando este interruptor de ignición de la reparación de la célula, es posible mejorar los tratamientos tradicionales" y subrayó que este hallazgo puede convertirse en una línea investigadora para la creación de un fármaco específico.

Nuevos fármacos

La conclusión principal de este estudio, que se publica en la revista Nature Structural and Molecular Biology es que un acertado tratamiento contra la FANCL puede ayudar a combatir el cáncer. La doctora Lesley Walker, del Cancer Research UK, subrayó que se trata "de una investigación muy importante", porque "llega hasta el corazón de la táctica tras la que se protegen las células del cáncer frente al tratamiento de quimioterapia".

"Este hallazgo nos da un objetivo prometedor para potenciales fármacos que ayuden a debilitar la resistencia de las células cancerígenas mientras se administra la quimioterapia, para hacer que este tratamiento sea lo más eficaz posible", manifestó.

Fuente: 20 minutos.es, 14-2-1

 

 

-Matemáticos y periodistas

El libro de John Allen Paulos, Un matemático lee el periódico (Tusquet, Colección METATEMAS MT 44, 1996, ISBN: 978-84-7223-970-8), ha conocido gran popularidad en todo el mundo; en este libro, el autor muestra como la inocencia de unos números en un artículo periodístico puede ocultar graves falacias si no conocemos las matemáticas que hay detrás (ya saben, ¡Las matemáticas os harán libres!). Todo ello con grandes dosis de la ironía y la acidez ya habituales en Paulos. En esta entrada haremos una breve reflexión sobre las relaciones entre matemáticos y periodistas.

Apreciación pública de las matemáticas

Este tema entronca con uno de gran calado: ¿cómo conseguir una mayor apreciación pública de las matemáticas en la sociedad? No cabe duda de que una buena cobertura mediática en la que las noticias sobre la disciplina reciban un adecuado tratamiento, que muestre como las matemáticas son imprescindibles para el bienestar tecnológico en el que vivimos, y que no se reduzca a los habituales comentarios sobre su dificultad y contribución al fracaso escolar, redundarían sin duda en este objetivo.

Las acciones para conseguir deben dirigirse en varias direcciones:

Pudiera pensarse que en nuestro país no se hace lo suficiente en ambas direcciones; nada más lejos de la realidad. Un ejemplo es el Máster en Periodismo y Comunicación de la Ciencia, la Tecnología y el Medio Ambiente, organizado por la Universidad Carlos III de Madrid (y en el que el autor de esta entrada ha tenido la oportunidad de participar en alguna ocasión). Insistir en este tipo de actividades e incrementar la presencia de las matemáticas en las mismas va en la buena dirección.

Los matemáticos iniciamos en 1999 una aproximación a los medios como conseuencia de la celebración del Año Internacional de las Matemáticas en 2000, entre cuyos objetivos principales estaba la divulgación de las matemáticas para el aumento de su aprecio público. Así se hizo, y la experiencia sirvió para que el tratamiento mediático del mayor acontecimiento matemático celebrado en nuestro país hasta ahora, el Congreso Internacional de Matemáticos de Madrid en 2006, se convirtiera en un modelo a seguir. El Comité Organizador contrato a la empresa DIVULGA SL con la que se comenzó a trabajar con mucha antelación, diseñando una estrategia que dio sus frutos. La colaboración no terminó con el evento, sino que ha continuado a través del proyecto Consolider i-MATH. La conclusión es que los resultados son buenos cuando se produce esa necesaria interacción entre matemáticos y periodistas. Un matemático no tiene por qué ser un periodista, y viceversa; pero si ambos actúan coordinadamente, cada uno proporcionando su saber y su experiencia profesional, los resultados suelen ser extraordinarios.

Una página web donde los medios pudieran encontrar no solo material útil para su trabajo sino también un directorio organizado en el que un periodista interesado en escribir sobre modelos climáticos, por ejemplo, encontrara el matemático adecuado (con sus datos de contacto) para asesorarlo y comentar esa noticia. Tenemos en España que luchar con la habitual timidez de nuestros colegas, pero estamos seguros que algún día se conseguirá.

En estos momentos de crisis económica, en los que la cuerda se rompe siempre por lo menos valorado, como ocurre con la investigación, es cuando los matemáticos (y científicos en general) debemos ser más conscientes de la importancia de que la sociedad nos perciba como indispensables para garantizar a medio y largo plazo el trabajo y el bienestar para todos.

El modelo americano

Hace años, cuando era miembro de la ejecutiva de la Real Sociedad Matemática Española, intenté (debo reconocer que sin éxito) una iniciativa similar a la que estaba entonces creando la American Mathematical Society, http://www.ams.org/ams/info-for-journalists.html

Una página web donde los medios pudieran encontrar no solo material útil para su trabajo sino también un directorio organizado en el que un periodista interesado en escribir sobre modelos climáticos, por ejemplo, encontrara el matemático adecuado (con sus datos de contacto) para asesorarlo y comentar esa noticia. Tenemos en España que luchar con la habitual timidez de nuestros colegas, pero estamos seguros que algún día se conseguirá.

En estos momentos de crisis económica, en los que la cuerda se rompe siempre por lo menos valorado, como ocurre con la investigación, es cuando los matemáticos (y científicos en general) debemos ser más conscientes de la importancia de que la sociedad nos perciba como indispensables para garantizar a medio y largo plazo el trabajo y el bienestar para todos.

Fuente: Blog matemáticas y sus fronteras, 14-2-10

 

 

 

 

 

-El nivel del mar puede aumentar dos metros por siglo

El hielo del planeta se puede formar y fundir mucho más rápido de lo que se ha considerado hasta ahora, por lo que el nivel del mar también puede variar enormemente en muy poco tiempo: unos 2 metros por siglo. Así lo concluye un nuevo estudio que publica este viernes Science.

Según el estudio, hace 81.000 años, el nivel del mar del planeta estaba sólo un metro por encima del actual. Esto implica que había incluso menos hielo que ahora, con temperaturas probablemente algo más elevadas que las actuales, y que gran parte de la masa helada acumulada desde hace 115.000 años, al inicio de la glaciación, se había fundido por entonces. Más concretamente, los testigos geológicos indican que el hielo que todavía era abundante hace 85.000 años se derritió en gran parte durante el milenio siguiente, elevando 20 metros el nivel del mar en un solo milenio.

"La cantidad de hielo que se derritió [en aquel episodio] fue tan grande que habría que debatir si realmente fue un periodo cálido dentro de una misma glaciación, o si marcó una interrupción y fue el inicio de un nuevo periodo interglacial", explica a ELMUNDO.es Jeffrey Dorale, de la Universidad de Iowa, principal autor del estudio. "Nuestro estudio sugiere que pudo tratarse de una verdadera interrupción, lo cual es sorprendente", añade, porque normalmente los periodos glaciales se consideran mucho más largos.

A diferencia de la mayoría de las investigaciones anteriores, basadas en el análisis de corales para medir las subidas y bajadas del mar en el pasado, en este estudio Dorale y sus colegas analizaron unas incrustaciones de espeleotemas de una cueva de Mallorca, la de Vallgomera. La formación geológica mallorquina es extraordinariamente valiosa para hacer este tipo de mediciones, ya que durante cientos de miles de años estuvo sumergida de manera intermitente en el Mar Mediterráneo, atestiguando los cambios en el nivel del agua, generalizables a todo el globo.

Los científicos llevan tiempo intentando describir un paisaje preciso de cómo era el planeta en el pasado, y un aspecto importante es conocer el nivel eustático de los océanos (la altura del agua respecto a los continentes). El nivel del mar varía con la formación del hielo y su fusión, por lo que a partir de ahí se puede deducir también la temperatura global aproximada en tiempos remotos.

"Nuestro estudio no altera el conocimiento actual sobre el calentamiento global, sino que lo confirma. No sólo eso: mostramos que las caídas y subidas en el nivel del mar pueden ocurrir en apenas mil años a índices muy elevados de unos 2 metros por siglo", dice Bogdan Onac, de la Universidad de Florida del Sur y segundo autor del estudio.

La expansión del hielo durante una glaciación es irregular, con breves periodos cálidos intercalados en los que el hielo se funde a pesar de una tendencia general de enfriamiento a largo plazo. Sin embargo, "es la primera vez que se tienen datos tan robustos sobre cambios tan bruscos en el nivel del mar [y por lo tanto en la fusión del hielo] en tan poco tiempo. Nuestros datos muestran que la cantidad de hielo que se fundió hace 84.000 años fue enorme", añade Dorale.

"Creemos que esos cambios tan drásticos del nivel del mar en periodos de tiempo tan cortos eran más comunes de lo que parece. De hecho, si ocurriera en los próximos siglos, el resultado sería devastador para todas nuestras ciudades costeras", opina el investigador.

Este hallazgo choca con la teoría tradicional de las glaciaciones, según la cual, en un ciclo de unos 100.000 años, el hielo se va acumulando gradualmente para fundirse, al final, más rápidamente. Con esta nueva aproximación, en cambio, la expansión del hielo puede ser tan veloz como su retroceso y ocurrir en periodos muy cortos, lo que puede hacer variar el nivel del mar considerablemente en poco tiempo.

Fuente: elmundo.es, 14-2-10

 

 

-Viaje a las auroras de Saturno

Un nuevo y espectacular vídeo del telescopio espacial Hubble recorre internet. En enero y marzo de 2009, los astrónomos aprovecharon la poco frecuente oportunidad de grabar a Saturno mientras sus anillos estaban en perpendicular a la Tierra, lo que permitió ver los dos polos del planeta al mismo tiempo. Pero no fue eso todo. El gigante anillado pareció querer celebrar la ocasión ofreciendo a los ávidos observadores un espectáculo único e increíble: y mostró al telescopio sus espectaculares auroras, en el polo norte y en el sur a la vez. Saturno se encuentra en esa particular posición con respecto a nosotros sólo una vez cada quince años. Por lo que es muy probable que tengan que pasar muchas décadas para poder disfrutar de nuevo de una visión como ésta.

En efecto, Saturno tarda treinta años en realizar una órbita completa alrededor del sol, por lo que desde la Tierra sólo es posible ver sus dos polos al mismo tiempo sólo dos veces durante todo ese periodo. Desde que fue lanzado en 1990, el Hubble ha fotografiado Saturno desde todos los ángulos posibles, pero no fue hasta 2009 cuando pudo obtener por primera vez fotografías que mostraran los dos polos de manera simultánea y sin que ninguno de ellos quedara oculto por los anillos. Además, al estar en aquél momento Saturno cerca de su equinoccio, ambos polos estaban iluminados directamente por la luz del sol.

 

Sutiles diferencias

Este extraordinario cúmulo de circunstancias favorables han permitido a los astrónomos obtener una serie de imágenes en las que poder estudiar, de un solo vistazo, el comportamiento de ambos polos durante un periodo de tiempo determinado. El vídeo que encabeza estas líneas fue elaborado a partir de los datos y las imágenes recogidas por el telescopio espacial durante varios días de enero y marzo del año pasado.

A primera vista, las auroras del norte y del sur parecen ser simétricas. Pero un análisis más detallado de los datos permitió a los investigadores descubrir una serie desutiles diferencias entre ellas, que revelan a su vez una información muy concreta y relevante sobre el campo magnético del planeta anillado. La aurora del polo norte es algo más pequeña e intensa que la del polo sur, lo que implica que el campo magnético (del cual las auroras dependen) no se distribuye de forma regular por todo el planeta. Algo que confirma, por otro lado, los resultados obtenidos por la sonda Cassini, que lleva estudiando Saturno desde el año 2004.

Resultados científicos aparte, quedémonos con el espectáculo, que es digno de ver. El tamaño de cada aurora es enorme, mucho mayor que el diámetro de la Tierra. Y es la primera vez que los seres humanos podemos contemplar las dos al mismo tiempo.

Fuente: abc.es, 12-2-10

 

 

-Primeras imágenes de una "estrella vampiro" en acción

El momento se acerca. A 25.000 años luz de distancia, una «estrella vampiro» está absorbiendo a toda velocidad la masa de su compañera en el sistema binario conocido como V445, en la constelación de Puppis. Es tal la voracidad de la estrella que, muy cerca de sus propios límites de resistencia física, podría estallar en cualquier momento a causa del monumental «atracón». Cuando lo haga, los astrónomos esperan que sea en forma de supernova la, una de las formas de «muerte estelar» más interesantes para la ciencia. El Very Large Telescope (VLT) del Observatorio Europeo del Sur (ESO) en Chile, está siguiendo muy de cerca los acontecimientos y ha conseguido, por primera vez, capturar imágenes de este proceso de vampirismo cósmico. Imágenes que ha montado después en un vídeo que muestra la evolución del sistema a lo largo de más de dos años.

 

En concreto, el vídeo (a la izquierda) muestra cómo la «estrella vampiro» se desprende de sus capas exteriores, un síntoma muy claro de que está rozando los límites que le permiten seguir permaneciendo estable. La insaciable estrella forma parte de un sistema doble, V445, que los astrónomos consideran desde hace tiempo como una auténtica bomba de relojería. De hecho, este sistema binario es el principal candidato de que disponemos a convertirse en una supernova del tipo la, una clase especialmente adecuada para estudiar cómo la energía oscura está acelerando la expansión del universo.

 

Océanos de magma

Como Corot 7-b es un planeta, lógicamente recibe calor de su estrella no sólo por su atracción. Su órbita le lleva a apenas 2,5 millones de kilómetros de distancia de ella, cuando la Tierra, por ejemplo, orbita a cerca de 150 millones de kilómetros del Sol. Es decir, que está extraordinariamente cerca. Observaciones anteriores registran temperaturas de mil grados centígrados sobre su superficie. Esto es los suficientemente caliente «para que haya estanques e incluso océanos de magma», afirma Barnes. El infierno es aún mayor en la cara del planeta que siempre mira su estrella (de la misma forma que la Luna, atrapada por el campo de gravedad de la Tierra, nos da siempre la misma cara). Los científicos creen que en esa cara existen mares de lava fundida, y en la otra, la oculta, una gran actividad volcánica que puede causar estragos.

Stan Peale, profesor emérito en la Universidad de California en Santa Bárbara y uno de los científicos que había previsto el vulcanismo en la luna Io antes de ser detectado por la sonda Voyager, cree que las conclusiones de Barnes son «viables». Sin embargo, «si Corot-7b tiene realmente vulcanismo activo va a ser muy difícil de probar en estos momentos». Barnes apunta que quizás el telescopio espacial Spitzer sea capaz de ver los gases procedentes de Corot-7b, aunque es una tarea complicada «porque el planeta está muy lejos».

Fuente: abc.es, 9-2-10

 

 

-En busca de organismos sintéticos inmortales

DARPA, la agencia del Pentágono a la que con frecuencia se la apoda «el brazo loco de la ciencia», ha encarado un proyecto que podría culminar con la creación de «organismos sintéticos inmortales». La agencia busca reescribir las leyes de evolución en beneficio de las fuerzas militares, creando organismos capaces de vivir para siempre. Los investigadores a cargo dicen que estos seres podrían ser eliminados simplemente accionando un interruptor molecular.

La Defense Advanced Research Projects Agency (DARPA, o Agencia de Proyectos de Investigación Avanzada de la Defensa) siempre se ha caracterizado por encarar los proyectos más extraños que puedan concebirse. El último del que se tiene noticia ha sido dotado con 6 millones dólares y busca crear un biodiseño que sea capaz de eliminar «la aleatoriedad de avance evolutivo natural», según publica Wired. El plan es relativamente simple de explicar, pero seguramente muy difícil de lograr: se trata de emplear la biotecnología para crear criaturas modificadas genéticamente que posean células «reforzadas» capaces de vivir indefinidamente.

Los científicos han logrado algunos avances que podrían realmente llevar a la creación de una criatura así. O al menos, de células que sean capaces de vivir prácticamente para siempre. Sinceramente, es muy dificil lograr un organismo superior complejo -como un insecto o un mamífero- que sea inmortal, pero es posible que puedan conseguir «algo» compuesto por un puñado de células que no muera nunca.

 

Por supuesto, la sola idea de que algo así este dando vueltas por ahí basta para intranquilizar hasta el más confiado, por lo que en DARPA han pensado en poner algún tipo de límite a su creación: una «fecha de caducidad» o «mecanismo de autodestrucción» que en determinadas circunstancias puedan matar al monstruo. Además, cada uno tendría una especie de «número de serie único» a nivel de su ADN, que serviría para identificarlo, mas o menos de la misma manera que el numero de serie grabado en una pistola permite saber quien es su dueño.

¿Suena descabellado? Lo es. Muchos de los proyectos de DARPA tienen cierto grado de locura implícita. Pero no hay que engañarse: un buen numero de ellos terminan convirtiéndose en realidad. En este caso, el proyecto forma parte de un nuevo programa de biología sintética que ya ha recibido una financiación global de 20 millones de dólares que debería, entre otras cosas, «adelantar varias décadas la velocidad con la que podemos secuenciar, analizar y editar el genoma celular». Lograr «adelantarse» a los procesos evolutivos normales no es imposible. De hecho, cientos de organismos genéticamente modificados producen alimentos y medicinas cada día. Sin embargo, la creación de organismos nuevos e inmortales es ir un poco más allá. ¿Que ocurriría si por algún error estos seres «evolucionan» quitándose de encima su «fecha de caducidad»?

Fuente: abc.es, 8-2-10

 

 

 

-Un extraño pez gigante filmado por primera vez en su entorno natural

Un grupo de científicos ha avistado por primera vez en su entorno natural una Regalecidae o pez remo, un extraordinario y escurridizo pez que puede llegar a medir 17 metros -es uno de los más largos del mundo-, dotado con una prominente aleta dorsal que le da una inusual forma de serpiente. El equipo, en el que participan investigadores de la Universidad de Lousiana (Baton Rouge, EE.UU.) logró filmar al animal en aguas del Golfo de México cuando exploraba las profundidades marinas.

 

Las Regalecidaes o peces remo (glesne Regalecus) son tremendamente largas y su aspecto, tan parecido al de una serpiente, pudo haber originado los mitos de monstruos marinos que los antiguos marineros se encargaron de dispersar por todo el mundo. Cuando los investigadoers descubrieron un especimen en el Golfo de México casi no podían creerlo. En un principio, confundieron al pez con un tubo de perforación. «Vimos un objeto luminoso y brillante, parecía una tubería enorme, pero pronto nos dimos cuenta de que se trataba de un pez», explica el profesor Mark Benfield a la BBC. La sorpresa del investigador es comprensible, especialmente si se tiene en cuenta de que ejemplares de esta especie sólo se habían visto con anterioridad en contadas ocasiones, y siempre agonizando en la superficie del mar o y ya muertos y arrojados por las olas a la costa.

El equipo siguió al pez durante cinco minutos antes de que se rompiera el contacto. La Regalecidae nada a una gran velocidad de forma ondulante gracias al impulso de su aleta dorsal.

Fuente: abc.es, 8-2-10

 

 

-Resaca por la pandemia de la gripe A

La primera pandemia del siglo XXI ha superado su fase crítica con menos coste humano del previsto, y no son pocas las voces que acusan a la OMS de venderse a los laboratorios.

México hizo saltar las alarmas el pasado 13 abril cuando confirmó la primera muerte de una persona a consecuencia de un nuevo virus gripal, el H1N1, de origen porcino. Los infectados se extendieron por todo el mundo como la pólvora y, en apenas cuatro semanas, la Organización Mundial de la Salud (OMS) declaró la primera pandemia del siglo XXI. El tiempo ha puesto al virus en su sitio y, de momento, no ha resultado tan peligroso como se temía.

Pero si el coste humano ha sido menor del esperado, no ha sucedido lo mismo con la factura económica que han tenido que pagar los gobiernos y la misma OMS por los medicamentos y vacunas para prevenir y tratar la nueva gripe. Buena parte de la opinión pública internacional sospecha que la gestión de la OMS puede responder a intereses de las compañías farmacéuticas, un juicio que no comparten las autoridades sanitarias de España y México.

“Creo que la OMS actuó correctamente y gracias a la alerta la pandemia se ha contenido”, afirmó ayer la ministra de Sanidad española, Trinidad Jiménez. “Las cosas se fueron haciendo con suma prudencia. Si el daño no fue tan grande, fue porque estábamos preparados”, corroboró el secretario de Salud de México, José Ángel Córdova.

Con estas afirmaciones, ambos políticos cerraron filas entorno a la máxima autoridad sanitaria mundial. Córdova también excusó a la industria de haber presionado a los gobiernos: “Había que preparar una vacuna rápidamente, y además de calidad sin dejar a un lado la inmunización frente a la gripe estacional. Había que negociar, y no creo que se haya buscado el beneficio de la empresa”.

La cuestión es que ahora, cuando la actividad del virus H1N1 es muy baja, muchos gobiernos se han encontrado con un excedente de vacunas cuyo destino no está claro. Córdova indicó que México dispone de 30 millones de vacunas –“los primeros cinco millones nos los prestó Canadá”, recordó–, y muchas se administrarán en embarazadas. España compró 37 millones de dosis, con un coste de 270 millones de euros.

Finalmente, el pedido ha quedado reducido a 13 millones y sólo se han vacunado tres millones de personas de los 10 millones estimados. “Las vacunas son el gran descubrimiento del siglo XX y ponerlas en cuestión es irresponsable. Los informes de farmacovigilancia no han detectado más reacciones con la vacuna de la gripe A que con la de gripe estacional”, subrayó la ministra.

Miedo a la vacuna
Jiménez explicó que las reticencias de los europeos frente a la vacuna de la gripe A contrastan con la actitud de los estadounidenses, quienes “siguen acudiendo a los centros a que les vacunen. Además, las farmacias ofertan la vacuna a un precio de 18 dólares. Son comportamientos de mundos diferentes”.

En cualquier caso, ambos responsables insistieron en el interés de sus respectivos países en la fabricación de vacunas. México cuenta con una planta en la que se producen vacunas frente a la polio, la rabia y la gripe y “en 2012 estaremos en condiciones de comercializar grandes cantidades”, dijo el secretario de Salud. Trinidad Jiménez aseguró que “sigue en pie el compromiso para crear una planta de producción de vacunas en Granada. La compañía Rovi nos ha confirmado que el acuerdo sigue vigente, aun está buscando un socio”.

Pero si un país ha resultado especialmente perjudicado por la pandemia ha sido México. José Ángel Córdova cifró en el 0,7% el PIB el impacto negativo de la gripe A. “El turismo y el comercio se han visto muy perjudicados por el mero hecho de cumplir con el reglamento internacional y comunicar la situación en las primeras horas. Otros países tenían unas circunstancias similares, pero el impacto no fue el mismo”. Por ello, apuntó la posibilidad de que México pudiera recibir algún tipo de compensación de la comunidad internacional.

En España, el virus H1N1 tuvo su pico máximo en septiembre y octubre. Hasta comienzos de año, habían fallecido 271 personas. Ahora, la enfermedad está por debajo del nivel epidémico, pero las autoridades sanitarias se resisten a bajar la guardia.

Fuente: Expansion.com. 8-2-10

 

 

-Identificadas las primeras variantes genéticas relacionadas con el envejecimiento

Una persona puede tener 70 años pero un organismo y unas células propias de alguien de 50, o viceversa. La primera es la edad cronológica, la que figura en el DNI y se celebra con tartas y velas. La segunda es la edad biológica y viene marcada por el envejecimiento celular. Ahora, un grupo de científicos acaba de identificar, por primera vez, unas variantes genéticas relacionadas con esta última edad de los humanos, un descubrimiento que abre nuevas vías para investigar algunas enfermedades relacionadas con la vejez.

El equipo de investigadores, dirigidos por el profesor Nilesh Samani, del departamento de Ciencias Cardiovasculares de la Universidad de Leicester (Reino Unido), llevó a cabo un análisis de más de 500.000 variaciones genéticas del genoma humano en dos cohortes europeas con 2.917 participantes y luego comprobaron sus hallazgos en otros 9.492 participantes.

Lo que han descubierto, según cuentan en la revista 'Nature Genetics', son unas variantes, localizadas todas cerca del mismo gen -el TERC-, que hacen que las personas que las portan tengan los telómeros más cortos. Los telómeros son parte de los cromosomas y su longitud se considera un marcador de la edad biológica. Cuanto más cortos sean, más 'ancianos' hacen a nuestro organismo.

Según los autores, los telómeros tienen una fuerte determinación genética -entre un 40% y un 80%- y aunque todos nacemos con una longitud determinada de estas estructuras, luego va variando a medida que cumplimos años y las células se van dividiendo. "Lo que hemos hecho es identificar unas variantes genéticas que acortan los telómeros y los hacen biológicamente más viejos", explica Samani.

"Dada la asociación que la ciencia ha establecido entre el acortamiento de los telómeros y el riesgo de sufrir ciertas enfermedades, como las coronarias o algunos tumores, nuestro estudio lanza la cuestión de si los individuos que portan esta variante también tienen más posibilidades de enfermar", añade.

"El trabajo sugiere que algunas personas están genéticamente programadas para envejecer más rápido. En concreto, la menor longitud de sus telómeros equivalen a tres o cuatro años de edad biológica", señala Tim Spector, del King's College London, que también ha participado en la investigación. No obstante, también recuerda que además de la genética, en el envejecimiento celular influyen otros factores como "el tabaco, la obesidad o el estilo de vida sedentario".

Fuente: elmundo.es, 7-2-10

 

- ¿Fue Brahe asesinado?

 

Tycho Brahe

 

Los restos del astrónomo renacentista danés Tycho Brahe, que está enterrado en Praga desde su muerte en 1601, serán exhumados para tratar de averiguar la verdadera causa de su muerte, según informó este viernes la prensa local. El ayuntamiento de la capital checa y el arzobispado de Praga han dado el visto bueno a una petición cursada por el arqueólogo danés Jens Vellev, de la Universidad de Aarhus, señala el diario 'Pravo'.

Veller y un equipo de especialistas checos exhumarán el próximo otoño los restos del científico danés , que se encuentran enterrados en la iglesia de Nuestra Señora de Tyn de Praga. Brahe (1546-1601) fue uno de los astrónomos más renombrados del comienzo de la Edad Moderna, junto con Galileo Galilei y Johannes Kepler, y contribuyó con ellos a validar la Teoría Heliocéntrica.

Misteriosa muerte

Sus observaciones sobre de la órbita de Marte, realizadas en la corte praguense del Emperador Rodolfo II de Habsburgo, fueron más adelante utilizadas por Kepler para descubrir las dos primeras leyes que llevan su nombre. La repentina muerte de Brahe el 24 de octubre de 1601 está envuelta hasta hoy en el misterio. Primero se dijo que había muerto por problemas urinarios pero la primera exhumación de su cuerpo, realizada en 1901, reveló un alto contenido de mercurio en su bigote, atribuido a la experimentación de Brahe con nuevos elixires y que le podría haber causado una intoxicación. Pero según el reciente trabajo de un historiador danés, se baraja ahora la tesis de que un lejano familiar de astrónomo, el noble Erik Brahe, lo asesinara por orden del rey Kristian IV.

Fuente: elmundo.es, 7-2-10

-Aprender con YouTube

El portal de vídeos más famoso de la red no es sólo una plataforma de diversión  |  En YouTube es posible aprender de todo: desde trucos de pequeño bricolaje hasta clases de física  |  La enseñanza virtual ya compite con la tradicional

No es un profesor a la antigua, de los que entran en el aula a primera hora de la mañana con el maletín de cuero y se sientan a dar una charla con traje y corbata. El maestro del que vamos a hablar ahora es un poco más moderno: habla a través de la pantalla del ordenador, tiene varias identidades y sabe un poco de todo. Se llama YouTube.

Muchos usuarios consideran esta página web como un mero espacio de entretenimiento, donde se pueden ver vídeos divertidos o curiosos de aquellos personajes que tengan ganas de exhibirse, para reír o compartir. Pero YouTube en la actualidad es mucho más que eso. A través de sus contenidos es posible aprender cosas sencillas y muy útiles, como hacerse el nudo de la corbata, cocinar una tortilla de patatas, recogerse el pelo en un moño para salir de fiesta. Y no sólo: los más exigentes encontrarán ahí también los entresijos más complejos del saber: clases magistrales de universidad y cursos de idiomas o para tocar instrumentos.

YouTube ya es uno de los tres sitios con más tráfico en el mundo. Desde su nacimiento, su evolución ha sido exponencial. En el 2006 servía unos 100 millones de vídeos al día. En la actualidad ofrece 1.000 millones diarios. Se han visto más de 100.000 años de vídeo desde su nacimiento, con lo que hay que saber buscar, porque su oferta es casi ilimitada. Su popularidad no para de crecer. Se suben 13 horas nuevas de vídeo cada minuto: esto supone 18.000 horas de contenido extra que se generan cada día. "En YouTube se puede aprender de todo. Desde descubrir cuál es la mejor manera de maquillarse hasta escuchar una conferencia de un prestigioso profesor de una reputada universidad extranjera", hace notar María Ferreras, responsable en España de YouTube. Ante tanta oferta, es casi imposible hacer un listado de los cursos más populares. Por lo general, los conocimientos muy específicos o de nicho son los que reciben más visitas. Por poner un ejemplo, según explicaba Ferreras, en España arrasa El cocinero fiel: en un vídeo casero, un chico explica de forma concisa y eficaz cómo preparar platos de toda la vida. Asimismo, las lecciones del ingeniero Leopoldo Abadía sobre la crisis económica están muy cotizadas. Ferreras también señala una conferencia de un profesor de la Universidad de Navarra de 48 minutos que ha recibido 30.000 visitas. Nada mal si se compara con el número de asistentes de un auditorio convencional. "Muchos científicos usan YouTube para poner a prueba sus investigaciones a otros colegas y así enriquecer el debate. Es como si se llevara a cabo un trabajo de equipo para avanzar en la investigación", afirma. En su opinión, YouTube "es ideal para consultas concretas, consejos, trucos para autodidactas, pero también es un método complementario para los cursos de mayor calado".

¿Quiénes son los fanáticos de YouTube? Según el estudio ¿Quiénes son los youtubers? llevado a cabo por la consultora TNS, la edad media de los usuarios es de 25 a 49 años. Se trata de un público de mediana edad, con inquietudes e interés por aprender. El resultado desmonta el estereotipo según el cual internet es una herramienta exclusiva del mundo juvenil. La responsable de ventas de YouTube, Nathalie Picquot, destacaba que "mucha gente piensa que nuestro usuario es más joven, pero no es así. Los youtubers son muy interactivos, pinchan mucho en la pantalla. Van a esta página a entretenerse y les encanta sorprenderse". Quien acude a YouTube casi siempre ve más de un vídeo y hace caso de los enlaces relacionados. "Se trata de gente muy curiosa. Muchos van a visitar una web de algo que han visto en un vídeo", dice Ferreras.

Hecha esta premisa, no es de sorprender el auge que están teniendo estos vídeos de carácter educativo u orientado al aprendizaje. Tanto es así , que este año YouTube ha lanzado un nuevo apartado, llamado YouTube/edu. Allí los alumnos y estudiantes autodidactas pueden conectar con profesores de reputación mundial, independientemente de su localización geográfica o del centro universitario al que pertenezcan, fomentando el intercambio de ideas, como si estuvieran en un aula global. En la página es posible encontrar conferencias académicas que hace años eran inaccesibles para la mayoría. A su vez, los centros de enseñanza adquieren a través de esta plataforma visibilidad y repercusión a escala mundial. "Uno de los valores añadidos que vemos en YouTube es la posibilidad de extender nuestros contenidos a millones de personas a diario", explicaba a The Wall Street Journal Ben Hubbard, de la Universidad de California.

Al margen de Youtube, las universidades han olfateado el potencial de la red. De hecho, muchas de ellas han desarrollado su propio canal de vídeo en internet, donde salen sus profesores dando clases y hasta corrigiendo exámenes, con lo que el usuario puede valorar sus habilidades. ¿Qué es lo más visto de estos cursos académicos? Según los rankings, tiene mucho éxito entre los internautas un vídeo de la Universidad de Minnesota sobre los avances científicos que salen en la película Watchmen, seguido por las últimas novedades en las investigaciones sobre el sida. Como se ve, hay mucho donde elegir. En la Universidad Berkeley hay más de 300 horas disponibles en internet. La Universidad de Washington ofrece clases de mitología griega o de la revolución Americana. La de Nebraska, de economía... Según la web Academicearth.org, estos autodidactas virtuales tienen intereses muy diversificados: en el área más humanista, cursos sobre justicia, muerte y guerra civil; en ciencias sociales, los conflictos de pareja y psicología, y en ciencia, la rama de ordenadores y programación. Noes necesario saber inglés: en páginas como Ted.com se distribuyen conferencias de prestigiosos oradores con traducción y subtítulos.

Aprender a través del vídeo en internet presenta indudables ventajas. Según el estudio de hábitos de internet realizada por Red de Blogs, Ocio Networks, el 85% de los encuestados aseguraba sobre internet: "Me ayuda a formarme". Las nuevas generaciones no sólo observan y aprenden, sino que participan, comparten, interactúan y la red, en este sentido, es la herramienta idónea. En YouTube el nivel de atención es muy elevado, porque se sigue el vídeo minuto a minuto. Debido a la naturaleza del formato, el vídeo puede llegar a ser más atractivo que el libro. Como recordaba el filósofo Umberto Galimberti, "mirar es más fácil que leer". No sólo: gracias a la multimedialidad de la red, se oye el sonido de un instrumento o un acento de un idioma extranjero, lo que representa un plus respecto al tradicional manual de papel.

Además, a través de la red, siempre es posible enviar comentarios y preguntas sobre determinado tema y mirar las dudas de los otros usuarios (que se quedan grabadas, a diferencia de lo que ocurre, por ejemplo, en un aula universitaria tradicional). Para ello, no es necesario desplazarse a ningún centro o esperar a una hora determinada para recibir la clase: el aprendizaje a través de internet puede darse en cualquier lugar y a cualquier hora, incluso a través del móvil (basta con descargarse un programa para bajarse los vídeos de YouTube en el celular, por ejemplo a través de la página web Softonic.com).

Ofrecer cursos de vídeo en internet puede ser también un negocio para quien sube los contenidos a la web. En efecto, al hacerse socios de YouTube, los autores de los vídeos, que mantienen sus derechos, cobran parte de los ingresos de los enlaces publicitarios y algunos hasta acaban dando charlas en conferencias. Más allá de YouTube, hay un número creciente de profesionales que han creado sus propios canales de vídeo en la red y con la ayuda de patrocinadores ya ofrecen cursos gratuitos de fotografía o de idiomas, por ejemplo. Para el usuario, aparte del ahorro en términos de costes, los beneficios son múltiples. "YouTube permite el aprendizaje en tiempo real y con contenidos que están puestos al día. Pero este modelo está incluso destinado a ser superado por otros sistemas aún más interactivos. De hecho, hay profesores en Skype que chatean con sus alumnos", recuerda Alejandro Suárez Sánchez-Ocaña, de la empresa Ocio Networks. La pregunta, más bien, ante la multitud de posibilidades que ofrece la tecnología, es cómo asegurarse de que los alumnos absorban la información de manera correcta. En este sentido, Suárez Sánchez-Ocaña no duda de la capacidad de aprendizaje de los usuarios. "Desde un punto de vista neuronal, podemos mantener relaciones con 30 personas cercanas y hasta 130 lejanas. Pero las próximas generaciones podrán duplicar estas cifras. La capacidad neuronal será superior. Es cuestión de entrenamiento", asegura Sánchez-Ocaña.

Por lo tanto, vamos hacia una forma de aprendizaje distinta respecto a la tradicional. "Lo físico, en cuanto soporte, no tiene valor añadido: lo que tiene valor añadido es la posibilidad de interactuar, algo que a través de las nuevas tecnologías ya es posible.

Sin tener en cuenta que al estar delante de un ordenador, paradójicamente, hay más concentración, menos ruido, dispersión distracción", indica Suárez Sánchez-Ocaña. También Farreras subraya la ventaja que supone el diálogo entre los internautas. "Se han dado casos de cursos de fotografía en YouTube en los que los usuarios pedían más información sobre un tema y al final el usuario ha acabado colgando otro vídeo", cuenta Ferreras.

Sin embargo, no todo son rosas. El aprendizaje a través de YouTube o, en general, a través de internet tiene su límite. Sebastian Triviere es máximo responsable de la firma Educa-systems, empresa que proporciona enseñanza a domicilio, desde idiomas hasta cualquier otra asignatura, según el clásico modelo de enseñanza presencial y cara a cara. En su opinión, hay que distinguir. "Por un lado está el el e-learing o la universidad virtual: consiste en un programa de curso diseñado y estructurado. Por el otro está YouTube, donde todo está al alcance de forma gratuita. Enel primer caso, estamos ante un curso virtual, pero dirigido a un alumno definido. En YouTube, en cambio, el vídeo es para todo el mundo. Yo creo que en este caso el aspecto personal de la enseñanza se pierde", afirma.

Triviere es un firme defensor de las relaciones humanas tradicionales entre maestro y alumno. "Un profesor, sobre todo cuando hablamos de enseñanza particular, lo primero que hace es poner una batería de preguntas para entender qué es lo que necesita el estudiante, cuáles son sus necesidades, su entorno, sus problemas, sus exigencias. Enel vídeo, en cambio, nadie te hace preguntas. Se genera material, pero no hay nada como tener un profesor", sostiene. "El contacto personal es esencial para transmitir emociones, la comunicación no verbal. Es como leer un programa político o tener al político que viene a tu casa a explicarte el programa: en cuanto a persuasión, el impacto en los dos casos es claramente distinto. Sólo con internet, es difícil despertar motivación, interés, constancia", opina. Otro punto de fricción es sobre la calidad de los contenidos, que a veces son discutibles. Es cierto - objetan los partidarios de la educación on line- que los mismos usuarios señalan con su puntuación si el vídeo colgado en YouTube vale la pena. A su vez, las redes sociales también actúan como filtro al seleccionar lo más relevante. ¿Pero son de fiar? La universidad californiana de Pitzer College es la primera en ofrecer un curso sobre YouTube, donde los alumnos tienen que analizar los vídeos de la web y su repercusión social, "para estudiar el potencial de la expresión en medios democráticos de comunicación". Pues bien, Alexandra Juhasz, responsable académica, reconoce que este portal tiene puntos débiles: "Me preocupa que el nivel educativo de las discusiones baje, como ocurre a menudo con los contenidos y comentarios de YouTube", afirmaba en una entrevista.

El futuro, como apunta Trivere, parece orientarse hacia el método híbrido. Es decir, integrar la enseñanza on line con el tradicional cara a cara. Como material de apoyo, YouTube puede aportar muchas posibilidades. De hecho, algunos profesores de lengua lo usan, de forma ocasional para trabajar sobre las letras de las canciones. Y para consultas concretas, dudas o argumentos específicos, el portal de vídeos también puede tener su validez. Pero es difícil - lo mismo ocurre, con Wikipedia- que sólo a través de YouTube alcancemos la excelencia. "Sigo pensando que no hay nada como hablar una hora con el profesor en lugar de ver su conferencia por la red", afirma Triviere. Dicho eso, YouTube e internet están a disposición para complementar la enseñanza. A base de un clic.

Fuente: lavanguardia.es, 6-2-10

 

 

-El Gobierno indio y la Comisión europea apoyan a Pachauri

El primer ministro de la India, Manmohan Singh, ha pedido a los países ricos que tomen medidas más intensas en la lucha contra el cambio climático y les ha instado a brindar más asistencia financiera y técnica a los países pobres para lograr un acuerdo internacional satisfactorio. "Los países industrializados deben reconocer más claramente su papel histórico en la acumulación de gases", afirmó Singh.

Pachauri (I) abraza al ministro de Medio Ambiente indio, Jairam Rames, en Nueva Delhi. | AP

 

Asimismo, ha defendido la labor del jefe del Panel Intergubernamental para el Cambio Climático (IPCC) de la ONU, el indio Rajendra Pachauri. Varios medios británicos e indios han cuestionado su credibilidad y le han acusado de incompatibilidad de intereses y de mantener un estilo de vida que casa mal con la defensa del medio ambiente.

Durante la inauguración del 'X Foro de Desarrollo Sostenible de Delhi', el primer gran encuentro global sobre el clima tras Copenhague, Singh ha afirmado que Pachauri es un "líder capaz y con visión a largo plazo", y también ha prometido que la India "no ahorrará esfuerzos en contribuir al éxito del proceso post-Copenhague".

"Algunos aspectos de la ciencia reflejada en el IPCC han sido criticados. Pero el debate no afecta a las proyecciones básicas del IPCC sobre el impacto de la acumulación de los gases de efecto invernadero sobre la temperatura, la lluvia y el nivel del mar", alegó Singh. "Déjenme afirmar que la India tiene plena confianza en el proceso del IPCC y su liderazgo, y lo apoyará de cualquier forma que pueda".

En su Cuarto informe de análisis, el IPCC afirmó inadecuadamente -citando un artículo de revista- que el cambio climático causaría la desaparición de los glaciares del Himalaya en el año 2035, lo que ha situado al organismo bajo una fuerte polémica.

"Decepcionado por Copenhague"

El primer ministro inauguró el foro con un largo discurso en el que dijo sentirse "decepcionado" por los "logros limitados" de la conferencia del clima de Copenhague de diciembre de 2009. La clave estriba ahora, según Singh, en asegurar que se cumple lo prometido para no "desacreditar todo el proceso".

A Nueva Delhi se han desplazado varios dirigentes europeos, como el presidente esloveno Danilo Turk, los primeros ministros finlandés, Matti Vanhanen, noruego, Jens Stoltenberg, y griego, George Papandreu, y también la secretaria de Estado española para Cambio Climático, Teresa Ribera.

El Foro Delhi es el primer gran encuentro sobre el clima tras Copenhague, aunque en enero Nueva Delhi ya acogió una reunión de ministros de Sudáfrica, Brasil, India, y China -el llamado grupo BASIC- en la que estos pidieron un rápido desembolso de los 10.000 millones de dólares comprometidos en 2010 para los países pobres.

"Pediría -dijo Singh- una mayor asistencia financiera y técnica a los países en desarrollo, tanto sobre medidas de adaptación para afrontar las consecuencias de esas emisiones, y sobre mitigación para reducir su contribución a futuras emisiones".

Apoyo de la UE y de la ONU

Desde Bruselas, la Comisión Europea (CE) ha respaldado el criterio científico IPCC pese a los errores detectados en datos clave. "Es el informe sobre cambio climático más creíble que existe", aseguró este viernes la portavoz comunitaria de Medio Ambiente, Barbara Helfferich, en referencia al estudio del IPCC acerca del efecto del dióxido de carbono (CO2) en la temperatura del planeta.

"La CE apoya las pruebas científicas del informe del IPCC. Hemos tomado nota de los errores de los que se ha informado y los hemos corregido", afirmó Helfferich. "Hay miles de científicos que apoyan estas pruebas y la metodología científica es clara y correcta", añadió.

También Naciones Unidas ha defendido este viernes el trabajo de los científicos del IPCC. El responsable del programa de Medio Ambiente de la ONU, Achim Steiner, ha dicho que las críticas al IPCC y a su jefe, Rajendra Pachauri, han alcanzado proporciones de una 'caza de brujas'.

Fuente: elmundo.es, 5-2-10

 

 

-El tumultuoso nacimiento de las galaxias espirales

Más de la mitad de las galaxias espirales adquirieron esta peculiar forma hace 6.000 millones de años, tan sólo 1.500 millones de años antes de que se formara el Sol, por lo que se supone que en un pasado reciente, en términos cósmicos, hubo muchas colisiones y fusiones galácticas. Fue un momento muy tumultuoso en el Universo.

Algunas de las galaxias espirales captadas por el telescopio 'Hubble'. |ESA |NASA

 

Esta es la conclusión a la que han llegado un grupo de astrónomos europeos que ha realizado un censo de las galaxias captadas por el telescopio espacial 'Hubble', que la NASA y la Agencia Espacial Europea tiene a 600 kilómetros de la Tierra.

El estudio de las formas de las galaxias ha sido objeto de un gran debate en Astronomía, análisis en el que se ha venido utilizando la conocida como Secuencia de Hubble, una clasificación creada en 1926 por el astrónomo Edwin Hubble, a quien debe su nombre el satélite. Una de sus categorías son las galaxias en espiral. Los investigadores, bajo la batuta del francés François Hammer, del Observatorio de París, han recogido el censo de todas las galaxias observadas que existen desde antes de la formación del Sol y la Tierra hasta nuestros días.

En total, muestrearon 116 galaxias cercanas y 148 muy distantes y comprobaron que la secuencia (o clasificación) de Hubble era muy diferente en el pasado:"Hace 6.000 millones de años había muchas más galaxias peculiares que ahora", afirma Rodney Delgado-Serrano, uno de los firmantes del artículo publicado en Astronomy & Astrophisics. "Esto significa que desde entonces esas galaxias han conseguido tener espirales", añade.

Los expertos especulan que fueron los choques y fusiones entre ellas las que dieron lugar a sus formas actuales. Rafael Bachiller, director del Observatorio Astronómico Nacional, apunta que "cuando el Universo era pequeño y más compacto, esas colisiones eran más frecuentes, por lo que pueden ser el origen de las espirales". Ello debió ocurrir en un momento caótico estelar. Tras los choques, las galaxias lentamente renacían como espirales, con un bulbo denso, un disco a su alrededor y brazos.

Todo apunta a que la Vía Láctea, también espiral, se ahorró este drama juvenil: su formación fue mucho más tranquila, sin grandes colisiones. Nuestra vecina Andrómeda, sin embargo, si habría pasado por ese violento escenario.

"Aunque la razón última de la creación de tantas formas espirales siga siendo debatida, estas observaciones ofrecen una bella ilustración de la omnipresencia de la espiral en la naturaleza, en particular a escalas cósmicas", concluye Bachiller.

Fuente: elmundo.es, 5-2-10

 

 

-Las huellas más antiguas del mundo

Tienen 565 millones de años y son la prueba más antigua que tenemos hasta el momento de animales desplazándose por sus propios medios. Se trata de huellas fósiles descubiertas en rocas de la localidad de Newfoundland, en Canadá, por un equipo internacional de científicos dirigido por expertos de la Universidad de Oxford. Los investigadores, que acaban de publicar su hallazgo en Geology, han identificado cerca de setenta rastros que indican que algunas antiquísimas criaturas eran capaces de desplazarse de forma parecida a como lo hacen las anémonas actuales por los fondos marinos del Periodo Ediacárico.

"Las marcas que hemos encontrado -asegura Alex Liu, uno de los firmantes del artículo- indican claramente que estos organismos podían ejercer alguna clase de control muscular durante la locomoción. Y eso resulta excitante porque es la primera evidencia que tenemos de que criaturas que vivieron en este periodo tan temprano de la historia de la Tierra tenían una musculatura que les permitía desplazarse de un lugar a otro y les capacitaba, por lo tanto, para cazar en busca de alimento o huir de unas condiciones locales adversas. Pero lo más importante es que esas criaturas eran, con toda probabilidad, animales".

En su trabajo, los investigadores comparan las huellas a las que deja una moderna anémona marina, la Urticina, y subrayan similitudes que permiten suponer que los animales que dejaron esos rastros también eran físicamente parecidos a las anémonas, quizá utilizando un pie en forma de disco como hacen sus parientes actuales.

Parecidos a los hongos actuales

Las pruebas que indican una capacidad de los animales para moverse libremente y a su antojo son muy raras cuando se habla del Cámbrico (entre hace 542 y 488 millones de años), lo que ha llevado a muchos paleontólogos a pensar que los organismos primitivos eran estacionarios y más parecidos a los hongos actuales que a cualquier otra criatura.

 

Por eso, encontrar evidencias de movimiento voluntario en el Periodo Ediacárico (es decir, cerca de treinta millones de años antes del Cámbrico), es algo realmente significativo, ya que arroja algo de luz sobre la oscuridad que envuelve al periodo que precede a la llamada "explosión del Cámbrico", durante la cual surgieron todos los tipos de animales que conocemos en la actualidad y también otros cuya herencia se extinguió mucho antes de llegar al presente.

"Aún no somos capaces de decir qué organismo del Ediacárico dejó estas huellas -afirma Alex Liu- pero representan una clara evidencia de que aquellas criaturas tenían músculos que daban a sus blandos cuerpos algo de rigidez. Y también es una prueba de que la ecología de este antiguo entorno marino era bastante complejo, quizá de una complejidad más propia de épocas muy posteriores".

Parece claro, concluye el científico, que estas antiguas rocas de los tiempos en que las formas de vida empezaban a hacerse complejas "tienen aún muchas cosas nuevas que contarnos".

Fuente: abc.es, 5-2-10

 

 

 

-Las 12 caras de Plutón

 

Plutón es un mundo ocre cuya superficie cambia muy rápido a medida que enormes masas de hielo se desplazan de un polo a otro. Así lo indican las fotos más detalladas que se han conseguido hasta ahora de este cuerpo celeste en los confines del Sistema Solar.

Las imágenes fueron tomadas por el telescopio espacial Hubble entre 2000 y 2002 y las presentó ayer la NASA, justo el día en el que el descubridor de Plutón cumpliría 104 años. Se llamaba Clyde Tombaugh, era estadounidense e incluyó a Plutón en el elenco de planetas del Sistema Solar en 1930. Más de cien años después, Plutón dejó el olimpo para convertirse en un planeta enano por decisión de la Unión Astronómica Internacional (UAI). Fue una de las decisiones que más polémica han causado dentro y fuera de los círculos astronómicos, y sus ecos siguen resonando, ya que muchos se niegan a reconocer esa autoridad.

"Las nuevas imágenes no servirán para restituir a Plutón", explica en un correo electrónico Mike Brown, uno de los astrónomos que presentaron las fotografías. "Las imágenes nos dicen que no tiene que ser un planeta para ser interesante", añadió el astrónomo, que se jacta de ser el hombre que "mató" a Plutón.

 

Color real

Las imágenes muestran el color real del planeta enano. "Si estuvieses en una nave espacial cerca de Plutón, este es el color que verías", explicó el astrónomo Marc Buie durante la presentación. Las partes más brillantes son monóxido de carbono que están a unos -230ºC. Las más oscuras son concentraciones de nitrógeno y metano en las que el termómetro sube hasta -213ºC.

Las 12 caras de Plutón son el resultado de más de 300 fotografías. Han sido reprocesadas con 20 ordenadores durante cuatro años, señalaron los expertos de la NASA. Son lo más detallado que se verá en la Tierra hasta 2015. Ese año la sonda de la NASA New Horizons sobrevolará la superficie plutoniana y tomará fotografías con una resolución nunca vista. Muchos de los que aún se resisten a llamar enano a Plutón confían en que ese día cambien las cosas para siempre.

"Creo que 2015 va a ser un año problemático para la postura de la UAI", señala Mark Sykes, director del Instituto de Ciencia Planetaria de Tucson (EEUU) y acérrimo defensor de Plutón. Señala que no sólo la sonda New Horizons traerá sorpresas, sino también la sonda Dawn que explorará Ceres. Según Sykes, este planeta enano también debería ser considerado un planeta.

Tras degradar a Plutón, la UAI creó la nueva categoría de planeta enano para englobarlo a él, a Ceres y Eris. Según algunos expertos, los tres deberían tener el rango de planeta. Para otros, aceptar a Plutón abría la veda para que el olimpo de los ocho planetas del Sistema Solar se llenase hasta perder toda entidad.

Decisión política

"Fue una decisión más política que científica", recuerda José Juan López Moreno, astrónomo del CSIC. "Yo no lo hubiera quitado porque tampoco pasa nada por incluir más planetas en la lista".

La decisión de enanizar a Plutón fue tomada por mayoría y a mano alzada durante el congreso de la UAI de 2006 en Praga. Allí se redefinió lo que significa ser un planeta. Plutón quedó fuera porque, a pesar de tener forma esférica y girar alrededor del Sol, hay otros cuerpos en su órbita, es decir, que no es lo suficientemente dominante como para "barrer su vecindario", como lo describen algunos expertos.

La decisión fue denostada por astrónomos, geofísicos y ciudadanos de a pie, que montaron manifestaciones espontáneas para que se limpiase el nombre de Plutón. Las alegaciones aseguraron que sólo una minoría de los miembros de la unión estaba allí para votar y que muchos otros expertos ni siquiera pertenecen a ella.

"Lo que tenga que decir la UAI sobre esto es irrelevante", explica a Público Alan Stern, investigador principal de la misión New Horizons de la NASA. En enero de 2006, Stern y sus compañeros eran los orgullosos responsables de la primera sonda que llegaría a Plutón. En agosto, tras la decisión de la UAI, la sonda se había quedado sin planeta de destino. En los días de la reclasificación, Stern advirtió de que Plutón no era el único que tenía escombros en su órbita. La Tierra, Marte, Júpiter y Neptuno también tienen cuerpos en sus recorridos, señalaba.

Desde entonces, el debate tiende frecuentemente a lo emocional. "La UAI no es como la Santa Madre Iglesia y sus pronunciamientos no deben ser aceptados por todo el mundo", advierte Sykes. Explica que algunos expertos están intentando que la UAI revise su definición por miedo a que dañe su credibilidad como referencia mundial en astronomía. "A pesar de ello, a la mayoría de los que disentimos no nos importa lo que hagan", añade. "La UAI no va admitir su error, pero eso es irrelevante", confiesa Stern. "Plutón es considerado un planeta por gente real, científicos reales y educadores reales, sin importar lo que digan", apostilla.

"Siempre habrá gente a la que disgusten algunas decisiones y esos serán los que más alto se quejen", contesta Brown. Desde 2006, el astrónomo de Caltech imparte una charla titulada Por qué maté a Plutón y por qué se lo merecía. Poco antes de la presentación de ayer, y según confesó, recibió un correo electrónico que le preguntaba: "¿Por qué mataste a Plutón?".

"Muchos estadounidenses no aceptan que Plutón sea un planeta enano porque fue un americano el que lo descubrió", advierte José Luis Ortiz, investigador del Instituto de Astrofísica de Andalucía. Asegura que "fuera de EEUU, entre el 70% y el 80% de los expertos está de acuerdo en que Plutón es un planeta enano". Aunque Ortiz apoya la decisión de la UAI, señala que se tomó de forma precipitada: "Debería haberse dejado más tiempo para mejorarla porque aún hay cosas por madurar".

Con la mejora constante de los telescopios terrestres y espaciales, el número de planetas fuera del Sistema Solar no hará más que crecer, lo que puede reavivar el debate, comenta el experto. "Puede que, al final, Plutón vuelva a ser un planeta", concede, aunque piensa que, con la llegada de más candidatos, las definiciones tenderán a hacerse más restrictivas. "Deberían reconsiderarlo, pero sin prisa", concluye.

R2, el robot que pasó de astronauta a ensamblador

El Robonauta 2 (R2) es una máquina con forma humanoide desarrollada por la NASA y la compañía automovilística General Motors, que fue presentada ayer. La versión original fue diseñada hace diez años con el propósito de enviar el artefacto a misiones de investigación espacial. Sin embargo, su tarea original ha sido sustituida por la fabricación de coches. El nuevo modelo es más fuerte, más hábil y con una tecnología más avanzada. Cada uno de sus brazos es capaz de soportar más de nueve kilos de peso y sus pulgares son oponibles. Estas características hacen que sus creadores consideren al R2 como una herramienta idónea para trabajar en plantas de cadenas de montaje, como las automovilísticas. “Se trata de conseguir coches más seguros y plantas más eficaces”, afirmó ayer el videpresidente de Investigación y Desarrollo de General Motors, Alan Taub. “Nuestro desafío es construir máquinas que puedan ayudar a los humanos en su trabajo”, explicó el director del Centro Espacial Johnson de la NASA, Mike Coats.No obstante, la agencia no ha olvidado su propósito inicial y también espera poder utilizar a R2 en futuras misiones espaciales. “La tecnología punta en robótica representa una gran promesa, no sólo para la NASA, sino para toda la nación”, manifestó el administrador de Sistemas, Misiones y Exploración de la agencia, Doug Cooke. “Estoy muy emocionado con las nuevas oportunidades para humanos y para la exploración espacial que estos robots tan versátiles nos pueden proporcionar”, concluyó Cooke.

Una pelota gélida en los confines del Sistema Solar

-225ºC temperatura media
Los científicos estiman que la temperatura sobre la superficie de Plutón es de unos -225ºC, lo que lo convierte en uno de los lugares más fríos del Sistema Solar.

39 veces la distancia Tierra-Sol
Plutón está tan lejos de la Tierra como la distancia que hay entre nuestro planeta y el Sol multiplicada por 39, un total de 5.869.660.000 kilómetros.

2.300 km diámetro
Su diámetro es de 2.300 km, la quinta parte del de la Tierra.

Fuente: publico.es, 5-2-10

 

-Salvemos la libertad científica

El climagate se está calentando. Los escépticos que niegan el cambio climático han encontrado algunos errores científicos en la investigación sobre el calentamiento global. El último informe del Panel Intergubernamental sobre el Cambio Climático (IPCC) incluyó unos resultados que predecían que los glaciares del Himalaya se iban a fundir 2035, y que se han demostrado falsos, según admite el propio panel. También han aflorado posibles errores en unos datos de medición tomados por las estaciones meteorológicas chinas, e incluidos en el mismo informe del IPCC.

Pero también la Tierra se está calentando. Nada de lo anterior modifica las conclusiones generales del IPCC, que siguen contando con el respaldo mayoritario de los científicos. Pero sí revela que la presión ambiental y política sobre la cuestión del cambio climático ha llevado a los investigadores a unas prácticas de comunicación científica discutibles, o al menos discutidas. La duda es si esta situación perturba la libertad intelectual que debe regir en el debate científico.

El propio presidente del IPCC, Rajendra Pachauri, está recibiendo presiones para dimitir. El centro científico que dirige, el Instituto de Energía y Recursos de Nueva Delhi, tiene conexiones con algunas empresas que pueden beneficiarse del impulso a las energías renovables. Estos lazos, según los climaescépticos, constituyen un conflicto de interés.

El climagate empezó en noviembre, cuando unos hackers colgaron en la Red 10 años de correos electrónicos internos del Centro de Investigación del Clima de la Universidad de East Anglia (Reino Unido). Un correo del entonces director de la unidad, Phil Jones -que luego dejó el cargo a causa del escándalo-, decía: "Acabo de completar el truco de Mike en Nature de añadir la temperatura real a cada una de las series para los últimos 20 años, y desde 1961 para las de Keith para ocultar el descenso".

El diario The Guardian afirma ahora que la revisión de miles de correos electrónicos ha revelado "graves errores" en los datos de medición tomados por las estaciones meteorológicas chinas. Los científicos de East Anglia habían incluido estos resultados en un trabajo publicado en 1990, que después fue usado por el Panel Intergubernamental sobre el Cambio Climático (IPCC) en su informe de 2007, para apoyar su tesis de un rápido calentamiento de la superficie terrestre durante las últimas décadas.

El climaescéptico Douglas Keenan requirió a Jones los resultados tomados por las estaciones meteorológicas chinas. Según Keenan, Jones no facilitó los datos. La Universidad de East Anglia lo niega, y asegura que la unidad del clima sí aportó "los datos de temperatura y la localización de las estaciones meteorológicas". Pero esto sólo parece ser cierto para 10 de los 105 requerimientos que hizo Keenan.

Hay más puntos denunciados por los climaescépticos. Según éstos, el IPCC sostiene que el calentamiento global ha causado un incremento de las pérdidas económicas debido a los temporales y otros fenómenos extremos, algo que, a su juicio, no está demostrado. El panel, sin embargo, rechaza esta acusación por basarse en una cita "fuera de contexto". También plantean dudas sobre la validez de las predicciones respecto a la reacción de la Amazonia a los cambios ambientales.

Jones sigue sosteniendo que sus resultados son válidos, y niega que su grupo ocultara datos relevantes. "El trabajo que hacemos en esta universidad sólo es una pequeña parte de la ciencia del clima, y hay miles de científicos en todo el mundo que apoyan nuestros resultados", declaró ayer Jones a la BBC. Pero también admitió su preocupación por estos escándalos, y dijo: "Cualquier trabajo que hagamos a partir de ahora será sometido a un examen muy minucioso".

La revista Nature, que publicó buena parte de los estudios ahora cuestionados, no ha encontrado motivos para revisarlos. Las conclusiones del IPCC se basan en miles de resultados, que incluyen fenómenos tan evidentes como el retroceso de los glaciares, el acelerado deshielo del Ártico o el cambio en la migración de las especies. Los 3.000 principales climatólogos del mundo coinciden en que el cambio climático existe, y respaldan las conclusiones del IPCC.

"El asunto se está saliendo de madre", dice Manuel de Castro, climatólogo de la Universidad de Castilla-La Mancha en Toledo. "Yo no puedo saber lo que ha hecho Phil Jones con los correos, ni si ha retenido información relevante o no; lo que es obvio es que hay mucha gente que está radicalmente en contra del IPCC y del calentamiento global, y que se han agarrado a un clavo ardiendo".

De Castro no cree que el climagate afecte en nada a las conclusiones del IPCC sobre el calentamiento de la superficie terrestre, y ofrece dos argumentos. Primero, que el artículo de Jones de 1990 "es sólo uno de los 15 trabajos que usa el IPCC para sustentar sus conclusiones sobre el calentamiento de la superficie terrestre; y las conclusiones son prácticamente las mismas en el estudio de Jones y en todos los demás. Hay miles de científicos del clima. Todo el mundo no puede hacer trampa".

El segundo argumento es más técnico, pero afecta justo al fondo del asunto: los datos de las estaciones meteorológicas chinas. El climaescéptico Keenan los cuestiona porque algunas de esas estaciones estaban junto a grandes núcleos urbanos, y por tanto podían estar reflejando el incremento de temperatura local, debido a la ciudad, y no una tendencia general de la superficie terrestre.

De Castro señala, sin embargo, que el calentamiento de origen urbano sólo se refleja en las temperaturas mínimas. Y que, desde 1980, éstas han evolucionado en paralelo con las temperaturas máximas, que no son de origen urbano. "Por tanto, si hay un efecto de origen urbano en las medidas del calentamiento de la superficie terrestre, es muy pequeño". De modo que, aun cuando las acusaciones de los climaescépticos fueran ciertas, el fondo de la cuestión no tendría mucha sustancia.

Miguel Ángel Losada, de la Universidad de Granada, es un científico muy crítico con una de las conclusiones más importantes del último informe del IPCC: que la principal causa del calentamiento global son las emisiones de CO2 y demás gases de efecto invernadero. Pese a ello, no ve el menor indicio de mala práctica en los científicos de East Anglia.

"No hay ningún truco en la presentación de los datos por Jones y su equipo", dice Losada en referencia al mensaje electrónico de Jones que causó el escándalo (Acabo de completar el truco de Mike...). "Los investigadores juegan con los datos para ver cómo responde el modelo; y esto no sólo es buena práctica científica, sino que es imprescindible en un sistema tan complejo como el clima".

Losada explica que las conclusiones del IPCC sobre el calentamiento de la superficie terrestre se basan en miles de datos tomados en condiciones distintas. Es precisamente el hecho de que que algunas estaciones estén cerca de las ciudades y otras no lo que fuerza a dar distinto peso a unos datos u otros. Y esto no se hace de forma arbitraria, sino con técnicas estadísticas muy consolidadas. No hay truco en el mal sentido.

Michael Schlesinger, climatólogo de la Universidad de Illinois, dijo ayer a este diario: "Lo peor que podríamos hacer es tomar un enfriamiento natural, a corto plazo, por una refutación de que la Tierra se está calentando a largo plazo por la actividad humana. Y que esto nos llevara a abandonar el principal objetivo, que es superar la era de los combustibles fósiles tan pronto como la economía lo permita". Schlesinger añade que renunciar a esas políticas "dejaría un legado de calentamiento global a nuestros hijos, nuestros nietos y muchas generaciones más, que probablemente no podrán revertir, y por el que probablemente no nos podrán perdonar".

Las incertidumbres son parte de cualquier actividad científica, y más en un sistema con tantas variables como el clima. Por ejemplo, algunos científicos -entre ellos el propio Schlesinger- discrepan del IPCC en que, según ellos, la corriente del Golfo será una de las primeras víctimas del calentamiento global. La razón es el deshielo de los casquetes polares y de los glaciares de Groenlandia, que vierten caudales de agua dulce en el Atlántico Norte. La salinidad del agua allí es necesaria para que el agua superficial de la corriente del Golfo (que procede de zonas tropicales) se hunda y vuelva a viajar hasta los trópicos bajo la superficie del Atlántico, cerrando el ciclo.

Schlesinger cree que el comportamiento futuro de la corriente del Golfo dependerá del ritmo de fusión de la hoja de hielo de Groenlandia. "El bloqueo de la corriente del Golfo se ha considerado hasta ahora como un suceso de grandes consecuencias pero escasa probabilidad", dice. "Pero nuestro análisis, incluso descontando las incertidumbres, indica que se trata de un suceso de grandes consecuencias y alta probabilidad".

Según los resultados de Schlesinger, la hoja de hielo de Groenlandia no sobrevivirá al tercer milenio, "o no mucho, según el futuro escenario de control de emisiones que uno elija".

La NASA publicó en 2004 unas mediciones por satélite que apoyaban la tesis de que el flujo de la corriente del Golfo puede haberse aminorado ya como consecuencia del deshielo. "El sistema de circulación oceánica del Atlántico Norte se ha debilitado notablemente en los últimos años noventa respecto a las dos décadas anteriores", concluyó en la revista Science el equipo del Centro de Vuelos Espaciales Goddard de la NASA. "Ignoramos si esta tendencia forma parte del ciclo natural o se debe a factores relacionados con el calentamiento global".

Pero los datos de la NASA han sido muy discutidos por otros científicos del clima. La posición del IPCC en su último informe es que no cabe hablar del "bloqueo" de la corriente del Golfo en un plazo previsible. Si acaso podría darse un "debilitamiento" de su flujo, pero "incluso en los modelos en que la corriente del Golfo se debilita, la predicción sigue siendo que Europa se calentará".

Pero otras discrepancias recientes se mueven en sentido contrario al deseado por los climaescépticos. Por ejemplo, los climatólogos creían hasta el año pasado que todo el planeta se estaba calentando con la excepción de la Antártida, y que la mayor parte de este continente se estaba enfriando. Pero científicos de la NASA y la Universidad de Washington mostraron, combinando los datos de satélites y estaciones en tierra, que no es así. Durante los últimos 50 años, la Antártida se ha estado calentando a un ritmo parecido al del resto del mundo. "Pero la gente estaba calculando de cabeza", explicó entonces Eric Steig, director del Centro de Investigación del Cuaternario de la Universidad de Washington. "Nosotros hemos hecho las matemáticas con cuidado, en vez de usar el reverso de un sobre, y añadiendo los datos del satélite". Con esto, resulta que la Antártida Occidental se ha estado calentando una décima de grado centígrado por década desde 1957, o medio grado de promedio en los últimos 50 años.

Las polémicas y las hipótesis refutadas son cotidianas en la ciencia. Hablar de trucos en un correo electrónico no es, probablemente, la mejor forma de presentarlas en público. Habrá que buscar otras.

Fuente: elpais.com, 4-2-10

 

 

-El nido estelar gigante más próximo al sol

A 22.000 años luz del Sol, es decir, muy cerca en términos astronómicos, hay una región donde están formándose continuamente estrellas a partir de grandes nubes de gas y polvo. Es una de las nebulosas más luminosas y compactas de nuestra Vía Láctea y la más cercana de este tipo a la Tierra, lo que facilita su investigación, porque se conocen otras regiones así en otras galaxias pero la mayor distancia impide analizarlas con detalle. El observatorio europeo VLT, en Paranal (Chile), ha fotografiado ahora esta región, denominada NGC 3603, con alta resolución. Una de las estrellas que hay allí es la más masiva de la galaxia, que se sepa, con casi 120 veces más masa que nuestro Sol.

El conjunto estelar NGC 3603, fotografiado con uno de los telescopios VLT, del

observatorio europeo de Cerro Paranal (Chile)- ESO

NGC 3603 proporciona una excelente foto de familia estelar porque, aunque todas las estrellas tienen la misma edad (aproximadamente un millón de años, frente a los 5.000 millones que tiene el Sol), unas están aún en fase de formación, otras desarrollan su vida adulta y otras están ya moribundas, explica el Observatorio Europeo Austral (ESO), propietario del VLT. Esta variedad de estadios de la población de astros, aunque tengan la misma edad, se debe a las diferencias de masa: las estrellas más masivas queman muy rápido su combustible nuclear, viven deprisa y mueren pronto, en comparación con las menos masivas, que no lucen tanto y están más frías.

La estrella más masiva de NGC 3603, esa que tiene una masa 120 veces superior a la solar, forma parte de un sistema binario con una compañera de 89 masas solares, y ambas giran una alrededor de la otra cumpliendo una órbita completa cada 3,77 días.

En el centro de la nebulosa, intensamente iluminada por las estrellas masivas que alberga, hay miles de astros, la mayor parte de ellos de masa similar o inferior al sol. Pero también hay muchas supergigantes azules, incluso unas cuantas de ellas se concentran en un espacio inferior a un año luz cúbico.

Fuente: elpais.com, 3-2-10

 

 

-Astronautas de la NASA SA

Las empresas de transporte espacial existen desde hace décadas, ya dependemos de ellas, los militares les confían sus instrumentos y armas más preciados y caros, los demás les confiamos nuestros carísimos satélites meteorológicos, de comunicaciones o científicos. Ahora se trata de confiarles también el transporte de personas a la órbita baja de la Tierra. Si no tenemos miedo de volar en un avión no hay por qué temer hacerlo en un vehículo espacial comercial hasta los 300 ó 400 kilómetros de altura. Con estos argumentos, altos cargos del Gobierno de Obama y de la NASA defendieron ayer el nuevo rumbo que quieren imprimir a los vuelos espaciales tripulados, un giro estratégico que llevaba años gestándose pero que implica cambios tan grandes en la NASA que ningún presidente se había atrevido a proponerlo.

Ha tenido que ser la necesidad de ahorrar en un marco de grave crisis económica el factor determinante para la decisión de Obama. "¿Qué ganaremos?", se preguntó ayer el director de la NASA, Charles Bolden. Y contestó: "Menos impuestos, muchos puestos de trabajo muy cualificados y que los empresarios financien el desarrollo comercial de los vuelos tripulados". ¿Y serán los astronautas también empleados de las empresas? No es descabellado que lo sean, pero nadie respondió ayer a esa pregunta, porque queda mucho por decidir, reconoció Bolden. "El presidente nos ha pedido que elaboremos estrategias detalladas en cada área en las próximas semanas", comentó en el National Press Club en Washington.

"Yo, y el presidente también, estoy convencido de que este nuevo rumbo es el correcto en este momento", dijo John Holdren, asesor científico de Obama. "No es un retroceso respecto a lo anterior, es procurarnos nuevas oportunidades para llegar más allá en el espacio, más deprisa, con más seguridad y con menos gastos".

El salto comercial, largamente deseado por el sector aeroespacial estadounidense, desmitifica los vuelos tripulados, basados en tecnologías que llevan 50 años utilizándose en el sector civil y pueden seguir siendo desarrolladas por la empresa privada. Y además, reconoce tardíamente que no se debieron abandonar los cohetes de un solo uso, como el Saturno que permitió a EE UU alcanzar la Luna. Esa decisión, en favor de los transbordadores, hace que ahora el país tenga que depender de los vehículos rusos, basados en el mismo concepto, para ir y volver de la Estación Espacial Internacional (ISS).

La vida de este laboratorio en órbita se quiere alargar hasta 2020, al tiempo que se fomenta su explotación como base científica y tecnológica. Europa también podría mejorar su vehículo de carga ATV, ya probado, para transportar astronautas, pero no ha habido más que conversaciones preliminares con Estados Unidos (que ni siquiera tiene todavía algo parecido), que no han llegado a nada.

Muchos dudan de que el país se ahorre dinero a corto plazo y que se creen muchos puestos de trabajo con el nuevo rumbo, pero el de la seguridad es el aspecto más polémico. ¿Cómo garantizará la NASA la seguridad de los tripulantes de la ISS, que es ahora el único destino al que se puede ir en órbita baja de la Tierra? Según Bolden, las empresas harán vuelos de demostración, igual que en la aviación civil, antes de ser autorizadas a hacer vuelos comerciales, ya sea contratadas por la NASA o para otros usos, como el turismo espacial. "Me comprometo a que todo se hará de forma eficiente y segura", dijo solemnemente.

 

Ares I, lanzado en Octubre

La nueva estrategia gubernamental significa el sacrificio del programa Constellation del Gobierno Bush, cuyo objetivo era volver a la Luna en 2020. En los nuevos cohetes Ares y las cápsulas Orion para tripulantes, que nunca volarán si el Congreso aprueba el plan de Obama, se han invertido ya 9.000 millones de dólares (6.400 millones de euros). En 2011 se han presupuestado otros 2.500 millones para terminar el programa, con las indemnizaciones previstas en los contratos. El portavoz de la Oficina de Presupuestos aseguró ayer que no tenía sentido seguir con un programa que significaba repetir lo que ya se ha hecho (pisar la Luna) y que, además, iba retrasado y no dispuso nunca de los fondos suficientes.

En vez de eso, se incrementan los fondos para un salto tecnológico que la NASA considera imprescindible. Un salto en sectores como el de materiales, la propulsión y las comunicaciones que no es fácil ni siquiera imaginar, a pesar del optimismo de los responsables de la agencia espacial respecto a las "osadas ideas y conceptos" que proponen "las mejores mentes del país".

"Reharemos la base de la exploración espacial y estableceremos nuevas formas de negocio para hacerla sostenible", aseguró Bolden. A continuación, presentó a "los pioneros" con los que están trabajando. Son las empresas que ya tenían contratos con la NASA para avanzar hacia la comercialización de vuelos, por mandato del Congreso, y las nuevas que acaban de recibir contratos centrados en el desarrollo de cápsulas para astronautas. "La colaboración con empresas no es una idea nueva, ya se estaba haciendo, pero ha llegado el momento de hacerlo a lo grande", dijo el ex astronauta. ¿Y cuál es la nueva misión de la NASA? Pues adelgazará mucho, desde luego, y se concentrará en los grandes desafíos, en dar instrumentos para la exploración de nuevas fronteras, según la versión oficial.

Space X y Orbital Sciences son las dos empresas que llevan varios años desarrollando cohetes y vehículos de carga para la ISS, con contrato con la NASA, y sus representantes se mostraron ayer optimistas sobre el futuro, ya que pretenden hacer los primeros vuelos en 2010. Sin embargo, ni siquiera los cohetes se han probado todavía.

Boeing y Lockheed

Ahora, con los fondos destinados a la recuperación económica, la NASA ha dado contratos por valor de 50 millones de dólares, que son pocos pero constituyen los primeros pasos para desarrollar cápsulas tripuladas. Una de las empresas pretende hacer una cápsula hecha íntegramente con materiales compuestos (fibra de carbono), como los aviones más avanzados. También se desarrollarán sistemas de vigilancia y de escape para los astronautas en caso de que algo vaya mal, así como sistemas para el soporte de vida.

Mientras, los gigantes del sector -Boeing y Lockheed Martin - ven más cerca su ya antiguo sueño de utilizar las versiones más pesadas de sus cohetes más nuevos, el Delta y el Atlas, para llevar astronautas. Cuando se hicieron los primeros lanzamientos de esos cohetes, encargados por la Fuerza Aérea de Estados Unidos, ambas empresas tenían la esperanza de que la NASA les solicitara esta misión, pero faltó la iniciativa política que impidiera la situación actual: EE UU se quedará en unos meses sin medios propios para alcanzar la órbita baja, cuando se retire el transbordador tras los cinco vuelos que le faltan. Y la NASA calcula que hasta 2016, como pronto, no habrá recambio "hecho en América", como dijo ayer Bolden.

 

Salto tecnológico

Nuevos contratos de la NASA para cápsulas tripuladas con nuevas tecnologías:

- Blue Origin : Mitigación de riesgos. 3,7 millones de dólares.

- Boeing : Cápsula para siete personas. 18 millones.

- Paragon : Sistema de soporte de vida. 1,4 millones.

- Sierra Nevada : Avión espacial Dream Chaser para cohete Atlas. 20 millones.

- United Launch : Sistema de emergencia para cohetes Atlas y Delta. 6,7 millones.

Fuente: elpais.com, 3-2-10

 

-Resuelven el enigma de cómo las células viejas dan lugar a nuevas

Unos investigadores han descubierto de qué manera las células madre viejas y deterioradas son capaces de dar lugar a células hijas nuevas y sanas, un proceso enigmático para la ciencia hasta ahora. Esta revolucionaria investigación fue financiada en parte por la Unión Europea y se ha publicado en la revista Cell.

Sus resultados han revelado que las células de levadura se valen de un mecanismo semejante a una cinta transportadora para traspasar proteínas dañadas a las células madre antes de dividirse y dar lugar a nuevas células durante la mitosis.

«Así la célula hija nace exenta de daños relacionados con la edad», explicó el director de la investigación, el profesor Thomas Nyström del departamento de biología celular y molecular de la Universidad de Gotemburgo (Suecia). Su equipo científico ya había publicado numerosos estudios sobre el envejecimiento celular, pero este nuevo trabajo se centra en la pieza clave de este rompecabezas.

La investigación forma parte de los proyectos financiados con fondos comunitarios MIMAGE («Función de las mitocondrias en mecanismos conservados del envejecimiento»), financiado con 7,4 millones de euros, y PROTEOMAGE («Análisis funcional de mecanismos del envejecimiento conservados durante la evolución en relación con el análisis avanzado del proteoma»), al que se adjudicaron 10,7 millones de euros por medio del área temática «Ciencias de la vida, genómica y biotecnología aplicadas a la salud» del Sexto Programa Marco (6PM).

Este trabajo saca a relucir que las células hijas emplean estructuras similares a cintas transportadoras para traspasar las proteínas dañadas a sus células madre, de tal manera que las nuevas células «nacen» jóvenes y sanas.


«Antes se pensaba que estas estructuras posibilitaban el tráfico en un único sentido de proteínas y orgánulos de células madre a hijas», informó el profesor Nyström. «Ahora hemos demostrado que también se transportan jproteínas deterioradas en dirección contraria. En principio esto significa que la célula hija utiliza a la madre como "vertedero" de toda la basura generada en el proceso de envejecimiento, lo cual permite que la nueva célula nazca sin daños relacionados con la edad.»

Los autores han puesto de manifiesto que se trata de un proceso de transporte mecánico basado en unas estructuras denominadas cables de actina que funcionan como si de cintas transportadoras se tratase. Para que estos cables se formen adecuadamente se necesita un gen específico denominado SIR2. Estudios anteriores han demostrado que modificando el SIR2 se puede prolongar considerablemente la vida de un organismo.

«Si aumenta la actividad de SIR2 se prolonga la vida; si SIR2 está dañado se acelera el envejecimiento», señaló el profesor Nyström. «Se ha demostrado en estudios sobre levadura, gusanos, moscas y peces y podría cumplirse también en el caso de los mamíferos.»

El profesor Nyström opina que el descubrimiento de este sistema de devolución de proteínas dañadas a las células madre podría conducir a largo plazo a tratamientos contra enfermedades de los humanos relacionadas con la edad y causadas por la toxicidad de proteínas, aunque aún es demasiado pronto para aventurar cómo.

«El primer paso consiste en estudiar si este transporte de proteínas dañadas se produce también en las células de mamíferos, en los que se engloban los humanos, por ejemplo cuando se forman las células sexuales y las células madre», indicó.

Los proyectos financiados con fondos comunitarios MIMAGE y PROTEOMAGE contaron con un total de 31 socios de 12 países de la UE más Canadá y China.

Fuente: CORDIS, 2-2-10

 

 

-Cae el dogma: Nuevas respuestas a viejas cuestiones

La combinación de mutación al azar y selección natural es una de las más extrañas y estériles producciones de la ciencia. Empero, es crucial para el mantenimiento del edificio que a menudo se viene llamando “moderna teoría evolutiva” (identificado a diestro y siniestro como darwinismo).

 

La exaltación del azar es la cruz de una moneda de uso corriente en el darwinismo que en su cara presenta la imposibilidad de la herencia de caracteres adquiridos. Los organismos son interpretados así como entidades casi-impermeables al ambiente cuyas fuentes de variación importan poco y se basan en las extrañas teorías de Weismann, un influyente biólogo y eugenista alemán que, sin fundamento experimental alguno, proponía que la línea germinal es independiente de la somática y que la experiencia del individuo no puede influir en cambios heredables.

Junto con la selección natural, las mutaciones al azar (y su contrapartida, la imposibilidad de la herencia de caracteres adquiridos) constituyen la esencia del darwinismo. Por primera y puede que única vez en la historia de la ciencia, el azar fue invitado a ocupar un lugar de privilegio, un auténtico trono. A su lado, en otro trono semejante se sienta la tautología.

Pero todo cambia y para dar lugar al cambio, nuevas respuestas surgen respondiendo a viejas preguntas.

En este caso las viejas preguntas son:

¿Es cierto que las mutaciones son al azar? ¿Qué pruebas existen en favor de ello?

Un reciente artículo en Proceedings of the Royal Society B, titulado “Even small SNP clusters are non-randomly distributed: is this evidence of mutational non-independence?” indica que el dogma comienza a quebrarse. El artículo se ha destacado en The Scientist con un comentario titulado:

Are mutations truly random?

Veamos aquí, de momento, tan solo como comienza el comentario. Lean una de sus primeras frases y reflexionen acerca de si es o no compatible con los esquemas al uso acerca de cómo debe operar la mentalidad científica. La frase dice:

Do genetic mutations really occur at random spots along the genome, as researchers have long supposed?

¿Es lícito utilizar de esta manera el verbo suponer, como si el suponer ya diera algún derecho para mantener una idea?

¿Tiene algún sentido la frase “as researchers have long supposed”?. Si lo tiene, entonces a qué researchers se refiere? ¿A todos? ¿A los de alguna escuela en particular? ¿O es que todos los researchers debemos ser obedientes con determinadas suposiciones?

Si leen el artículo, irán viendo cómo el pilar fundamental de un dogma se empieza a quebrar. En años sucesivos veremos cómo cae entero. Primero, las mutaciones no tienen por qué ser siempre al azar. Luego, la herencia de caracteres adquiridos puede ser algo mucho más normal y habitual de lo que se ha “supuesto”, aunque sus mecanismos se desconozcan (por no haberse investigado).

Finalmente, la selección natural es incapaz de aportar nada nuevo puesto que es una tautología.

Fuente: blog "biología y pensamiento", 1-2-10

 

-Una investigadora revela que Cristobal Colón era hijo de la aragonesa Isabela de Alagón y nació en Cerdeña

La investigadora turolense Marisa Azuara Alloza reveló hoy las conclusiones de un estudio sobre el origen del descubridor del Nuevo Mundo Cristóbal Colón que concluye que "es hijo de la aragonesa Isabela Alagón y Salvador Piccolomini" y añadió que Cristóbal Colón tuvo que nacer en la "demarcación genovesa de la isla de Cerdeña".

La autora del estudio desestimó otros progenitores que se barajaron en la época y aseveró que Colón fue fruto de un matrimonio legítimo porque de haber sido hijo fruto de una relación espuria hubiera constado en todos los documentos oficiales.

Sin embargo justifica la pervivencia de este enigma sobre la procedencia de Colón porque "tanto sobre su familia paterna, como materna había recaído la pérdida de su estado y la ignonimia de ver sus blasones infamados por una sentencia infundada de felonía y lesa majestad".

En el siglo XV "era la peor desgracia inimaginable" destacó la autora para explicar que suponían una "traición al soberano que era el crimen más grave de la reglamentación penal, semejante al magnicidio en nuestra época". "Hasta tal punto determinó aquella sentencia su vida que le obligó a callar los apellidos de sus antecesores, además de constituir un mayorazgo para dar origen a un nuevo linaje nobiliario, a exigir el patrocinio de la Corona de Castilla en la empresa descubridora y a vetar la participación del rey de Aragón en el proyecto".

Durante el discurso de inauguración de la apertura del curso académico 2010 de la Real Academia de Nobles y Bellas Artes de San Luis, la investigadora aportó otros datos que "certifican" la procedencia aragonesa de Colón. Entre los más significativos dijo que en las cartas de pago emitidas por la Corona de Castilla aparece catalogado como extranjero, mientras que en ninguno de los dos documentos despachados por la Corona de Aragón figura tal denominación".

A pesar del aprecio que sentía por la reina Isabel "únicamente la consideraba consorte del rey y jamás usó el tratamiento individual soberano para dirigirse a ella, en cambio a Don Fernando se lo aplicaba continuamente". En una visita al convento de Santa María de la Rábida dejó varios escritos en los que "intercala puntuaciones, expresiones y palabras propias de la lengua autóctona de la Corona de Aragón desconocidas en la Castilla del siglo XV".

Otros datos que aportó Marisa Azuara señalan que Colón puso el nombre de su progenitor al primer territorio descubierto y el de su madre a la primera ciudad fundada, dos aspectos que "entran dentro de los parámetros habituales". En la investigación también alude a la relación de Colón con el valenciano Rodrigo Borgia, que fue el Papa Alejandro VI, y los tratos que mantuvo con los conversos aragoneses.

El presidente de la Real Academia de Nobles y Bellas Artes de San Luis, Domingo Buesa, indicó en su discurso que el objetivo es ser una "institución del siglo XXI que contribuya a que sus integrantes sean los embajadores de la cultura de la Real Academia".

Buesa recalcó que la finalidad es "dar respuesta firme a las demandas culturales del momento que demande la sociedad" y reclamó que en este propósito "no podemos ir solos sino con la cercanía del Gobierno de Aragón y el Ayuntamiento de Zaragoza", cuyos máximos responsables asistieron al acto a los que Buesa recordó que están vinculados a la Real Academia por un decreto de Carlos IV.

Fuente: lavanguardia.es, 1-2-10

 

-El cerebro humano emplea redes para representar redes en el espacio

Científicos financiados en parte por la Unión Europea han logrado identificar por vez primera un tipo de células  que ejercen las funciones de mapa espacial en el cerebro humano. El descubrimiento, publicado en un artículo en la revista Nature, puede aclarar cómo crean las personas mapas mentales al adentrarse en entornos desconocidos.


El estudio, realizado por un equipo del University College de Londres (Reino Unido), se basó en técnicas de imagen cerebral y realidad virtual para identificar dichas «células de red». Se trata de neuronas especializadas que, según se cree, intervienen en la memoria espacial y que ya se habían detectado en el cerebro de roedores, aunque hasta ahora no se había documentado su existencia en humanos.

«Es como si las células de red generaran un mapa cognitivo del espacio. De hecho, estas células son similares a las líneas que señalan la latitud y la longitud en los mapas, pero en lugar de emplear una cuadrícula el cerebro las organiza en triángulos», afirmó el Dr. Caswell Barry, uno de los autores del estudio.

La investigación se financió en parte mediante el proyecto SPACEBRAIN («Codificación del espacio en redes neuronales hipocampales y entorrinales»), financiado a través del tema «Salud» del Séptimo Programa Marco (7PM). Los responsables del proyecto pretenden averiguar cómo se originan las funciones mentales complejas a partir de procesos neuronales eléctricos y químicos. Concretamente, tratarán de profundizar en los principios de la computación de microcircuitos del sistema de representación espacial de roedores. Para ello emplearán diversas herramientas de investigación informáticas, electrofisiológicas, ópticas y moleculares nuevas que nunca antes se habían utilizado para el análisis de los circuitos cerebrales.

Las células de red representan la situación de un animal con respecto a su entorno, algo que los investigadores comparan con un sistema de navegación por satélite que estuviera alojado en el cerebro. Se activan siguiendo patrones que se muestran como rejillas triangulares geométricamente regulares cuando se superponen a un mapa de la superficie por la que se ha desplazado el individuo. Fueron descubiertas en 2005 por un laboratorio noruego cuya investigación sugirió que las ratas creaban redes virtuales para orientarse en su entorno y recordar nuevos puntos en un terreno desconocido para ellas.

Durante el estudio se encargó a 42 participantes una tarea en un entorno de realidad virtual. Los investigadores programaron un entorno sencillo compuesto por un prado llano rodeado por un barranco circular. A continuación se solicitó a los sujetos que recogieran y sustituyeran objetos comunes repartidos por el entorno desplazándose por él hacia delante y hacia los lados.

El profesor Neil Burgess, director del equipo, añadió: «Se sabe que las zonas del cerebro que muestran presencia de células de red, la formación del hipocampo y otras zonas del cerebro relacionadas, nos ayudan a desplazarnos por nuestro entorno y son básicas para la memoria autobiográfica. Esto significa que las células de red pueden ayudarnos a acceder a un recuerdo determinado así como a orientarnos en nuestro entorno. Estas áreas del cerebro son también las primeras en verse afectadas por la enfermedad de Alzheimer, lo que explica por qué perderse es uno de los primeros síntomas más comunes de esta enfermedad.»


Fuente: CORDIS, 1-2-10

 

-El transplante de sangre periférica tan eficaz como la de médula

El trasplante de progenitores hematopoyéticos se ha consolidado en los últimos años como una buena alternativa al tradicional trasplante de médula ósea. Este método permite obtener células del torrente sanguíneo de un donante compatible, capaces de repoblar la médula ósea de un paciente con leucemia, de una manera más sencilla y sin necesidad de anestesia. Un estudio publicado en la revista 'The Lancet' después de 10 años de seguimiento aclara algunas de las dudas que aún podían quedar sobre su uso.

Para obtener progenitores hematopoyéticos (células madre de la sangre capaces de repoblar la médula) 'basta' con someter al donante a un tratamiento previo para multiplicar la presencia de estas unidades en su sangre y, después, extraerlas e implantarlas en un paciente con leucemia u otro tipo de tumores hematológicos.

Como explica el doctor Javier López, hematólogo del Hospital Ramón y Cajal de Madrid, esta sangre periférica tiene una ventaja sobre la de la médula ósea, y es que "ofrece una recuperación más rápida", porque tarda menos en 'agarrar'. Por eso, en la actualidad suele optarse por esta técnica para tratar a pacientes con leucemias avanzadas, para garantizar que recuperen su médula ósea cuanto antes. Mientras que en pacientes con enfermedad menos avanzada, se opta por la médula ósea, que tarda unos días más en funcionar a cambio de ofrecer un mejor perfil de seguridad.

Con el fin de aclarar qué diferencias hay entre uno y otro método a largo plazo, el Grupo Europeo de Trasplantes de Sangre y Médula (liderado desde Alemania por el doctor Birte Freidrichs) ha comparado la evolución de 329 pacientes con distintos tipos de leucemias tratados con ambos trasplantes por toda Europa entre los años 1995 y 1999.

Tras una media de 10 años de seguimiento (la más amplia hasta la fecha), los investigadores observaron que no existían diferencias en el pronóstico de supervivencia con médula ósea o sangre periférica (donadas en ambos casos por hermanos compatibles). De hecho, añaden, aunque los pacientes tratados con esta última técnica sufrieron más complicaciones de rechazo (la denominada enfermedad de injerto contra huésped), este problema no se tradujo en mayor número de muertes.

En pacientes con leucemias agudas, se observó una tendencia de supervivencia algo mejor (aunque no estadísticamente significativa) con el trasplante de médula ósea que con sangre periférica. Sólo en la leucemia mieloide crónica los resultados fueron más positivos con sangre periférica. "Estas conclusiones sugieren que existe un subgrupo de pacientes que pueden beneficiarse todavía del trasplante de médula ósea".

"Después de una década de seguimiento, la mayor incidencia de enfermedad de injerto contra huésped no se tradujo en un mayor número de muertes, ni afectó al estado general de salud de los pacientes, ni tampoco a su integración social", concluyen estos hematólogos europeos. A su juicio, sus resultados no permiten concluir por sí solos que es hora de volver a los trasplantes de médula ósea para ciertas indicaciones, pero sí que esta técnica no puede aparcarse del todo por el momento.

Fuente: elmundo.es, 1-2-10