Inicio

 

Ya puedes DESCARGAR todos nuestros PROGRAMAS DE RADIO "EL ALEPH" en la Sección NOSOTROS-PROGRAMACIÓN--

 

NOTICIAS CIENTÍFICAS


NOTICIAS DE ULTIMA HORA

--Nuevas Noticias Próximamente--

NOTICIAS EXTENDIDAS

 Marzo 2009

TITULARES DE LAS NOTICIAS DEL MES

 

Lo que debe saber del cáncer de colon

¿Quién cuidó de Benjamín?

Se reducen las esperanzas de eliminar el dióxido de carbono con la fertilización artificial del océano

La apuesta por el Gran Telescopio Europeo

El "Discovery" regresa a la Tierra

Las siete maravillas de la ciencia

La deposición de polvo calienta el Atlántico tropical

La roca que cayó a la Tierra

Luis Colina: quedan tantos agujeros negros que nunca me aburriré

Un vuelo virtual sobre Titán

Metástasis que se adelanta a la detección del cáncer

Investigadores británicos crearán sangre "sintética"

El caso "Prestige" enfada a los ecologistas

¿Y si la partícula de Dios no existe?

La estación espacial tendrá más electricidad

La NASA simula las consecuencias de un mundo sin capa de ozono

El "puzzle" de un depredador de hace 500 millones de años

Un asteroide de veinte kilómetros pasa a sólo 80000 kilómetros de la Tierra

Tres nuevas especies de bacterias... ¿extraterrestres?

Llegaron del espacio

El Discovery parte hacia la ISS con un mes de retraso

Un satélite para dibujar la Tierra perfecta

El mayor depredador del mundo surcó los mares y pesó 45 toneladas

La investigación de los fondos marinos

Pobre CD, cumple 30 años y está a punto de desaparecer

Internet ¿20 años de estupidez?

Científicos estrechan el cerco sobre la elusiva partícula de Higgs

La cirugía que jubilará al bisturí

"Google" retoca Marte

La Plataforma Oceánica de Canarias (Plocan) costará 22 millones de euros

¿Encontró "Phoenix" agua líquida?

Los peces necesitaron dos años para recuperarse del Prestige

Obama abre una nueva etapa en la investigación con células madre

Las temperaturas pueden alcanzar niveles peligrosos este siglo

Europa fabricará nanomateriales para la electrónica

La sonda Kepler inicia su búsqueda de otro planeta Tierra

China destapa el mayor cementerio de dinosaurios

Un viaje diseñado para viajes virtuales hiperrealistas

Nuevos objetivos para "Opportunity" y "Spirit" en  2009

Llega el coche eléctrico

Los volcanes submarinos como fuente de hierro

El postdarwinismo: su necesidad se basa en el conocimiento de las razones de un pasado darwinista en biología

Ambiciosa exploración del Ártico

 

Archivo

 

-Lo que debe saber del cáncer de colon

El 31 de marzo es el día elegido en todo el mundo para sensibilizar sobre el cáncer colorrectal, el más frecuente y también el que más muertes causa en nuestro país, según las últimas estadísticas. La reciente creación de una gran alianza entre varias sociedades científicas trata de hacer cambiar esta situación y recordar que la prevención, una dieta sana, y las pruebas diagnósticas adecuadas, permitirían detectar a tiempo muchos casos.

  1. ¿Por qué se origina el cáncer de colon?

    El cáncer colorrectal es el fruto de un crecimiento anómalo de las células que forman los tejidos de esa parte del aparato digestivo. El colon es la primera sección del intestino grueso, donde se siguen absorbiendo nutrientes y agua de los alimentos que hemos ingerido, como ocurre en el intestino delgado, y sirve de contenedor para el material de desecho. Este material va avanzando hasta el recto, última parte del intestino grueso, hasta que es expulsado al exterior a través del ano.

    Las células cancerosas pueden invadir y destruir el tejido que se encuentra a su alrededor. Si llegan a penetrar en el torrente sanguíneo o linfático, pueden extenderse a cualquier parte del organismo y producir daños en otros órganos. A este proceso de expansión se le denomina metástasis. El pronóstico del cáncer de colon depende en gran medida del momento de este proceso en el que se detecta.

  2. ¿Qué signos permiten identificarlo?

    Algunos de los síntomas que pueden alertar de la existencia de un tumor en el colon son los cambios en las deposiciones, la aparición de sangre en las heces, la diarrea y el estreñimiento; un dolor abdominal frecuente con sensación de gases, hinchazón o calambres, la pérdida de peso sin motivo aparente, la aparición de fiebre, el cansancio o los vómitos injustificados.

  3. ¿Quién tiene más riesgo de padecerlo?

    Los principales factores de riesgo que pueden predisponer a desarrollar un tumor en el colon son la edad (las probabilidades aumentan a partir de los 50 años), tener antecedentes familiares de cáncer de colon o de recto; haber sufrido previamente algún tipo de tumor en el colon, recto, ovario, endometrio o mama; y haber tenido pólipos en el colon u otras patologías digestivas como la colitis ulcerosa, o la enfermedad de Crohn.

    Una dieta con excesivas grasas y carne roja, poca fibra, fruta y verduras, el tabaco, el alcohol o el sedentarismo también son factores de mal pronóstico.

  4. ¿Lo sufren más hombres que mujeres?

    De los 200.000 nuevos casos que se diagnosticaron en 2007, el 57% se dio en varones; que también sufren una mortalidad un poco más elevada. Sin embargo, la diferencia es tan pequeña que los especialistas no hacen distinciones de sexo a la hora de recomendar pruebas de detección precoz a partir de los 50 años.

  5. ¿Cómo se puede evitar?

    Aunque no hay ninguna receta mágica contra el cáncer, se calcula que un adecuado programa de detección precoz, permitiría evitar hasta un 30% de las muertes que ocasiona este cáncer, sólo en España. Es decir, alrededor de 3.500 fallecimientos al año gracias a que se extirparían a tiempo las lesiones precancerosas (pólipos).

    Evitar el abuso de carne roja, comer abundante fruta, verdura y alimentos ricos en fibra o evitar hábitos como el tabaco, el sedentarismo o el alcohol también podría reducir su incidencia.

  6. ¿Qué pruebas existen para detectarlo?

    Además de un cuidadoso examen físico, las pruebas que se utilizan para diagnosticar este cáncer son el análisis de sangre oculta en heces, que consiste en mirar al microscopio la presencia de restos de sangre; un tacto rectal que permite al médico palpar cualquier masa sospechosa en el recto y, sobre todo, la colonoscopia. Este análisis permite examinar el interior del colon para detectar pólipos precancerosos o cualquier lesión anómala y extraer una muestra de tejido en caso de hallar algo sospechoso. Si sólo se observa el tramo de colon más cercano al recto (colon inferior), este procedimiento se denomina sigmoidoscopia.

    Además, en los últimos años existe una colonoscopia virtual, que permite observar el interior del colon mediante técnicas de imagen, y únicamente si se observa algo, introducir un colonoscopio para extraer el pólipo o la muestra de tejido que se quiere analizar.

  7. ¿Cada cuánto tiempo debo hacerme una colonoscopia?

    Como explica el doctor Antoni Castells, coordinador nacional de la recién formada Alianza y jefe del servicio de Digestivo del Hospital Clínic de Barcelona; primero, se debería extender el análisis de sangre oculta en heces cada dos años a hombres y mujeres de más de 50 sin ningún tipo de antecedente familiar. Sólo si la prueba diera positivo, entonces habría que realizar una colonoscopia.

    En esta población de riesgo moderado (por el hecho de tener más de 50 años), el doctor Pedro Pérez Segura, del Hospital Clínico de Madrid señala que se puede optar también por realizar una sigmoidoscopia cada cinco años o una colonoscopia cada 10. "En estos momentos se están llevando a cabo los ensayos clínicos para determinar cuál de las tres estrategias es la más eficaz".

    En el caso de los pacientes con antecedentes familiares, cuyo riesgo de desarrollar el cáncer es el doble que el de la población general, se recomiendan iniciar las exploraciones a partir de los 35 ó 40 años. En este grupo de riesgo, a veces no es suficiente la detección de sangre en heces y se recomienda iniciar el 'screening' directamente con colonoscopia. "En estos casos, la periodicidad de las pruebas la debe establecer el médico en función de la historia familiar", aconseja el doctor Castells.

  8. ¿Qué pronóstico tienen los pacientes?

    Aunque la media de supervivencia en España a los cinco años del diagnóstico es del 55%, cada caso varía según el momento del diagnóstico. La tasa de supervivencia para aquellas personas cuyo cáncer ha podido ser detectado a tiempo es del 90%; aunque menos del 40% de los casos son identificados en esta fase inicial de la enfermedad.

    Si el cáncer se ha diseminado ya a órganos o ganglios linfáticos cercanos, esa tasa disminuye a un 65%. Y si se ha extendido a órganos distantes, la supervivencia a cinco años no supera el 8%.

  9. ¿Qué hospitales españoles son los mejores para tratarse?

    "Hay centros públicos y privados de excelente calidad en España, por lo que ya no es necesario salir del país para tratarse de esta enfermedad", explica el doctor Castells. "Los hospitales españoles están muy preparados y los esquemas de tratamiento que se aplican en nuestra sanidad pública son exactamente los mismos que en los hospitales más punteros", concluye.

  10. ¿Qué avances se han producido en los últimos años?

    El doctor Pérez Segura destaca en primer lugar los avances en materia de prevención y de diagnóstico precoz, "que nos han permitido hacer una selección mejor de la población de riesgo con unos test cada vez más precisos que nos permiten ver lesiones que antes se nos pasaban". En cuestión de tratamientos, añade, "las cirugías son cada vez menos agresivas y podemos además seleccionar a los pacientes que se van a beneficiar más de cada terapia en función de su perfil genético". No sólo con nuevos fármacos quimioterápicos, "que incrementan la supervivencia y son muy bien tolerados", sino con la introducción de nuevos medicamentos biológicos, como los anticuerpos monoclonales que también han mejorado el pronóstico.

Fuente: elmundo.es, 31-3-09

 

 

-¿Quién cuidó de Benjamín?

Hace más de medio millón de años, en la sierra burgalesa de Atapuerca, nació y creció un niño muy diferente a los demás. Tenía la frente excesivamente alta, el lado derecho del cráneo muy abultado y prominente y el izquierdo, al contrario, deprimido y proyectado hacia abajo.

Cráneo del niño

Era como si alguien hubiera cogido su pequeña cabeza y la hubiera estirado por la fuerza, hasta deformarla según un imaginario eje diagonal. En el momento de su muerte (que se produjo por causas desconocidas), el pequeño tenía entre cinco y diez años. Lo que implica que tuvieron que cuidarlo y ocuparse de él durante toda su vida. Una conducta protectora y social que muchos se niegan a reconocer en nuestros lejanos antepasados.

Los padres de Benjamín (que así han bautizado los científicos al pequeño) nunca lo supieron, pero el niño sufría lo que nuestros médicos actuales llaman craniosinostosis lambdoidea, una rara enfermedad que hoy, con una población de miles de millones de personas en el mundo, afecta a seis de cada 200.000 pequeños. En aquellos tiempos, y con apenas unas decenas de miles de humanos en total, el caso de este niño debió de ser más único que raro.

La craniosinostosis es una patología muy poco común, cuyo principal rasgo consiste en la fusión prematura de las suturas entre los distintos huesos del cráneo. Una fusión que limita el crecimiento y que puede afectar al desarrollo del cerebro de múltiples formas, pudiendo a provocar retrasos físicos y psíquicos. Hoy, casi todos los bebés afectados son operados al poco de nacer. Pero hace más de medio millón de años las cosas eran muy diferentes...

Entre cinco y diez años

«El niño tenía alrededor de diez años -explica la paleoantropóloga Ana Gracia, autora principal de un estudio que hoy publica la revista «Proceedings»- Encontramos su cráneo en la Sima de los Huesos, en Atapuerca, durante la campaña de 2001. Estaba muy roto, en pedazos, pero completo». Durante el año siguiente, aparecieron más fragmentos, y hasta hace apenas cuatro meses los investigadores no consiguieron encajar el último de ellos. «Ha sido una labor larga y difícil -asegura la investigadora- un trabajo detectivesco en un terreno casi por completo desconocido».

Cuando los científicos se dieron cuenta de la enfermedad que padecía Benjamín, empezaron a surgir las preguntas. Entre ellas, una muy especial: ¿Cómo logró ese niño sobrevivir tanto tiempo? «Trabajamos mucho para establecer la edad del pequeño. Pero su capacidad craneal (1.200 cm cúbicos) y la comparación con otros individuos hallados en la sima (los cráneos 6 y 9) nos dio un mínimo de cinco años y un máximo de doce». Los investigadores determinaron también que la sutura afectada (cerca del parietal izquierdo) debió de fusionarse entre las semanas 28 y 34 de gestación.

Benjamín (o Benjamina, su sexo está aún por determinar) nació con su problema, y su supervivencia hasta el momento de su muerte dependió de cuidados externos. «Es difícil saber -explica Ana Gracia- si el niño sufría algún tipo de discapacidad asociada a su patología. Hoy, todos los casos se operan dentro del primer año de vida y no hay casi literatura científica sobre niños con este mal y edad avanzada. De lo que sí estamos seguros es de que cuando encontremos su cara (lo que nos dará, además, su sexo) ésta será asimétrica, con el lado derecho más corto que el izquierdo. Nació con este problema y lo cuidaron, de eso no hay duda. Como todo niño, tuvo los cuidados propios de la infancia, pero además debió necesitar de un cuidado especial. A menudo, en la naturaleza, los individuos que nacen con problemas son abandonados o incluso muertos, pero este caso revela un comportamiento muy consciente, muy humano».

La investigadora asegura también que «aunque no tenemos ningún dato certero sobre alguna clase concreta de discapacidad, desde luego sí que era diferente. Pero lo aceptaron igual, a pesar de su marcada asimetría facial».

Fuente: ABC.es, 31-3-09

 

 

-Se reducen las esperanzas de eliminar el dióxido de carbono con la fertilización artificial del océano

El potencial del Océano Austral para absorber más cantidad de dióxido de carbono parece ser más limitado de lo que se creía, según los resultados preliminares de un estudio germano-hindú. El propósito del estudio LOHAFEX («loha» en hindi significa hierro, y «FEX deriva de «experimento de fertilización» o «fertilisation experiment») era investigar los efectos de la fertilización con hierro en la ecología del Océano Austral y su capacidad para absorber más cantidad de dióxido de carbono atmosférico.

Buque oceanográfico Polarstern

 

Durante el estudio LOHAFEX, 70 científicos procedentes de 7 países pasaron dos meses y medio en el buque oceanográfico Polarstern por la zona de los famosos «cuarenta rugientes», donde con frecuencia se dan fuertes vientos y tormentas; a veces los investigadores de la expedición tuvieron que enfrentarse a vientos superiores a los 120 km/h, y el buque tuvo que abandonar en dos ocasiones el área de estudio para evitar las terribles tormentas.
A pesar del tiempo, los investigadores lograron llevar a cabo sus experimentos con éxito, lo que supuso fertilizar una zona de 300 kilómetros cuadrados de océano con 6 toneladas de hierro disuelto. La ubicación elegida fue el interior del núcleo de un remolino, una vasta columna giratoria de agua con un área de unos 10.000 kilómetros cuadrados. Durante 39 días, los investigadores analizaron los efectos del hierro añadido en sobre el plancton vivo de la zona como en el perfil químico del océano. Al principio todo transcurrió como se esperaba, con el hierro estimulando el crecimiento del fitoplancton, cuyo volumen se duplicó durante las dos primeras semanas del estudio. A continuación intervino el zooplancton (animales diminutos).

 

Fitoplancton obtenido de la zona


«El aumento de la presión de depredación por parte de los pequeños crustáceos del zooplancton (copépodos) impidió el posterior aumento de la floración del fitoplanctom», explicó el doctor Wajih Naqvi del Instituto Nacional de Oceanografía de la India [NIO).

La acción depredadora del zooplancton efectivamente contuvo a la población de fitoplancton, impidiendo una mayor captación de CO2. En consecuencia, sólo una pequeña cantidad de carbono abandonó las capas superficiales para quedar almacenada en las profundidades del océano; el resto permaneció en las capas superficiales del mar. Los experimentos previos produjeron resultados totalmente diferentes, con grandes cantidades de carbón penetrando en las profundidades del océano. Así pues, ¿dónde estaba la diferencia? Según los científicos, aquellos experimentos previos activaron la floración de diatomeas, un tipo de algas que están protegidas de la depredación del zooplancton por una protección de sílice. Cuando las diatomeas murieron, se hundieron a gran profundidad. La escasez de ácido silícico (usado por las diatomeas para construir su protección) en el lugar donde se llevó a cabo el experimento LOHAFEX, impidió que las diatomeas pudieran prosperar.

Mientras tanto, el experimento continuó dando sorpresas. «Para nuestra sorpresa, la zona fertilizada con hierro atrajo un gran número de predadores del zooplancton, pertenecientes al grupo de crustáceos conocido como anfípodos», explicó el profesor Victor Smetacek del Instituto Alfred Wegener de Investigación Polar y Marina. Los anfípodos miden de dos a tres centímetros de largo, y una de las especies más comunes de anfípodos, Themisto gaudichaudii, constituye a su vez el alimento principal del calamar y del rorcual común en al Atlántico suroccidental. Hasta ahora se conoce muy poco de esta notable especie, a pesar de su importancia para la pesca intensiva del calamar en el Atlántico suroccidental y para la supervivencia del rorcual.

A las tres semanas de iniciarse el experimento, los investigadores añadieron más hierro a la zona. Sin embargo, esto no tuvo ningún efecto sobre el fitoplancton, lo que indicaba que la zona ya estaba saturada de hierro.
El Polarstern actualmente se encuentra haciendo el camino de vuelta a su puerto de origen de Bremerhaven, Alemania, donde se espera que llegue hacia finales de mayo. Una vez en casa, los científicos se enfrentarán a la descomunal tarea de analizar las numerosas muestras congeladas y conservadas que han recogido durante su épica andadura. Se espera que los resultados completos del experimento sean publicados en revistas y presentados en seminarios hacia fin de año.

Los científicos están muy satisfechos con los resultados del viaje. «Ha sido un crucero agotador, con muchos momentos de angustia y de esperanza cuando tratábamos de alcanzar nuestra zona alrededor del remolino que lo engullía todo. Sin embargo, a pesar del duro trabajo realizado en circunstancias difíciles, LOHAFEX ha sido una experiencia apasionante vinculada a un espíritu aventurero y llena de incertidumbres, totalmente distinta de otras travesías de carácter científico».

«A pesar de proceder de países diferentes y de contar con bagajes científicos muy diversos, los científicos de LOHAFEX trabajaron para una causa común y convivieron como una gran familia», añadió el doctor Naqvi. «El experimento sirve por tanto de excelente ejemplo de colaboración internacional en las ciencias oceanográficas de carácter interdisciplinario»

A comienzos de año, el estudio LOHAFEX levantó una gran controversia, ya que hubo grupos ecologistas que pretendían bloquear el experimento, afirmando que contravenía las leyes internacionales para la protección de los océanos. Tras ser sometido a revisiones científicas independientes en Alemania y otros sitios, se dio luz verde al experimento a finales de enero.

Fuente: CORDIS, 30-3-09

 

 

-La apuesta por el Gran Telescopio Europeo

El Gran Telescopio Canario (GTC), el más grande del mundo con un espejo de 10,4 metros de diámetro, ya ha comenzado a operar en La Palma en modo de servicio, es decir, atendiendo peticiones de astrónomos de todo el mundo que quieren trabajar con los datos que consigue este gigantesco 'ojo' hacia el Universo. El próximo objetivo de los exploradores estelares españoles es el E-ELT (Telescopio Europeo Extremadamente Grande), que alcanzará los 42 metros de diámetro. La candidatura canaria, que se enfrentaría a la ubicación en Chile, es un proyecto que el Gobierno español asegura apoyar, pero para el que, de momento, no compromete ninguna financiación.

La ministra de Ciencia e Innovación, Cristina Garmendia, con el equipo rector

del Instituto Astrofísico de Canarias, el jueves junto al GTC de La Palma. /Efe

 

La cuestión es que en Astronomía, cuando aún no ha terminado de ponerse en marcha una instalación, ya hay que pensar en la siguiente, que permita llegar aún más lejos, en la distancia y el tiempo. Este es el caso del GTC, cuya puesta en marcha ha llevado 10 años. En estos momentos, acumula ya unas 60 peticiones para el único instrumento que ya tiene instalado, el OSIRIS, un espectógrafo de ocho metros que es capaz de sintonizar los colores del Universo mediante filtros que permiten mirar mucho más lejos y con más detalle. La puesta de largo del GTC (aunque la inauguración oficial será en julio) tuvo lugar esta semana, con la visita a la isla canaria de la ministra de Ciencia e Innovación, Cristina Garmendia, que conoció de mano de los astrofísicos el funcionamiento de una infraestructura de estas características.

"El Gobierno apoyará el E-ELT. La Palma tiene un magnífico enclave como candidatoria ganadora. Pero la decisión es compleja, depende también de dónde se decida instalar un telescopio similar de Estados Unidos", señaló Garmendia.

La ministra aseguró que, junto con la instalación en Bilbao de una fuente de neutrones (otra gran infraestructura europea) son sus prioridades, aunque dejó claro también que habrá que contar con "la opinión de la comunidad científica internacional". De posibles apoyos económicos, para un proyecto que costará unos 1.000 millones de euros, no habló.

Un ambiente de decepción se respiraba entre los investigadores presentes en La Palma, conscientes de que la Organización Europea para la Investigación Astronómica en el Sur (ESO, en sus siglas en inglés), no tiene, de momento, el dinero que precisa para el futuro telescopio gigante y que el "empujoncito económico" podría ser determinante. No en vano, en ello va el futuro del Roque de los Muchachos como centro investigador de primer orden, dado el ansia de los astrónomos por acercarse al origen del Universo con aparatos cada vez más potentes.

Dos candidaturas en liza

Uno de los hándicaps respecto a Paranal (en el desierto de Chile, donde la ESO tiene hoy todos sus telescopios) es que el porcentaje de noches de observacion en el Roque es de un 76%, frente al 90% en el observatorio chileno. La calidad del aire, sin embargo, es excepcional en ambos lugares. La Palma, por otro lado, resultaría una candidatura más barata y, además, está en Europa.

Cierto es que si EEUU instala su futuro gran telescopio, de dimensiones similares, en Hawai no tendría sentido que ambos estuvieran en el mismo hemisferio. "¿Pero por qué no decidimos nosotros primero y que se adapten ellos?", se preguntan los expertos en las estrellas.

Francisco Sánchez, director del Instituto Astrofísico de Canarias (IAC), tiene claro que "hay que seguir siendo punteros por prestigio y por intereses industriales".

De hecho, uno de los aspectos que más se destacaron durante la visita de Garmendia fue la importante aportación tecnológica e innovadora que supone la Astrofísica para las empresas. "Muchos nuevos instrumentos se vienen a probar al Roque y nosotros tenemos empresas punteras en ello. Sólo cuatro países del mundo pueden hacer telescopios como el GTC o el E-ELT, y si eres el primero, mejor", apunta Pedro Álvarez, director general de Grantecan S.A.

Fuente: elmundo.es, 29-3-09

 

 

-El "Discovery" regresa a la Tierra

El transbordador espacial estadounidense 'Discovery' ha regresado este sábado a la Tierra tras permanecer 13 días en la Estación Espacial Internacional (ISS), en una misión que duplicó la capacidad de alojamiento de la estación.

El 'Discovery', con siete astronautas a bordo, aterrizó a las 19:13 GMT (20:13, hora peninsular en España) en la estación espacial de Cabo Cañaveral, en Florida. Su regreso había sido pospuesto durante una hora y media debido a las malas condiciones meteorológicas en el centro espacial Kennedy.

Durante su misión, que comenzó el 15 de marzo y ha estado encabezada por Lee Archambault, los astronautas del transbordador realizaron tres caminatas espaciales para instalar el cuarto y último par de paneles solares necesarios para aumentar la capacidad de generación de energía de la ISS.

Los cuatro paneles solares instalados en la EEI tienen la capacidad de generar suficiente energía para un vecindario con 42 casas, lo que permitirá que antes de fin de año vivan allí hasta seis astronautas y se lleven a cabo más experimentos científicos.

Los astronautas supervisarán experimentos científicos en laboratorios pertenecientes a EEUU, Europa y Japón. Canadá, país que facilitó el brazo robótico móvil de la estación, también participa en el programa.

 

Fuente: elmundo.es, 28-3-09

 

 

-Las siete maravillas de la ciencia

Más de 150 años después de que el físico inglés Isaac Newton demostrara, mediante un sencillo prisma, que la luz del Sol no era pura, como se creía, sino un batido de rayos de colores, el poeta romántico John Keats le maldijo por haber “despojado al arco iris de su misterio”. En su poema Lamia, escrito en 1820, Keats firmó una acometida contra la ciencia (la filosofía natural, como se conocía entonces) por haber convertido la luz en un simple fenómeno gobernado por las leyes matemáticas. “Antes había en el cielo un sobrecogedor arco iris, hoy conocemos su urdimbre, su textura; forma parte del aburrido catálogo de las cosas vulgares. La filosofía recorta las alas del ángel, conquista los misterios con reglas y líneas, despoja de embrujo el aire, de gnomos las minas; desteje el arco iris”, escribía Keats.

 

Descomposición de la luz con el primas de Newton

 

Y su aversión a la frialdad científica llegó al siglo XX. Incluso el padre de la teoría de la relatividad, Albert Einstein, asumía el carácter único del arte y agachaba la cabeza ante el supuesto genio irrepetible de los artistas. “Aunque Newton o Leibniz no hubieran nacido, el mundo habría tenido el cálculo, pero si Beethoven no hubiera vivido, nunca hubiéramos tenido la Quinta Sinfonía”, dicen que dijo Einstein.

Pero los tiempos han cambiado, como demuestra la coincidencia en el mercado de tres libros que reivindican la belleza de la ciencia: El prisma y el péndulo, de Robert P. Crease, Los diez experimentos más bellos (publicado en inglés por la editorial Alfred A. Knopf), del periodista de The New York Times George Johnson, y De Arquímedes a Einstein (Debate), de Manuel Lozano Leyva.

El primero de ellos, que la editorial Crítica publicará en castellano el próximo 8 de abril, es el inspirador de los demás. En 2002, Crease, director del departamento de filosofía de la Stony BrookUniversity, en Nueva York, pidió a los lectores de la revista Physics World que le enviaran una lista con los que, a su juicio, son los experimentos más bellos jamás realizados por los científicos. El resultado fue una clasificación equivalente a las siete maravillas del mundo antiguo propuestas por los historiadores griegos y romanos.

Entre las pirámides de la ciencia, según los lectores de Crease, figuran el experimento de la doble rendija de Thomas Young, que reveló la naturaleza ondulatoria de la luz, el descubrimiento del núcleo atómico por Ernest Rutherford y el famoso experimento atribuido a Galileo en el que, supuestamente, arrojó dos bolas de diferente peso desde la Torre de Pisa para demostrar que la caída libre de los cuerpos no depende de su peso. Todos ellos supusieron un cambio de paradigma en la ciencia, transformaron la manera de pensar del mundo entero y, como sugiere Crease, su belleza es comparable a la de una pieza de Stravinsky o una pintura de Caravaggio.

Experimentos feos

“También hay experimentos feos”, explica el filósofo a Público, “pero están relacionados con la falta de ética, como los realizados por los nazis durante el Holocausto, o son posibles gracias a desastres, como los estudios de personas accidentadas o ambientes contaminados”. Crease recuerda en su libro la discusión entre el físico Richard Feynman y un amigo poeta. El literato recriminaba al físico que, mientras que los artistas admiran la belleza en una flor, los científicos la diseccionan hasta convertirla en un objeto sin vida.

Pero Feynman, premio Nobel de Física en 1965, no se calló. Un científico reconoce la belleza de una flor, como lo hace un poeta, replicó, pero además se asombra por la belleza de sus procesos celulares, de su papel en un ecosistema. “El conocimiento de la ciencia sólo agranda el interés, el misterio y el asombro que produce una flor”, espetó a su amigo, incapaz de apreciar las maravillas del metabolismo de las células vegetales. Conocer el interior microscópico de una flor, añade Crease, no impide la apreciación de su belleza, igual que aprender acústica no disminuye la apreciación de las Cuatro estaciones de Vivaldi.

El museo de obras de ciencia que ha construido el filósofo en El prisma y el péndulo incluye experimentos de la Grecia clásica, como el de Eratóstenes, y otros casi contemporáneos, como una versión de la doble rendija de Young, cambiando el chorro de luz por electrones, con la que Feynman mostró los fenómenos imposibles de comprender del mundo cuántico. “La lista nos transporta desde un tiempo de herramientas simples y caseras, como los relojes de sol y los planos inclinados, hasta la época de la instrumentación avanzada. Desde los tiempos en que los científicos trabajaban solos (o como mucho con uno o dos ayudantes) hasta el presente, cuando los científicos a menudo trabajan en equipos formados por cientos de personas”, explica Crease.

10.000 millones de electrones

El experimento que inspiró el libro es uno de estos últimos. Hace más de 20 años, el autor se encontraba en un despacho oscuro de la Facultad de física de la Universidad de Harvard. Sentado frente a él había un tipo con gafas de culo de vaso rodeado por el humo de un puro. Era el físico Sheldon Glashow, que había ganado el premio Nobel unos años antes. “¡Aquel sí que fue un experimento bello!”, gritaba.

Glashow se refería al llamado experimento de las corrientes neutrales de SLAC, llevado a cabo en la primavera de 1978, en el que decenas de científicos de un acelerador de partículas de Stanford dispararon electrones polarizados contra un grupo de neutrones y protones. Buscaban una nueva teoría sobre la estructura de la materia y la encontraron, pero para ello tuvieron que analizar 10.000 millones de electrones.

Cuando Glashow comenzó su relato, Crease no entendió su referencia a la belleza. Cuando terminó su exposición, comprendió todo. El Nobel era una fuente fiable. Sabía más sobre el arte que cualquier artista sobre su campo de trabajo:la física de partículas.

Crease termina su libro con una hermosa cita de Henri Poincaré: “Los científicos no estudian la naturaleza porque sea útil, la estudian porque les place; y les place porque es bella. Si la naturaleza no fuese bella, no valdría la pena conocerla, no valdría la pena vivir la vida”. Sin embargo, Feynman lo resumió de una manera mucho más intuitiva: “La física es como el sexo: seguro que tiene una utilidad práctica, pero no es por eso que lo hacemos”.

Los experimentos más hermosos

1. La imposible doble rendija de Thomas Young

El experimento de la doble rendija de Young es el más bello de la historia de la ciencia, según los lectores de ‘Physics World’. El físico inglés Thomas Young lo llevó a cabo en 1801 para demostrar que la luz se comportaba como una onda. Pero lo increíble llegó más tarde. Los físicos recuperaron su doble rendija en el siglo XX para estudiar las leyes que rigen la mecánica cuántica. Sus conclusiones son difícilmente digeribles para una mente humana. Al disparar un electrón hacia la doble rendija se dieron cuenta de que podría atravesar una de las hendiduras o la otra. Pero el electrón también podía ‘decidir’ no atravesar ninguna. O cruzar las dos a la vez. El experimento más bello de la ciencia deja más boquiabierto que cualquier obra de arte.

2. Eratóstenes, la sombra y el tamaño de la Tierra

A mediados del siglo III antes de Cristo, el académico griego Eratóstenes no pasaba de ser un pensador de segunda fila al que sus colegas apodaban ‘El Beta’, la segunda letra del alfabeto griego, porque sus reflexiones nunca eran de primer rango. Sin embargo, fue el primer científico que midió el tamaño del planeta, más de 1.700 años antes de que Cristóbal Colón confirmara con su viaje a América que la Tierra no era plana. Eratóstenes no necesitó grandes máquinas, sólo un reloj de sol y mucha imaginación. Su experimento, como narra Crease en ‘El prisma y el péndulo’, subraya la conexión de todos los elementos del universo: la dimensión de una sombra, única y fugaz, está relacionada con el tamaño de la Tierra y con su posición remota respecto al Sol.

3. No gira el péndulo, gira el planeta entero

Gracias a la aversión a la sangre del francés Léon Foucault, el mundo perdió un cirujano pero ganó un físico excepcional. En 1851, el príncipe Luis Napoleón Bonaparte pidió a Foucault que hiciera una demostración pública de su experimento, gracias al cual la rotación de la Tierra parecía hacerse visible. El físico cumplió la voluntad del futuro emperador de Francia y colgó una bala de cañón de la cúpula del Panteón de París, mediante un cable de 67 metros. El 26 de marzo, uno de los ayudantes de Foucault puso en marcha el gigantesco péndulo. La bola de acero oscilaba en una línea recta, pero su plano de oscilación se movía muy lentamente en el sentido de las agujas del reloj. Los asistentes podían pensar que el péndulo cambiaba de dirección, pero sabían que no era así. Lo que estaban viendo era la rotación del planeta. Lo que giraba era el suelo del Panteón, eran ellos, la Tierra entera.

El péndulo de Foucault, uno de los experimentos más sencillos de la historia de la ciencia, demostró a los espectadores que no eran más que pasajeros a bordo de una pelota que da vueltas sobre sí misma por el universo.

4. Un ‘spray’ de aceite para ‘ver’ los electrones

“Quien haya visto ese experimento, literalmente ha visto electrones”, dijo el físico estadounidense Robert Millikan cuando recibió el premio Nobel en 1923. El científico había concebido un aparato con el que, mediante un ‘spray’ de aceite, consiguió medir de manera precisa la carga de un electrón, uno de los ladrillos fundamentales de la materia. Otros físicos lo habían intentado, pero sólo él consiguió hallar la unidad básica de la electricidad.

5. Un increíble hallazgo con un juguete burgués

“La más considerable revelación realizada sobre el funcionamiento de la naturaleza”, hasta enero de 1672, era, según el científico inglés Isaac Newton, un descubrimiento suyo. No exageraba. El físico y alquimista había demostrado, unas semanas antes de esa fecha, que la luz blanca, la del Sol, no era pura, sino una mezcla de rayos de colores. Su principal herramienta fue un simple prisma, utilizado por los burgueses como un juguete.

6. Al núcleo atómico con papel de aluminio

El descubrimiento de la estructura interna del átomo empezó con un sencillo experimento. El físico británico Ernest Rutherford envolvió uranio con varias capas de papel de aluminio y midió la cantidad de radiación que las atravesaba. A partir de ahí, y gracias a una cadena de ensayos, averiguó que el hasta entonces desconocido átomo está formado por un núcleo con carga positiva rodeado por una nube de electrones con carga negativa.

7. La leyenda de Galileo y la torre de Pisa

Dice la leyenda que, alrededor de 1620, Galileo lanzó una bola de cañón y otra de madera desde la torre de Pisa para demostrar a los aristotélicos que dos objetos de pesos diferentes caen a la misma velocidad. En 1971, el astronauta David Scott confirmó sus conclusiones en la Luna, dejando caer un martillo y una pluma de halcón. Ambas tocaron el suelo casi simultáneamente.
 

Fuente: publico.es, 28-3-09

 

 

-La deposición de polvo calienta el Atlántico tropical

El reciente calentamiento del océano, posible causa que está alimentando a los huracanes del Atlántico, puede ser debido a causas naturales como las emisiones volcánicas o las tormentas de arena.

Las temperaturas superficiales del Atlántico Norte tropical han ascendido bastante desde 1980 (a 0,25 ºC por década). Este incremento de las temperaturas está relacionado con el aumento de la actividad de los huracanes, sin embargo los climatólogos difieren en si esta variación termal es debida al calentamiento global o a ciclos naturales de la circulación oceánica.

Ahora, un nuevo estudio apunta a una causa distinta: una disminución en el enfriamiento debido a los sulfatos emitidos por los volcanes y el polvo en suspensión que arrastrado por los vientos africanos. Estas partículas, conocidas como aerosoles,  reflejan la luz solar evitando que penetre en el océano. Los investigadores no han estudiado profundamente como influye sobre las temperaturas oceánicas del Atlántico Norte tropical la fluctuación de las concentraciones de estos aerosoles durante décadas. 

Amato Evan, de la Universidad de Wisconsin-Madison, y sus colaboradores han usado mediciones de satélites para medir los aerosoles desde 1982 a 2007 para estimar la influencia de este polvo en suspensión sobre la temperatura oceánica. Encontraron que la variación de la cantidad de partículas en suspensión sobre el mar podía explicar hasta un 69% de la tendencia al calentamiento que ha experimentado durante estos años la superficie oceánica.  Los aerosoles del la actividad volcánica y las tormentas de arena enfriaron la región en la década de los 80 y en los primeros años 90, produciéndose un incremento de las temperaturas de la superficie marina cuando descendió el polvo en suspensión más tarde. Según Evan, dos volcanes en erupción (El Chinchón en México (1982)  y en Monte Pinatubo en Filipinas (1991)) fueron los causantes de la mitad de la tendencia al enfriamiento oceánico. El descenso de la tormentas de arena en el Sahara y el Sahel, posiblemente a causa de que la sequía del Sahel alcanzó su nivel máximo, explica una quinta parte del calentamiento.

 

Nuestra calima enfría el océano

Estos datos parecen indicar que la carga de aerosoles está actuando sobre el calentamiento del Atlántico Norte tropical. Las erupciones volcánicas enfrían el clima del planeta. Hay personas que discrepan sobre la influencia de estos factores naturales. Tim Barnett, un experto en el estudio del cambio climático por causas antropogénicas de la Institución Oceanográfica Scripps de San Diego, cree que el estudio necesita más datos y de momento no pasa de ser una especulación.

Lo cierto es que la conclusión del estudio de Evan abre un nuevo debate sobre las verdaderas causas del incremento de la temperatura superficial del mar.  Por ello, Evan se está esforzando en saber como afectan los aerosoles emitidos por los volcanes al océano. Las tormentas de arena causarían un efecto parecido en una zona más reducida del océano.

Lo que no parece claro es saber cómo el futuro cambio climático puede influir sobre la ausencia de polvo en suspensión procedente de África. Cambios en el viento, las precipitaciones o la vegetación podrían estar jugando un importante papel.  Si la capa de polvo del Atlántico se reduce a la mitad en un planeta con el doble de concentración de dióxido de carbono, según Evan y sus colegas, el agua podría calentarse 0,4 ºC más de lo que los modelos sobre el cambio climático han estimado. Sin embargo, de momento no se puede saber como el clima y el polvo en suspensión interactuarán ya que puede haber una feedback negativo o positivo.

Fuente: Nature, 26-3-09

 

-La roca que cayó a la Tierra

Una bola de fuego cruzó el cielo, explotó a 37 kilómetros de altura y sus restos se esparcieron por el desierto de Nubia (Sudán), ante la mirada atónita de los habitantes de Wadi Halfa. Se trata del asteroide 2008 TC3, cuyos fragmentos han sido recuperados y está dando interesantes pistas sobre el origen de algunos extraños meteoritos que llegan a la Tierra.

El avistamiento del asteroide, del tamaño de un coche, fue avistado por el telescopio Catalina Sky Survey en el Monte Lemmon de Arizona (Estados Unidos) el 6 de octubre de 2008, antes de que llegara a la atmósfera terrestre. Era algo que no había ocurrido hasta entonces.

«Todos los meteoritos habían sido observados cuando ya eran una bola de fuego o con una estela de humo cuando cruzaban la atmósfera, pero no antes», confirma Douglas Rumble, un geofísico del Instituto Carnegie que ha participado en este trabajo, publicado esta semana en Nature.

Para conocer las composiciones químicas de los asteroides, que orbitan alrededor del Sol en nuestro sistema planetario, hasta ahora los científicos analizaban los espectros de la luz solar que reflejan sus superficies y también la composición de los meteoritos que llegaban a la Tierra, aunque se desconocía de qué tipo de asterroide procedían.

En este caso, sin embargo, los observatorios astronómicos, apoyados por la NASA, siguieron su trayectoría en el espacio y pudieron tomar medidas espectrográficas antes de que, al día siguiente, desapareciera en la zona en sombra de nuestro planeta.

El impacto ocurrió 19 horas después al norte de Sudán y enseguida se puso en marcha un equipo para colaborar en la recuperación de sus fragmentos. Lo dirigían Peter Jenniskens, del Instituto SETI en el Centro Carl Sagan (California) y Muawia Shaddan, de la Universidad de Jartúm, de donde 45 estudiantes participaron en la búsqueda en el desierto.

Diamantes diminutos

En total, durante el pasado mes de diciembre, encontraron 47 fragmentos, con 3,95 kilos de peso, esparcidos en 29 kilómetros a la redonda, cerca de Wadi Halfa, en norte de Sudán. Todos pertenecían al asteroide 2008 TC3. «Comprobamos que se trataba de un objeto de un material muy frágil y que los trozos recuperados eran distintos de los que existen en la colecciones actuales», explica Jenniskens.

El estudio del contenido, realizado por Andrew Steele, reveló que el carbón del meteorito había estado sometido a temperaturas mucho más elevadas que otros conocidos, hasta el punto que era grafito. También había diminutos diamantes (nanodiamantes, los llaman), que podrían dar pistas sobre si el calor que experimentó el 2008 TC3 se debió a impactos en su asteroire-padre o por otros motivos desconocidos. También los isótopos de oxígeno están proporcionado valiosa información sobre estos objetos. La principal fuente de meteoritos que llegan a la Tierra proceden de asteroides que están en el Sistema Solar, entre Marte y Júpiter, y tienen como firma distintiva tres isótopos (160, 170 y 180).

«Constituyen la característica decisiva para determinar el origen o la agrupación de un grupo de meteoritos», explica Rumble.

En este caso, todo parece indicar que los fragmentos del 2008 TC3 entran en una extraña categoría, los ureilitas, cuyo origen se desconoce dónde está, aunque a partir de ahora se podrán reconocer mejor cuando se observen en el espacio. Los investigadores creen que un asteroide ya conocido, el 1998 KU2, de 2,6 kilómetros de tamaño, podría ser la fuente del 2008 TC3.

Fuente: elmundo.es, Nature.com, 26-3-09

 

-Luis Colina: quedan tantos agujeros negros que nunca me aburriré

No es frecuente que alguien se pase la vida prácticamente al borde de un agujero negro, pero es el caso del astrofísico Luis Colina. Estudiar las condiciones en estas singularidades en la trama del espacio tiempo es su trabajo, para lo que utiliza los telescopios más modernos. Investigador del CSIC en el Instituto de Estructura de la Materia, no parece tener grandes caprichos cuando se trata de compartir un almuerzo. Se limita a sugerir restaurantes cercanos a su lugar de trabajo, en la madrileña calle de Serrano y, aunque califica positivamente los platos que ha elegido -ensalada de judías verdes, foie y setas, y chipirones-, no le importa dejar que la comida espere mientras explica lo que le atrae en el universo, tan lejano para tantos y tan cercano para él.

Los agujeros negros ya no son hipotéticos y exóticos objetos celestes, sino que se ha comprobado que son muy reales y numerosos en el universo, "en parte gracias al Hubble", recuerda Colina, quien estuvo seis años trabajando, en Estados Unidos, en el instituto científico de este histórico telescopio espacial. La primera referencia al Hubble, al que sigue teniendo cariño, surge ya durante el primer plato. Pero ahora está inmerso en la preparación de su sucesor, el James Webb, un proyecto conjunto de la NASA y la ESA.

Aunque la astrofísica no entra en los agujeros negros -se para en su borde u horizonte de sucesos- quedan tantos agujeros negros por estudiar y tantas cosas por saber de ellos que Colina bromea con que no se va a aburrir en muchos años. Estudia galaxias cercanas, como la M82, para ver en detalle lo que pasa alrededor de los agujeros negros que tienen en su centro, pero también galaxias muy lejanas, que es como viajar hacia atrás en el tiempo, a cuando el universo era muy joven. ¿Pero qué fue antes, el agujero negro o la galaxia que lo alberga? "Todavía no se sabe", reconoce el astrofísico, que no parece muy preocupado por tamaña incógnita mientras saborea sus chipirones. "Vemos que hay una relación muy directa, hay indicios de que se forman al mismo tiempo el agujero negro y las estrellas, pero no se sabe cuál es exactamente la relación causa efecto". Lo más curioso es que el agujero negro de cada galaxia masiva representa una fracción muy concreta de la masa total de la galaxia, "como si el agujero negro supiera dónde está y fuera como el corazón de un organismo que sabe cuánta sangre tiene que bombear", explica Colina.

Este madrileño del 59, que ha dado muchas vueltas por el mundo antes de recalar en Madrid, asegura que llegó a la astrofísica por vocación, ya que desde el bachillerato le interesaba. Los astrónomos ya no suelen mirar el cielo, sino pantallas de ordenador con los resultados brutos de las observaciones que los operadores de los telescopios programan siguiendo sus instrucciones. Así se aprovecha mucho mejor el tiempo de observación. A cambio, no sólo se pierde el romanticismo sino que se plantea el problema de "cómo enseñar a los nuevos astrónomos sin tocar telescopio", comenta Colina. Sin embargo, todavía hay observatorios en España donde se puede observar a la vieja usanza, recuerda. Termina la comida y ya sabemos que, además de los agujeros negros, hay otra cosa a la que no se puede resistir: el carrito de los postres.

 

Luis Colina

Fuente: elpais.com, 25-3-09

 

 

-Un vuelo virtual sobre Titán

Estas imágenes que  la sonda Cassini ha captado de Titán, uno de los satélites de Saturno,  muestran un mundo parecido a la Tierra. El sobrevuelo de la sonda sobre el satélite, durante cinco años,  ha permitido qel conocimiento de su superficie. Ahora, por primera vez los técnicos que trabajan en el proyecto nos enseñán  unas imágenes 3-D de la topografía del terreno. Montañas de 1200 metros de altura, vastos campos de dunas de 100 metros de altura y marcas del fluido que surge de los volcanes de hielo, son algunos de los rasgos geográficos captados por los radares  de la nave.

Estas imágenes han sido obtenidas gracias a las radares de la sonda

 

De momento, gracias a los 19 vuelos que ha hecho la sonda sobre Titán, se conoce un 2% de su superficie. Pese a lo poco que sabemos todavía, lo descubierto es sorprendente. Se pueden identificar accidentes geográficos muy parecidos a los de nuestro planeta como grandes mares, lagos, ríos, barrancos, montañas, flujos de lava y dunas de arena.

Se ha conseguido un grado de detalle en las imágenes nunca antes visto con resoluciones de hasta 2-4 Kms. Coladas de lava  serpenteando la base profunda de las montañas se pueden ver en las imágenes. Un área llamada Ganesa Macula se parece a un volcán de hielo, aunque también se especula con la idea de que pueda ser un cráter o algo originado por la erosión, según comentó Randy Kirk miembro de la  "Astrogeology Science Center" , institución que está haciendo los mapas con la información que envía Cassini.

La cobertura del radar incluyó parte de los lagos de metano y etano del Polo Norte de Ttán. Gracias a los modelos topográficos con los que se ha analizado los datos de Cassini, los científicos pueden ahora estimar la profundidad de los lagos (según han estimado tomando como referencia los existentes en la Tierra, podrían tener unos 100 metros de profundidad).  Este dato es importante para estimar el volumen de hidrocarburos que existen en el satélite. Estos hidrocarburos se evaporan y crean la densa atmósfera de Titán. Comprender el ciclo del metano permitirá saber más sobre los mecanismos que controlan y determinan el clima y el tiempo en la luna de Saturno.

Ver aquí la película   

Fuente: NASA, 25-3-09

 

-Metástasis que se adelanta a la detección del cáncer

Tradicionalmente se ha considerado que la metástasis, esto es, la propagación efectiva de un cáncer a un órgano distinto a aquel donde se originó, aparecía una vez que el tumor primario había alcanzado un suficiente grado de madurez. Pero cada vez cobra más fuerza la hipótesis de que la metástasis puede iniciarse mucho antes, a partir de células tumorales diseminadas por el organismo en las fases iniciales del cáncer, e incluso cuando todavía no ha sido detectado.

Tener en cuenta este modelo de progresión paralela de la metástasis, en lugar del tradicional basado en la progresión lineal, supone un cambio radical en la forma en el abordaje del cáncer, según señala, en un artículo que publicará en abril la revista Nature Reviews Cancer, el especialista Christoph Klein, de la Universidad de Regensburg (Alemania). "Considerar este modelo hace necesario revisar las actuales rutinas de diagnóstico y tratamiento del cáncer", señala.

En el artículo, que forma parte de un número especial de la revista dedicado a la metástasis, Klein defiende la vigencia de la hipótesis de la progresión paralela del tumor primario y la metástasis apoyándose en la mayoría de los datos disponibles sobre el curso de la enfermedad y las características genéticas de las llamadas células tumorales diseminadas (DTC), células del cáncer primario que se extienden por el organismo y acaban, si tienen éxito, causando la metástasis. En este sentido, Klein aboga por hacer una caracterización molecular de las células diseminadas antes de aplicar una terapia, ya que estas células pueden ser muy diferentes a las del tumor primario del que partieron.

Alteraciones iniciales

Asimismo, frente a la visión tradicional, centrada en las alteraciones genéticas que dan lugar a una célula plenamente maligna, el modelo de progresión paralela apuesta por analizar las alteraciones iniciales que predisponen a las células a ir convirtiéndose progresivamente en tumorales en las fases iniciales. Además, según explicó Klein a Público, hay que tener en cuenta la influencia del "microambiente" donde arraigan las células diseminadas a la hora de dar lugar a metástasis, ya que "la célula tumoral no es autónoma".

También hay que considerar que si la diseminación de las células tumorales se produce en las fases más tempranas del tumor, se pueden hallar estas células en la sangre o la médula ósea antes de que los sistemas de diagnóstico por imagen sean capaces de detectar el cáncer primario debido a su pequeño tamaño en ese momento.

Por su parte, el oncólogo Emilio Alba, vicepresidente de la Sociedad Española de Oncología Médica (SEOM), explicó que por el momento no existe suficiente evidencia clínica que demuestre,"más allá de toda duda razonable", la validez de ninguno de estos modelos, y añadió que hace falta más investigación al respecto. En cualquier caso, señaló que por ahora el tratamiento estrella del la enfermedad sigue siendo la cirugía, si bien se trata de un abordaje que "desde el punto de vista molecular no es el tratamiento más efectivo".

La aportación de Massagué

Por otro lado, el investigador español Joan Massagué, del Memorial Sloan-Kettering Cancer Center de Nueva York, defiende en otro artículo en la misma revista la necesidad de incorporar el conocimiento actual sobre la metástasis a los modelos experimentales de cáncer, así como de realizar una nueva clasificación de los tumores según su capacidad para generar metástasis. Según explicó a este diario, Massagué cree que será "difícil, pero no imposible" conseguir estos objetivos a medio plazo.

Por otro lado, Massagué recuerda que "está clarísimo que los tumores pueden desprender células cancerosas desde fases muy tempranas, ya antes de ser diagnosticados y extirpados". Así, considera que "sería importante identificar los factores que permiten a estas células diseminadas sobrevivir durante años en estado latente mientras se preparan para crecer y formar metástasis letales", con el fin de atajarlos y eliminar estas células, reduciendo el riesgo de metástasis.

Fuente: publico.es, 25 de marzo de 2009

 

 

-Investigadores británicos crearán sangre "sintética"

Investigadores británicos quieren ser los primeros en producir cantidades ilimitadas de sangre "sintética" a partir de células madre embrionarias para su uso en transfusiones de emergencia y sin riesgo de infección para el paciente.

En los próximos días se anunciará un gran proyecto de investigación que se pretende que culmine dentro de tres años en las primeras transfusiones a voluntarios con sangre obtenida de embriones sobrantes de la fecundación in vitro, según informa el diario "The Independent".

La sangre se utilizaría para salvar lo mismo vidas de víctimas de accidentes de tráfico que de soldados en el frente de batalla y representaría una auténtica revolución en los servicios de transfusión sanguínea, que dependen actualmente de los donantes. En el proyecto participan la sección de Sangre y Trasplantes del Servicio Nacional de Salud, el Servicio Nacional de Transfusión de Escocia y el Wellcome Trust, la mayor organización médica de carácter benéfico del mundo. Los científicos estudiarán los embriones humanos sobrantes de la fecundación in vitro y tratarán de encontrar los genéticamente programados para desarrollar sangre del grupo "O negativo", que puede transfundirse a cualquier persona sin temor a rechazos. Ese grupo sanguíneo es relativamente raro, corresponde a aproximadamente un 7 por ciento de la población, pero podría producirse en cantidades ilimitadas a partir de células madre por la capacidad que tienen éstas de desarrollarse indefinidamente en el laboratorio. El objetivo de los científicos es hacer que las células embrionarias se conviertan en glóbulos rojos portadores de oxígeno para transfusiones de urgencia.

 



 

Esa sangre tendría además la ventaja, según los expertos, de que no presentaría ningún riesgo de infección por el virus del sida, la hepatitis o la variante humana de la enfermedad de las "vacas locas". Se cree que el Wellcome Trust se ha comprometido a destinar más de 3 millones de euros al proyecto, que se beneficiará también de las aportaciones de los servicios de transfusión de Escocia, Inglaterra, Gales y posiblemente también de Irlanda. Un portavoz de ese trust dijo que en este momento se están resolviendo ciertos asuntos legales entre las partes implicadas, pero que se hará un anuncio próximamente.

Al frente del proyecto está el profesor Marc Turner, de la Universidad de Edimburgo, que dirige el Servicio Nacional Escocés de Transfusiones. Turner ha participado en investigaciones destinadas a garantizar que la sangre utilizada en transfusiones está libre del agente infeccioso causante de la variante humana de la enfermedad de las vacas locas. Se cree que varias personas que sufren esa enfermedad la han contraído por culpa de las transfusiones.

Según el periódico, en el proyecto participan también científicos del Centro de Medicina Regenerativa de la Universidad de Edimburgo así como Roslin Cells, una pequeña empresa surgida del Instituto Roslin, en el que se clonó en 1996 a la oveja Dolly. Científicos de otros países, entre ellos Suecia, Francia y Australia, están también trabajando en el desarrollo de sangre a partir de células embrionarias. El año pasado, una compañía de biotecnología estadounidense, Advanced Cell Technology, anunció que había conseguido producir miles de millones de glóbulos rojos a partir de ese tipo de células. Sin embargo, esos trabajos se vieron paralizados por la prohibición dictada por la anterior Casa Blanca contra las investigaciones con células embrionarias, aunque el nuevo presidente, Barack Obama, ha rectificado ahora.
 

Fuente: EFE, 24-3-09

 

 

-El caso "Prestige" enfada a los ecologistas

La decisión del juzgado número 1 de Corcubión (A Coruña) de eximir al Ministerio de Fomento de cualquier responsabilidad en la catástrofe del Prestige ha enfadado a las principales organizaciones que se movilizaron tras el vertido en contra del Gobierno entonces presidido por José María Aznar.

Greenpeace presentó ayer un escrito ante la Fiscalía General del Estado para instar a Cándido Conde-Pumpido a que recurra el auto, anunciado el pasado viernes, que retira la imputación al ex director de la Marina Mercante, José Luis López-Sors, responsable de la decisión de alejar el petrolero de la costa. Sin embargo, la jueza mantiene la imputación al capitán del barco, al jefe de máquinas y al primer oficial.

El Prestige, considerado el Exxon Valdez español, se hundió en alta mar el 19 de noviembre de 2002. Y, según las organizaciones ecologistas, el desplazamiento del barco facilitó que las más de 60.000 toneladas de fuel vertidas se esparcieran por la Costa da Morte.

Para Greenpeace, las conclusiones de la fase de instrucción del sumario del caso Prestige suponen un "grave precedente" ante futuros accidentes marítimos, ya que auguran "impunidad frente a decisiones de la Administración".

El colectivo ecologista sigue pensando que la decisión de Fomento "provocó la mayor catástrofe ambiental que ha conocido este país", aunque, si la Justicia mantiene su veredicto, la plataforma Nunca Máis habrá perdido su principal bandera.

Fuente: publico.es, 23-3-09

 

 

-¿Y si la partícula de Dios no existe?

En junio del año pasado, en la Organización Europea para la Investigación Nuclear (CERN), a las afueras de Ginebra, los físicos afilaban las armas listos para el comienzo inminente de la cacería del bosón de Higgs. La escurridiza partícula de Dios, bautizada así por el investigador Leon Lederman, debía aparecer entre las colisiones provocadas por el acelerador LHC. Su hallazgo explicaría por qué los objetos tienen masa, y los responsables aspirarían al Nobel.

Entonces, en la cafetería del CERN, el investigador del Instituto de Física de Cantabria (CSIC-UC) Celso Martínez explicaba que incluso los borradores de los artículos que se iban a publicar con el descubrimiento estaban ya escritos. "Sólo les faltaría añadir las masas detectadas en los experimentos y las gráficas, y estarían listos", decía.

En septiembre, pocos días después de su puesta en marcha, la descomunal máquina, que ha costado más de 3.000 millones de euros y ha sido creada para atrapar al diminuto bosón, se averió. El LHC no volverá a estar operativo hasta el próximo septiembre.

El traspié de la apuesta del CERN ha dado una nueva oportunidad al viejo Tevatron para alcanzar la gloria. El acelerador de Fermilab (Illinois, EEUU) iba a quedar obsoleto tras el arranque de LHC, pero con él parado ha vuelto a tener posibilidades de meterse en la carrera por encontrar la primera huella de la partícula divina. "Las probabilidades de que descubramos el higgs es muy buena, 90% si estamos en el rango alto de masas", afirmó en una conferencia en febrero Dimitri Denisov, portavoz de uno de los experimentos de Tevatron. "Tenemos una muy buena oportunidad de registrar indicios del higgs antes de que lo haga el LHC", aseguró. Junto a él se sentaba Lynn Evans, director del convaleciente LHC.

 

 

Fermilab - El laboratorio de física de partículas de EEUU fue inaugurado en 1967. En la imagen, el laboratorio Robert Rathbun Wilson, bautizado así en honor de su primer director.

Acorralar al bosón de Higgs

La semana pasada, los responsables del acelerador estadounidense anunciaban que habían logrado restringir el rango de masas en el que se podía encontrar el higgs. El Modelo Estándar (ME) [el marco teórico que describe cómo se relacionan entre sí las partículas que componen la materia] y los experimentos previos situaban a la partícula divina en un rango energético de entre 114 y 185 GeV (gigaelectronvoltios). Los nuevos resultados reducen el límite superior de la búsqueda a 157 GeV. La cacería se complica. Con una masa en torno a los 170 GeV, los responsables de Fermilab calculaban sus posibilidades de éxito en más del 95%. Con un higgs más ligero, Pier Oddone, director de Fermilab, reducía sus opciones a un optimista 50%.

El descubrimiento se vuelve más difícil por el método de detección de este tipo de partículas. Su captura no es directa. Para conocer las características de muchas partículas subatómicas, inexistentes en estado natural desde poco después del Big Bang, se deben recrear las condiciones energéticas que rodearon el gran estallido. Para ello se hacen chocar partículas (en el caso de Tevatron, protones y antiprotones) entre sí. En esos choques de alta energía se generan partículas que se desintegran en una fracción de segundo.

Para conocer los tipos de partículas producidas, es necesario que los físicos analicen los escombros que quedan atrapados en sus detectores tras la colisión. Así, como un detective que estudia la escena del crimen, podrán decir quién estuvo allí a través de las huellas que hayan dejado en forma de muones, fotones u otras partículas. En el rango alto de masas, los vestigios del higgs hubieran destacado con mayor facilidad frente al fondo de residuos inútiles que se generan en cada colisión. En el rango bajo, entre 115 y 160 GeV, discriminar entre el higgs y los residuos se vuelve mucho más complicado.

Partícula excluida

Alberto Ruiz Jimeno, director del Grupo de Altas Energías del Instituto de Física de Cantabria (UC-CSIC), que ha participado en el proyecto que restringió la masa en la que puede encontrarse el higgs, aclara que Tevatron no puede observar las partícula con el nivel de precisión necesario para considerarlo un descubrimiento. Lo que sí podría llegar a hacer es descartar su presencia en caso de que no existiese con un 95% de certeza, según Ruiz Jimeno. "Si se excluyese en toda la zona de masas no se podría demostrar el ME ni los modelos más próximos", añade.

Cambiar los objetivos

En la conferencia junto a sus colegas estadounidenses, Evans reconoció el contratiempo que supondría que Tevatron arrebatase el hallazgo del higgs al LHC. "El problema es que el LHC se ha vendido como algo construido para [capturar] el higgs", dijo. No obstante, añadió: "Hay un amplio espectro de física que se va a investigar con el LHC y que Tevatron no puede hacer".

El investigador de la Universidad de Oviedo, Javier Cuevas, que ha colaborado en los últimos hallazgos realizados en EEUU, no considera problemático que el higgs del Modelo Estándar sea excluido. "El higgs es un mecanismo propuesto para explicar por qué las partículas tienen masa, pero hay otros muchos mecanismos propuestos por los teóricos", indica Cuevas. "Hay que extender el ME, porque ya hay algunas cuestiones que hay que responder más allá de lo que se tiene ahora aparte del higgs", señala.

Los investigadores que se preparan para la puesta en marcha del LHC en septiembre ya están adaptando su plan de trabajo para buscar el higgs en los lugares aún no descartados por Tevatron. El espacio en el que se oculta la partícula divina se reduce, pero aún hay margen para creer que existe.

Fuente: publico.es, 21-3-09

 

 

-La estación espacial tendrá más electricidad

Los astronautas Steven Swanson y Richard Arnold comenzaron hoy la primera salida al espacio programada en la misión STS-119 del Discovery, para preparar el montaje de los paneles solares de la Estación Espacial Internacional (EEI). La primera de las tres caminatas previstas para la misión STS-119 se inició después de que Swanson y Arnold permanecieran durante la noche en la cabina de despresurización para acostumbrar sus cuerpos a la ingravided del espacio y a la diferencia de presión.

Primer paseo espacial de la actual misión en la Estación Espacial. (Foto: NASA)

Esta era la primera salida al exterior para Richard "Ricky" Arnol, pero la tercera para Swanson, que llevaba una cinta roja para ser diferenciado por las cámaras de la NASA, que retransmitieron en directo la misión. Durante las más de seis horas que durará su actividad extravehicular (EVA), los astronautas instalarán un nuevo segmento de la viga central de la plataforma que gira en una órbita terrestre a casi 400 kilómetros de la Tierra.

También iniciarán los preparativos para instalar los paneles solares que contribuirán a un mayor abastecimiento de energía eléctrica en el complejo que a partir de mayo podrá albergar a seis astronautas. Una vez completada su instalación, la nave disfrutará de un suministro de entre 84 y 120 kilovatios de electricidad, suficientes para 40 casas en la Tierra. Los preparativos comenzaron a la hora prevista, inmediatamente después de que el control de la misión en el Centro Espacial Johnson de la NASA en Houston (Texas) informara al comandante Lee Archambault de que no era necesaria una nueva inspección del escudo térmico de la nave.

El escudo fue objeto de una revisión preliminar el martes poco antes de que el transbordador se acoplara a la EEI. La caminata se inició después de que los tripulantes del Discovery pusieran en posición de trabajo al brazo robótico de la estación que será utilizado durante los tres paseos previstos. Entre tanto, el astronauta japonés Koichi Wakata comenzó a instalarse en la EEI para permanecer en el complejo durante tres meses. Wakata sustituirá a la astronauta estadounidense Sandra Magnus quien regresará a la Tierra el sábado 28 de marzo tras haber permanecido cuatro meses en la Estación Espacial.

La tripulación de la Expedición 18 del Discovery, encabezada por el coronel de la Fuerza Aérea Lee Archambault, está integrada por el especialista de origen puertorriqueño, el piloto Tony Antonelli, y los astronautas Steve Swanson, John Phillips, Joseph Acaba y Richard Arnold II.

En principio la NASA había programados cuatro paseos espaciales, pero los retrasos en el lanzamiento del servicio han reducido la misión a 13 días, uno menos de lo previsto, lo que ha obligado a recortar a tres las salidas. La segunda caminata esta prevista para el próximo sábado.

Fuente: EFE, 20-3-09

 

 

-La NASA simula las consecuencias de un mundo sin capa de ozono

"Es el año 2065. Cerca de dos tercios del ozono terrestre ha desaparecido. No sólo en los polos, sino en todo el planeta. El tristemente célebre agujero de ozono sobre la Antártida, descubierto por primera vez en los años ochenta, tiene un gemelo sobre el Polo Norte. La radiación ultravioleta (UV) que cae sobre las ciudades de latitudes medias como Washington D. C. [o Madrid] es lo suficientemente fuerte como para causar quemaduras de sol en sólo cinco minutos".

Así comienza el relato publicado por la NASA con motivo de un curioso experimento llevado a cabo por sus científicos. Y así es, según el relato, el mundo que nos habría tocado vivir en el presente siglo de no haber sido porque 193 países acordaron en 1987 prohibir sustancias químicas dañinas para el ozono en el llamado Protocolo de Montreal.

Paul Newman, científico del Centro de Vuelo Espacial Goddard de la NASA, dirigió el equipo responsable de la simulación de "lo que habría sido" si los clorofluorocarbonos (CFC) y otros químicos no hubieran sido prohibidos entonces. La simulación empleó un modelo completo que incluía los efectos químicos sobre la atmósfera, los cambios en el patrón de los vientos y los cambios en la radiación. El análisis ha sido publicado en Atmospheric Chemistry and Physics.

El mundo que hemos evitado

 

Han pasado dos décadas desde que se descubrió el agujero en la capa de ozono y se le puso un remedio. "Estamos en el momento de preguntarnos: ¿teníamos razón con el ozono? ¿Funcionó el Protocolo de Montreal? ¿Qué clase de mundo hemos evitado eliminando las sustancias nocivas para el ozono?", dice Newman, codirector del Panel de Evaluación Científica del Programa de Medio Ambiente de Naciones Unidas.

Los investigadores comenzaron con un modelo de circulación atmosférica que prevé cómo los cambios en la estratosfera influyen en los cambios en la troposfera (las masas de aire próximas a la superficie terrestre). Las pérdidas de ozono modifican la temperatura en distintas partes de la atmósfera, y esos cambios promueven o suprimen las reacciones químicas.

Los científicos incrementaron las emisiones de CFC y compuestos similares en un 3% anual, un índice conservador que sólo representa la mitad de lo que se emitía en los años 70. A partir de ahí, dejaron que el mundo simulado evolucionara desde 1975 hasta 2065.

En 2020, el 17% de todo el ozono ha desaparecido a nivel global, Un nuevo agujero de ozono empieza a formarse cada año sobre el Ártico.

En 2040, las concentraciones globales de ozono caen a los mismos niveles del agujero de la Antártida. El índice de radiación ultravioleta (UV) alcanza el 15 en las horas de máximo calor de un día de verano en las latitudes medias (como España). Actualmente, un índice de 10 es considerado extremo. El sol produce quemaduras en unos 10 minutos.

A finales de 2065, los niveles de ozono han caído un 67% con respecto a los años 70. La intensidad de la radiación UV es el doble. La exposición al sol produce cáncer de piel y quemaduras en sólo cinco minutos.

Un filtro solar natural

La capa de ozono es el filtro solar natural de la Tierra. Absorbe y bloquea casi toda la radiación ultravioleta procedente del sol, protegiendo así a la vida de radiaciones que dañan el ADN. El gas es creado de forma natural y repuesto a través de una reacción fotoquímica en la alta atmósfera, donde los rayos UV rompen las moléculas de oxígeno (O2) y dejan átomos individuales que se recombinan luego en moléculas de tres átomos (O3). Al ser transportadas por el viento, el ozono va siendo eliminado poco a poco por gases atmosféricos naturales, cerrando un ciclo natural de equilibrio que vuelve a empezar nuevamente.

Sin embargo, los clorofluorocarbonos (CFC), inventados en 1929 como refrigerantes y para los areosoles, alteran ese equilibrio. Los investigadores descubrieron en los años 79 y 80 que los CFC, aparentemente inocuos en la superficie terrestre, eran reactivos en la estratosfera (entre 10 y 50 kilómetros de altitud), donde se concentra el 90% del ozono del planeta. Allí, las radiaciones UV hacen que los CFC y compuestos similares se rompan en átomos de cloro y bromo, con capacidad para destruir las moléculas de ozono. Estas sustancias artificiales destructoras del ozono permanecen durante décadas en la estratosfera.

Así fue como en los años 80, las sustancias dañinas para el ozono abrieron un "agujero" sobre la Antártida que duró todo el invierno. Fue el comienzo de la concienciación de los efectos de la actividad humana sobre la atmósfera.

Fuente: elmundo.es, 20-3-09

 

 

-El "puzzle" de un depredador de hace 500 millones de años

Hace entre 540 a 500 millones de años, un depredador llamado 'Hurdia victoria' y sus primos cercanos dominaban los primitivos mares cámbricos, donde se hicieron más grandes que otros organismos, de los que seguramente se alimentaban. Ahora, un grupo de científicos ha logrado reconstruir cómo era en una imagen que, según aseguran, es la de un 'Tiranosaurio Rex' del Cámbrico, pero dentro de la rama de los anomalocarídidos, que podría traducirse como 'gambas extrañas'.

'Hurdia', según aseguran esta semana en la revista 'Science', ha permitido conocer aspectos muy importantes de la evolución primitiva de los artrópodos en aquel momento de explosión de la vida en los océanos.

Algunos de los fósiles de este depredador, de unos 20 centímetros de longitud, fueron descritos por primera vez en 1912, cuando fueron localizados en la formación Burgess Shale, un yacimiento paleontológico de Canadá reconocido como Patrimonio de la Humanidad por la Unesco debido a su espectacular riqueza. El problema es que gran parte de los fragmentos estaban dispersos en diferentes instituciones y habían sido clasificados de forma errónea, al menos, en ocho géneros diferentes. Allison C. Daley, de la Universidad de Upsala, y sus colegas, canadienses y británicos, decidieron reconstruir el rompecabezas.

Los estudiosos de las primeras piezas ya habían descubierto a principios del siglo XX que formaban parte de algo parecido a un crustáceo, pero desconocían que había otros fragmentos en diferentes colecciones, descritos como medusas, pepinos de mar y otros artrópodos. En los años 90 del siglo pasado, nuevas expediciones descubrieron más especímenes en Burgess Shale, así como cientos de piezas aisladas que hacían pensar que 'Hurdia' era más de lo que parecía. El último fragmento importante, y muy bien conservado, apareció cuando se rebuscó en las viejas colecciones del Museo Nacional Smithsonian, de Washington (EE.UU.).

Reconstrucción de "Hurdia victoria" realizada por los científicos canadienses

En los años 70 y 80 se pensaba que era un artrópodo, pero después se pasó a pensar que se trataba de un extraño ejemplar del famoso depredador monstruoso 'Anomalocaris', un camarón extinto relacionado con los anteriores. Ahora, el nuevo estudio aclara las características físicas de 'Hurdia' y sus semejanzas y diferencias con otros anomalocarididos. Como ellos, según se describe en el artículo, presenta un cuerpo segmentado, dos pares de garras principales en su zona ventral y una quijada de estructura circular con muchos dientes.

La diferencia principal con sus congéneres es un enorme caparazón con tres partes que se proyecta hacia la parte frontal de la cabeza del animal. "Una estructura como ésta no se había visto antes en artrópodos, ni fósiles ni vivos", reconoce Allison Daley.

Daley señala que el uso de este gran caparazón "es un misterio" porque en muchos animales sirve como protección de las partes más blandas del cuerpo, como ocurre con los cangrejos o las langostas, pero éste no es el caso porque se trata de una estructura vacía. "Sólo se puede conjeturar para qué pudo ser útil", añade la investigadora. Tanto 'Hurdia' como 'Anomalocaris' serían antepasados muy primitivos del linaje evolutivo que llevó a los artrópodos, un grupo que hoy incluye a los insectos, los crustáceos, las arañas y los ciempiés. Además, 'Hurdia' tenía una gran papada, que cubría buena parte de su cuerpo y que, probablemente, tenía como misión proporcionar el suficiente oxígeno a un animal que era un nadador muy activo.

Fuente: elmundo.es, 20-3-09

 

 

-Un asteroide de veinte kilómetros pasa a sólo 80000 kilómetros de la Tierra

Por segunda vez en menos de un mes, un asteroide ha pasado rozando nuestro planeta. Se trata de una pequeña roca espacial de cerca de veinte metros de diámetro que pasó a sólo 80.000 kilómetros de la Tierra (algo más del doble de la distancia a la que operan los satélites geoestacionarios), a una velocidad superior a los 24.000 kilómetros por hora, según informó la agencia espacial estadounidense NASA desde su base en Pasadena, en el estado de California.

 

El objeto, bautizado con el nombre de 2009 FH, pasó cerca de nuestro planeta a las 12:17 GMT (las 13:17, hora española). La distancia de 80.000 kilómetros corresponde a alrededor de un quinto de la distancia que hay entre la Tierra y la Luna.

La NASA subrayó que en ningún momento hubo riesgo alguno de colisión. Sin embargo, el hecho más preocupante es que el objeto no fue detectado hasta apenas un día antes de su llegada. Lo mismo que sucedió hace apenas algunos días (el pasado 2 de marzo) con otro pequeño asteroide de treinta metros y que pasó a 72.000 kilómetros de nuestro mundo. En ambos casos, si uno de los dos (o ambos) hubieran seguido una ruta de colisión, no habría dado tiempo a adoptar ninguna medida de protección.

 

El asteroide, cuyo diámetro ha sido estimado entre 13 y 29 metros, tiene el potencial suficiente para devastar toda una ciudad en el caso de impacto. Sus medidas, en efecto, coinciden con las que se cree que tuvo el objeto que cayó sobre Tunguska, en Siberia, en el año 1908, provocando la destrucción total de más de dos mil kilómetros cuadrados de tundra.

 

Recreación de meteorito

Fuente: abc.es, 18-3-09

 

 

-Tres nuevas especies de bacterias... ¿extraterrestres?

Tres nuevas especies de bacteria, previamente desconocidas en nuestro planeta, acaban de ser descubiertas en la estratosfera terrestre, a una altitud comprendida entre 20 y 41 km, por un equipo de científicos de la Organizacïón India de Investigaciones Espaciales (ISRO).

Capaces de sobrevivir a esa altura, donde la atmósfera se confunde con el espacio exterior, las tres han demostrado ser extraaordinariamente resistentes a la radiación ultravioleta, lo que abre diversas interrogantes sobre su procedencia.

Bautizadas como Janibacter hoylei, Bacillus isronensis y Bacillus aryabhata, los tres organismos fueron recolectados por medio de dieciséis cilindros de acero, esterilizados previamente, que recolectaron muestras de aire a diferentes alturas entre los 20 y los 41 km y fueron soltados después en paracaïdas para ser recogidos y analizados de forma independiente por dos grupos de cientïficos del Centro de Biologïa Celular y Molecular de Hyderabad y del Centro Nacional de Biologïa Celular indio.Ambos laboratorios llegaron a las mismas conclusiones, y descartaron que las bacterias pudieran proceder de algún tipo de contaminación de los cilindros con organismos terrestres. Doce colonias bacterianas diferentesEn total, fueron detectadas doce colonias bacterianas diferentes, nueve de las cuales presentaban más de un 98 por ciento de similitud genética con otras previamente conocidas. Pero tres de esas colonias, llamadas PVAS-1, B3 W22 y B8 W22, resultaaron ser completamente nuevas.Los investigadores al frente del experimento, que fue dirigido por U. R. Rao y P. M. Bhargava, no descartan que las bacterias puedan proceder del espacio exterior aunque, según sus palabras "el presente estudio no puede establecer de forma concluyente el origen extraterrestre de estos microorganismos".Sin embargo, sí que consideran su descubrimiento lo suficientemente importante como para animar a la comunidad científica internacional a que siga investigando y "continúe el trabajo de exploración sobre el origen de la vida".

Fuente: abc.es, 18-3-09

 

-Llegaron del espacio

Bienvenidos al espacio. O quizá sea mejor decir «bienvenido sea el espacio», habida cuenta de la cantidad de beneficios que su hasta ahora tímida conquista nos está reportando aquí, en la Tierra.  Puede que la mayoría de las personas no sean conscientes de ello, pero muchas de las pequeñas (y grandes) comodidades de las que disfruta hoy cualquier ciudadano fueron ideadas y desarrolladas para hacer algo más llevadera la vida de los astronautas mientras permanecen «ahí fuera».

Por no hablar de las tecnologías que, desde la medicina a las comunicaciones, la física de materiales, la microelectrónica o la investigación médica, se perfeccionaron para ser utilizadas en órbita, incluso en otros planetas, y terminaron por cambiar los hábitos y las vidas cotidianas de millones y millones de terrícolas.

Desde los teléfonos móviles a los pañales, los taladros sin cables, los bolígrafos que escriben boca arriba, los cristales que no se arañan, los materiales ignífugos, el plástico, los equipos médicos portátiles, las baterías de litio... Sólo la Oficina de Transferencia Tecnológica NASA tiene una lista de casi cuarenta mil entradas. Cada una de ellas responde a una patente «transferida» a la sociedad civil y procedente de alguna de las incontables disciplinas que forman parte de la investigación espacial. La Agencia Espacial Europea, la japonesa, la rusa y todas las demás también cuentan con sus propios departamentos de transferencia de tecnologías que, de hecho, se han convertido en una importante fuente de ingresos para todas ellas.

TECNOLOGÍA ÚTIL

Para todos los que se preguntan para qué sirve la carrera espacial, o para los que piensan que es absurdo gastar dinero en las estrellas cuando hay tantos problemas aquí, en la Tierra, vaya esta frase de Einstein: «¿Por qué esta magnífica tecnología científica, que ahorra trabajo y nos hace la vida más fácil nos aporta tan poca felicidad? La respuesta es esta, simplemente: porque aún no hemos aprendido bien a utilizarla».

Lo cierto es, en un gran número de campos, que la tecnología que hoy permite a los humanos vivir y permanecer en el espacio ha significado, desde el principio, el desarrollo de una larga serie de mejoras que han sido aplicadas después a nuestra vida cotidiana. El resultado es que usamos a diario, sin apenas darnos cuenta, tecnología espacial. Vienen aquí, como muestra, apenas un puñado de ejemplos.

VIDA COTIDIANA

Quizá sea en casa donde está la parte más visible y representativa de lo que recibimos del espacio. La lista de objetos y dispositivos de todo tipo es aquí realmente interminable. La investigación sobre trajes espaciales, en cuyo interior los astronautas deben permanecer a menudo durante largo tiempo, llevó al desarrollo de tejidos muy absorbentes y de polvos capaces de convertir la orina en gel. Ambas cosas, unidas, dieron lugar a los pañales desechables y a las compresas que hoy usan millones de bebés y mujeres en todo el mundo.

Otras características de esos mismos trajes ayudaron, también, a diseñar los atuendos de pilotos de carreras y de aviones de combate, bomberos y submarinistas. El velcro, por ejemplo, fue ideado para no tener que desabrochar botones o abrir bolsas con unos guantes que impiden los movimientos de los dedos.

El desarrollo de plásticos y vidrios especialmente resistentes, usados en los cascos de los astronautas y las cabinas de las naves tripuladas, llevaron al desarrollo, aquí abajo, de cristales irrompibles para bancos y joyerías, gafas y lentillas que no se rayan o cascos ligeros y resistentes que usan los miembros de todas las fuerzas de seguridad del planeta.

Otro ejemplo son las herramientas eléctricas portátiles, comunes en cualquier ferretería, y que proceden de una contrata que Black & Decker obtuvo de la NASA para desarrollar herramientas que no tuvieran que enchufarse y que pudieran ser utilizadas para tomar muestras en la Luna. Detectores de humo, filtros de agua y potabilizadoras portátiles también tienen su origen en desarrollos pensados para ser usados en órbita.

EN LA COCINA Y EL BAÑO

En millones de cocinas de la Tierra, las huellas de la investigación espacial son visibles en forma de hornos de microondas o bolsas herméticas para conservar los alimentos en el congelador. En el baño, las toallitas húmedas, creadas para facilitar la higiene de los astronautas sin necesidad de consumir agua, son otro ejemplo común de transferencia de tecnología.

Igual que lo son los bolígrafos que pueden escribir en cualquier dirección, incluso boca arriba, algo muy útil cuando uno se mueve en ingravidez, y que funcionan gracias a una microbomba que impulsa la tinta al presionar la punta sobre cualquier superficie. Tecnología que, por cierto, también se utiliza en los pequeños infusores que garantizan el suministro constante de medicamentos al organismo, o de insulina a los diabéticos.

SALUD

Cuando está en el espacio, en situación de ingravidez, el cuerpo humano experimenta cambios que pueden afectar al funcionamiento normal de músculos y órganos. Eso ha obligado a desarrollar técnicas y aparatos de diagnóstico que hoy son comunes en la mayoría de los hospitales.

El primero de ellos los medidores de densidad ósea o muscular, o el termómetro por infrarrojos, que facilitan la temperatura corporal en sólo dos segundos a través del oído, o los nuevos marcapasos, capaces de recibir señales desde un dispositivo externo usando la misma tecnología de comunicación de los satélites.

Las técnicas de diagnóstico por imágenes y las resonancias magnéticas proceden de un sistema ideado por la NASA en los sesenta para analizar fotografías por medio de ordenadores y revelar detalles difíciles de percibir a simple vista. Igual que brazos y piernas artificiales, ampliamente utilizados como prótesis ortopédicas, cuyo origen se encuentra en los brazos robóticos desarrollados para hacer frente a la necesidad de manipular objetos del exterior sin tener que abandonar la seguridad de las cabinas o cápsulas.

DEL ESPACIO AL QUIRÓFANO

Del espacio llega también el láser, que ha pasado de instrumento para medir la distancia de las estrellas a todo un abanico de aplicaciones terapéuticas. Los propios controles de asepsia y esterilización que hoy se aplican en hospitales y laboratorios proceden de los estrictos protocolos diseñados para evitar que las misiones espaciales trajeran a la Tierra algún microorganismo desconocido y peligroso.

La informática y las comunicaciones tampoco serían lo que son sin el impulso constante de la investigación espacial, que desde hace décadas lucha por conseguir baterías más duraderas, equipos más pequeños y discos de memoria compactos que permitan almacenar grandes cantidades de datos e imágenes. Alimentos precocinados, vitaminas en píldoras... todo ello, sin excepción, llegado directamente del espacio...

Fuente:
abc.es, 17-3-09

 

-El Discovery parte hacia la ISS con un mes de retraso

El transbordador "Discovery" despegó en la noche de este domingo con destino a la Estación Espacial Internacional tras un retraso de más de un mes por problemas en los conductos de combustible. La nave estará en el espacio 13 días, uno menos que lo previsto inicialmente, y sus tripulantes llevarán a cabo tres caminatas, en lugar de cuatro.

 

El transbordador rasgó con sus motores la oscuridad, sin nubes, del cielo de Cabo Cañaveral, en el Estado de la Florida (EEUU). "Todos los sistemas funcionan perfectamente", dijo el control de la Misión en el Centro Espacial Johnson en Houston (Texas, EEUU) poco antes de que la nave entrara en órbita terrestre. Dos minutos y cinco segundos después de su partida, los cohetes re-utilizables que le empujaban se separaron y cayeron al Océano Atlántico, donde serán recuperados.

 

STS 119 rumbo a la Estación Espacial Internacional

  Un alivio para la NASA

El lanzamiento fue un alivio para la Agencia Espacial Estadounidense (NASA), que lo había previsto inicialmente para el 12 de febrero. Problemas en las válvulas de combustible atrasaron cuatro veces el despegue. El mismo día del quinto intento, el miércoles pasado, los ingenieros detectaron una fuga de combustible en el tanque externo cuando comenzaron a llenarlo con los 1,8 millones de litros de hidrógeno y oxígeno necesarios para contrarrestar la fuerza de la gravedad de la Tierra. Tras reparaciones exhaustivas, la NASA dio el sábado el visto bueno al lanzamiento y el "Discovery" partió de Cabo Cañaveral en medio de buenas condiciones meteorológicas.

La única incidencia fue la presencia de un murciélago en el tanque de combustible externo, mientras comenzaba el trasvase del líquido congelado que impulsa la nave. "No se prevé que sea un problema", dijo Mike Curie, un portavoz de la NASA. La Agencia estaba bajo presión para lanzar el transbordador porque si se llegaba al martes habría tenido que cancelar la misión, pues un cohete ruso Soyuz está preparado para volar el 26 de marzo con una nueva tripulación para la Estación Espacial Internacional.

 

La misión STS-119 de Discovery despega desde el Centro Espacial Kennedy en Florida

Rumbo a la ISS

Actualmente, tres astronautas viven en órbita, a casi 400 kilómetros de la superficie terrestre, pero el objetivo es doblar ese número a partir de mayo. El "Discovery" lo hará posible, puesto que lleva en su bodega de carga el cuarto y último conjunto de paneles solares que aumentarán el suministro de energía del complejo. Con su instalación durante la primera caminata espacial, la nave disfrutará de un suministro de entre 84 y 120 kilovatios de electricidad, suficientes para 40 casas en la Tierra. La energía adicional permitirá sacar el mayor partido de los dos nuevos laboratorios instalados en la Estación, el Columbus europeo y el Kibo japonés, según la NASA.

La colocación de los paneles, sin embargo, se prevé complicada, pues estarán en un lugar alejado del centro de la Estación, en los límites de alcance del brazo robótico que asiste a los astronautas, por lo que su margen de movimiento será "muy limitado", de acuerdo con la Agencia Espacial. La nave también lleva una unidad del sistema de conversión de orina en agua potable que reemplazará a otra que tuvo un fallo cuando fue activada por primera vez el año pasado. Además, los especialistas del Discovery instalarán un nuevo segmento de la viga central de la estación.

La tripulación, encabezada por el coronel de la Fuerza Aérea Lee Archambault, está integrada por el especialista de origen puertorriqueño, el piloto Tony Antonelli, y los astronautas Steve Swanson, John Phillips, Joseph Acaba y Richard Arnold. También viaja con ellos el japonés Koichi Wakata, quien permanecerá en la EEI hasta mayo, cuando regresará a Tierra en el transbordador Endeavour.

Fuente: NASA, elmundo.es, 16-3-09

 

 

-Un satélite para dibujar la Tierra perfecta

La Agencia Espacial Europea (ESA) finalmente ha lanzado hoy, a la hora prevista, el satélite GOCE, para estudiar el planeta más interesante de todos los conocidos: la Tierra. El lanzamiento había sido aplazado ayer, 7 segundos antes de la ignición de motores del cohete Rockot, que transporta el satélite, debido aun problema detectado en la torre de servicio de la rampa de lanzamiento.

GOCE, el primero de los seis satélites de la ESA dedicados al estudio de este planeta, dibujará el mapa de la gravedad terrestre más preciso hasta la fecha. Con él podrán mejorar su trabajo los científicos que estudian el cambio climático o quienes tratan de predecir cuándo se va a producir un terremoto.

Aunque no parezca evidente, la fuerza de la gravedad no es la misma en todo el planeta. La Tierra no es una esfera perfecta sino una pelota que se achata en los polos y engorda en el ecuador. Al estar más cerca del centro de la Tierra, una persona situada en el polo pesaría más que si se encontrase junto al paralelo ecuatorial. Diferencias así en el tirón gravitatorio se reproducen con distinta intensidad en todo el planeta, y estas fluctuaciones son las que capturará el nuevo satélite europeo.

"El problema fundamental que permitirá resolver GOCE es determinar la forma básica de la Tierra, construir una superficie ideal", explica Miguel Aguirre, ingeniero de la Misión de la División de Programas futuros de Observación de la Tierra de la ESA. Una vez que se cuente con esa información será posible, por ejemplo, comparar la variación en los niveles del mar con esa esfera ideal para conocer cuáles son los motivos de estas fluctuaciones. "Las subidas del nivel del mar pueden deberse a que hay más agua o a que aunque hay la misma está más caliente", apunta Aguirre. "Ahora se podrá conocer qué parte se debe a cada fenómeno", añade. Además de esta información esencial para estudiar el clima, los instrumentos de GOCE obtendrán información sobre las masas de hielo al medir su tirón gravitatorio.

Otro de los resultados del trabajo de GOCE será la elaboración de un sistema que permita comparar altitudes en todo el mundo. Hasta ahora, Francia podía tomar como referencia la altura del nivel del mar en Marsella y España la de Alicante. Ahora, el nuevo satélite definirá con una precisión de hasta 1 centímetro la posición de Alicante respecto a Marsella.

 

Recreación del satélite GOCE en órbita. - ESA

 

Estudiar el interior planetario

Desde su posición en la órbita terrestre, el nuevo satélite de la ESA podrá escudriñar el interior de la Tierra. Uno de los factores que condicionan la fuerza que la gravedad ejerce en cada lugar es la composición del subsuelo. "Cuando uno mide el tirón gravitatorio, mide la estructura profunda de la zona de estudio", apunta Aguirre. "Si estuviésemos estudiando los Pirineos, por ejemplo, los datos de GOCE permitirían a los geofísicos determinar qué forma tiene la raíz de estos montes, hasta donde penetra, si es viscosa o fina... Y permitirá comprender el movimiento de unas plazas terrestres respecto a otras", explica. Con estos datos, los sismólogos tendrán una referencia más para predecir dónde puede golpear un terremoto. Algo parecido sucede con los volcanólogos ya que las fluctuaciones gravitatorias sirven para detectar movimientos magmáticos sospechosos bajo los volcanes. Las erupciones serán gracias a GOCE algo menos imprevistas.

Satélite 'top model'

Para detectar las diminutas variaciones en la fuerza de la gravedad, 45 compañías europeas lideradas por Thales Alenia Space han construido uno de los satélites más bellos de todos los tiempos. Frente a los insulsos cubos que suelen dedicarse a estos menesteres, GOCE es una máquina estilizada, con un diseño digno de una nave intergaláctica de película. El motivo de este alarde no es estético. Para poder captar las fluctuaciones gravitatorias, el satélite de la ESA deberá situarse en órbita a solo 250 kilómetros de la superficie terrestre. Allí, a diferencia de lo que sucede en las altitudes que suelen ocupar los satélites, la atmósfera aún ofrece resistencia. Un artefacto menos aerodinámico hubiese visto sus medidas distorsionadas por falta de estabilidad. Además, para mantener una velocidad uniforme pese al rozamiento, GOCE cuenta con un sistema de propulsión de iones. Precisamente, el mecanismo electrónico que alimenta y controla ese motor ha sido diseñado y construido por la empresa española Crisa.

El satélite de la ESA ha costado 350 millones de euros y se mantendrá operativo, en principio, durante 20 meses. Con él Europa comienza una etapa en la que pretende liderar la observación de la Tierra desde el espacio.

El primer paso de un programa para explorar la Tierra 

‘Cryosat 2’ vigilará el hielo

‘CryoSat-2’ es la versión mejorada de ‘CryoSat’. Este iba a ser el primero de una serie de al menos seis satélites dedicados a la exploración de la Tierra (‘GOCE’ es uno de ellos). Fue lanzado en 2005, pero un fallo en el cohete que debía colocarlo en órbita hizo fracasar la misión. ‘Cryosat-2’ recogerá datos que ayudarán a saber si realmente el cambio climático está causando el retroceso de los casquetes polares y la magnitud del fenómeno. Lo hará realizando mediciones del grosor de la capa de hielo en los polos y del hielo que flota en el mar.

‘SMOS’ se dedicará al agua

La sonda ‘SMOS’ medirá la humedad en la tierra y el grado de salinidad de los mares. El primer parámetro tiene relevancia para  conocer mejor el ciclo del agua y poder elaborar modelos climáticos más precisos. La salinidad de los océanos determina, junto a la temperatura, la densidad del agua y estudiarla servirá para  analizar con mayor precisión las corrientes marinas.

‘ADM-Aeolus’, al viento

‘ADM-AEOLUS’ realizará mediciones del viento. Esto permitirá mejorar las predicciones del tiempo y progresar en la comprensión de las dinámicas atmosféricas y los procesos climáticos.

'Swarm’ estudiará el campo magnético

El objetivo de la misión ‘Swarm’, que estará compuesta por una constelación de tres satélites, será realizar un amplio estudio del campo magnético de la Tierra y su evolución temporal. Sus datos también tendrán aplicación en modelos climáticos y en la prevención de los riesgos de las tormentas solares.
 

‘Earth care’ analizará las nubes

‘Earth CARE’, una misión conjunta de la ESA con Japón, estudiará las nubes y sus interacciones con la radiación y los aerosoles. Como en los casos anteriores, la información proporcionada por este satélite permitirá afinar los modelos climáticos.

Fuente: publico.es, 16-3-09

 

 

-El mayor depredador del mundo surcó los mares y pesó 45 toneladas

Los restos de un monstruo carnívoro que habitó los mares en el reinado de los dinosaurios y superó en tamaño al famoso Tiranosaurus Rex, el mayor predador del Cretácico, han sido descubiertos en una isla del archipiélago ártico de Svalbarb.

Según publica hoy en su edición electrónica el diario The Guardian, un grupo de cazadores noruegos de fósiles ha encontrado la parte trasera del cráneo del animal en el sudoeste de la isla de Spitsbergen en Noruega. El hallazgo, asegura el periódico británico, "ha sido descrito como uno de los descubrimientos más significativos del Jurásico".

El depredador ha sido identificado como una nueva especie de pliosaurio, un grupo ya extinto de reptiles acuáticos caracterizados por un cráneo enorme, un cuello corto y cuatro aletas para desplazarse en el agua. Las medidas de la parte trasera del cráneo y otros 20.000 fragmentos óseos hallados en la isla ártica muestran que la criatura ocupaba la cúspide de la cadena alimenticia y vivía a base de comer calamares, pescados y otros reptiles marinos.

Para hacerse una idea del colosal tamaño del pliosaurio, su cabeza era dos veces más grande que la del Tiranosaurus Rex y su mandíbula estaba salpicada de dientes de casi 30,5 centímetros de longitud. Los paleontólogos calculan que el animal, cuyo mordisco era cuatro veces más poderoso que el del Tiranosaurus Rex, medía 15 metros de largo, pesaba 45 toneladas y dominó los océanos hace 147 millones de años.

 

Imagen que recrea a un Pliosaurio de 45 toneladas atacando a un Plesiosaurio. AP

"Es realmente grande. Tenemos partes de la mandíbula inferior que son gigantes en comparación con cualquier cosa vista antes", afirmó Espen Madsen Knutsen, paleontólogo del equipo de la Universidad de Oslo que ha examinado los restos. "Se podía comer cualquier cose que se le cruzase", agregó Madsen Knutsen.

Los investigadores avistaron los primeros vestigios del animal durante el último día de una expedición llevada a cabo en 2007, en la que dieron con huesos de pliosaurios más pequeños. Sin embargo, Jorn Hurum, director de la expedición y miembro del Museo de Historia Natural de la Universidad de Oslo, reparó en que había unos huesos más grandes en el terreno y marcaron ese paraje con un GPS.

El pasado mes de agosto, el equipo regresó al lugar del hallazgo y quedó asombrado al comprobar que los restos correspondían al mayor pliosaurio encontrado hasta la fecha. Los paleontólogos han pasado los últimos meses limpiando y midiendo los fragmentos, con el fin de elaborar un dibujo del depredador.

Fuente: publico.es, 16-3-09

 

-La investigación de los fondos marinos

«Voy a explicar nuestras campañas, ahora que tenemos algún barco oceanográfico; ya lo he dicho muchas veces pero los fondos profundos es la única parte inexplorada del planeta y se sabe más de la superficie de la luna que de estos fondos». Esto sostiene Victoriano Urgorri, catedrático de zoología marina de la Universidad de Santiago y director de la Estación Biológica Marina de La Graña, en Ferrol. Urgorri, junto con Antonio Pérez Cribeiro, jefe de biología del Acuario, intervendrá mañana en el nuevo ciclo de los museos científicos coruñeses Los lunes con ciencia ; la disertación tendrá lugar en la Domus, a partir de las 20 horas.

Urgorri recuerda que España no tiene una flota oceanográfica como la de otros países europeos como Francia, Alemania «o incluso Italia» y aunque en los años 90 inició los estudios de los fondos marinos «no había infraestructura», algo que este apasionado de la investigación suplía con soluciones imaginativas: «Les daba una garrafa a los pesqueros y me traían las rocas de las zonas marinas donde iban a pescar».

«Viaxe a Galicia profunda»

En el año 2002 comenzaron las campañas para estudiar los fondos profundos de las llamadas llanuras abisales, cuya profundidad está entre los 5.000 y 6.000 metros. El título de la disertación de Urgorri es Viaxe á Galicia profunda. Campaña do buque Hespérides (2008) na busca da fauna abisal .

Urgorri recordó que el año pasado participaron, con el buque Sarmiento de Gamboa, en una investigación en la zona conocida como La Selva, frente a Ortigueira, un trabajo en el que participaron investigadores delas tres universidades gallegas y en las que estudiaron tanto los fondos como la columna de agua, «que es la masa de agua que está encima de esos fondos».

El pasado mes de septiembre la salida al mar fue con el Hespérides, «era proyecto viejo proyecto» y la campaña de investigación se llevó a cabo en una zona que va desde la altura de Ferrol hasta Fisterra y en unos fondos de hasta más de 3.000 metros.

Documental

En esa expedición, Antonio Pérez Cribeiro, hizo un pequeño documental que será proyectado durante la conferencia. «Antonio explicará este documental porque el tiene mucha formación en zoología y además fue biólogo de la cofradía de Cedeira cuyos barcos pescan mucho en esta zona», indica Urgorri.

De todos modos, este especialista indica que no pueden aportar muchos resultados ya que siempre que hacen campañas en especies nuevas «el trabajo de laboratorio es larguísimo, porque hay que separar granito, cada bicho y luego se estudian todos los animales; de hecho estamos publicando cosas del año 2002», recuerda Urgorri, además de apuntar que muchas de las separaciones de los materiales que se recogen en las expediciones «las hacen los alumnos en prácticas porque es complicado encontrar la financiación para estas investigaciones».

Además de insistir en la riqueza tanto del litoral gallego como de los fondos marinos, Victoriano Urgorri destaca que en las campañas también se recogen datos geológicos de importancia y de hecho «en octubre próximo vendrán cuatro geólogos y un físico en la expedición».

En el primer programa de la temporada 08-09 hablamos sobre la campaña del buque oceanográfico Hespérides en las costas gallegas.

Fuente: lavozdegalicia.com, 15-3-09

 

 

-Pobre CD, cumple 30 años y está a punto de desaparecer

En algún cajón de mi mesa de trabajo se amontonan CD con imágenes de productos de electrónica de consumo. Hasta hace dos años, las empresas enviaban las notas de prensa de sus nuevos lanzamientos acompañadas de un disco con fotografías en alta resolución para su publicación en papel. Hoy, lo normal es que en el texto se incluya una dirección web para descargar las imágenes o, con suerte, un llavero USB de memoria de bastante más capacidad que el disco. El CD, como dispositivo de almacenamiento de datos, hace tiempo que está muerto.

Si busco música en casa, la situación es parecida. Los pocos CD que tengo están en una cajas, olvidados y acumulando polvo. Se transfirieron en MP3 al disco duro del ordenador y al iPod y ya no sirven de mucho. Sí, aún se vende música en CD, pero es un mercado en caída libre. Para colarse en la lista de los 10 discos más vendidos de 2008 ha bastado con superar las 75.000 copias, una cifra con la que no se llega al disco de platino. En España, según Promusicae, nos gastamos el pasado año 225,2 millones en música almacenada en soportes físicos. Es un 12,4% menos que en 2007, muy, muy lejos de los 600 millones de euros de principios de la década.

El P2P y las tiendas de música on line están detrás del descalabro, pero también la evolución del consumidor, que ahora prefiere canciones sueltas, no álbumes empaquetados. En conjunto, las ventas de música suben casi un 10,5% —cifras globales de la consultora Nielsen— pero el 70% corresponde a transacciones digitales, descargas de música on line canción a canción. Los discos, principal fuente de ingresos de las casas discográficas, han caído un 14%. Hoy se vende casi la mitad de unidades que en el año 2000. Para toda una nueva generación, crecida al calor de Napster e iTunes, el CD ni siquiera existe. En 2007, en Estados Unidos, casi la mitad de los jóvenes no compraron ni un solo disco físico.

El CD, el primer soporte que permitió digitalizar la música, da su último aliento y apenas suma 30 años de vida. El pasado 9 de marzo fue su aniversario, una celebración que pasó casi desapercibida porque la industria tiende a situar el nacimiento del disco óptico en agosto de 1982, cuando la primera unidad salió de la fábrica de Philips en Hannover, Alemania. En realidad su presentación oficial fue en 1979. Ese año, Philips y Sony anunciaron en una rueda de prensa su intención de buscar un soporte digital que sustituyera al vinilo ofreciendo una calidad similar en un formato más pequeño, resistente y sin los artefactos sonoros y arañazos típicos de los tocadiscos; un disco compacto capaz de almacenar al menos una hora de música y que se leería por medio de un láser en lugar de usar una aguja.

 

LA NOVENA SINFONÍA. Durante el año siguiente se acordaron las especificaciones del estándar CD y CD-ROM. El diámetro pasó de los 115 milímetros previstos a los 120, una medida que permitía almacenar 74 minutos de música, la novena sinfonía de Beethoven completa. El nuevo tamaño tenía la ventaja de ser transportable e incluso usado en unidades portátiles parecidas al Walkman de Sony, que en aquel entonces apenas contaba con unos pocos años de vida pero que había tenido un gran impacto entre los jóvenes de Japón.

El conjunto de medidas, grosores, materiales y formas de grabación del CD quedó registrado en un libro conocido como el libro rojo, publicado en junio de 1980. Tuvieron que pasar dos años más hasta la llegada del primer disco, una grabación del director Herbert Von Karajan interpretando la Sinfonía Alpina de Strauss. The Visitors, del grupo sueco ABBA y fabricado para la casa de discos Polygram, fue pocos meses después el primer disco compacto que se estampó en serie.

En noviembre de 1982 el catálogo de música en este formato sumaba 120 títulos y fue la fecha elegida por Philips para poner a la venta el primer reproductor de CD del mercado, el CD100, en Japón. En marzo de 1983 la unidad llegó a Europa y Estados Unidos y, con un catálogo de más de 1.000 álbumes, este soporte comenzó su rápido despegue, aclamado entonces por su calidad sonora y la consistencia que le otorgaba su naturaleza digital.

DIRE STRAITS. La década de los ochenta quedaría marcada por el formato gracias a Dire Straits, el grupo que se escogió para popularizar el nuevo formato. Su álbum Brothers In Arms fue el primer disco grabado íntegramente en un proceso digital. Se convirtió en el más vendido de la década y en el primer CD en superar el millón de copias. La llegada del discman y la popularización del CD-ROM en el mundo de la informática dieron el empuje definitivo al soporte óptico. «Nuestro objetivo era crear un disco para el mercado musical. Nunca imaginamos que la industria de la informática y el cine acabarían por usar el mismo sistema óptico para almacenar grandes cantidades de datos y películas», asegura Piet Kramer, uno de los ingenieros de Philips que trabajó en el desarrollo del formato CD.

En 1988 los promotores del CD se reúnen de nuevo para crear el libro naranja, el conjunto de especificaciones del formato CD grabable y regrabable (CD-R y CD-RW) que salió por primera vez al mercado en 1990 y que supuso el primer paso para la unión de las industria musical y la informática. El CD dejó de ser un soporte de sólo lectura y se convirtió en un medio de grabación. La llegada del MP3 y el fenómeno Napster en el año 1999 marcarían el inicio de su declive como producto musical. El CD pasó a ser un lugar para guardar archivos, independientemente de que estos fueran música, fotos o vídeos. Aunque las ventas continuaron creciendo, un método alternativo de distribución musical —descarga de archivos y grabación en casa de un CD propio— empezaba a nacer.

Hoy, la multiplicación del ancho de banda, la llegada del DVD y las tarjetas de memoria flash han convertido al CD en un producto excesivamente limitado. En sus 700 MB apenas hay espacio para una película muy comprimida en formato MPEG 4 y, aunque su uso sigue siendo muy extendido en algunos mercados y en ciertos usos como el de soporte promocional, la reproducción de música MP3 en autorradios o las grabaciones personales, el precio de los discos vírgenes ya no resulta competitivo comparado con los discos duros externos, los llaveros de memoria USB —que además son reutilizables— o incluso los DVD-R.

VUELVE EL VINILO. En la industria musical, iTunes, una tienda exclusivamente digital, se ha convertido en la mayor vendedora de música del planeta, y el único soporte físico que triunfa, curiosamente, es el vinilo, el formato que el CD trató de dejar obsoleto. La cultura del DJ, el coleccionismo y la mejora de la calidad sonora de los discos y los reproductores durante la última década han llevado al vinilo a vivir una segunda juventud. El pasado año se vendieron casi dos millones de discos. Aún son muy pocos en comparación con las ventas de CD. Pero mientras el disco óptico cae, el analógico dobla su mercado cada año. Es la nostalgia de un sonido cálido, imperfecto y único; el único disco que, contra todo pronóstico, quedará en los catálogos de las casas discográficas.

Fuente: elmundo.es, 15-3-09

 

 

-Internet ¿20 años de estupidez?

Estos jóvenes son expertos en navegar por la red, pero son incapaces de pensar, concentrarse y aprender de la misma manera en la que lo hacían sus padres, afirman algunos expertos.

Lo que más está cambiando, según el profesor David Nicholas, de la University College London, son los hábitos de lectura, ya que al hacer una búsqueda por internet "se ojea todo de manera superficial, en lugar de leer un texto de forma detallada" como cuando se pasan las páginas de un libro.

En una pantalla de ordenador, "cuanto más largo y abstracto es un texto, menos atractivo resulta", dice Nicholas, y el tiempo de lectura es menos productivo, ya que se compagina con otras actividades simultáneas como revisar el correo, chatear, etcétera.  La neurocientífica Maryanne Woolf explica este fenómeno alegando que biológicamente "el ser humano no está hecho para leer. Está hecho para hablar, para ver, oler, pero no para leer", de manera que el cerebro ha tenido que adaptarse a esta actividad, tanto que el desarrollo del mismo ya puede medirse en grados de fluidez de lectura.

Sin embargo, según Woolf, hay varios estudios científicos que muestran que el cerebro está tomando una vía diferente, y que "las neuronas actuales están cambiando a medida que se modifican las formas de alfabetización".

"Creo que estamos en un momento de transición, y no puedo pronosticar el futuro", dice Woolf, pero "me preocupa que el niño que esté tan inmerso en los medios digitales sólo pueda aprovechar una parte de la lectura, y no sea capaz de profundizar en la información e ir más allá de lo que está escrito".

Aunque lo que hoy conocemos como internet fue creado en los años 60, la herramienta informática que podría estar transformando el cerebro humano - la www - nació en 1989 para que un grupo de científicos compartiera sus conocimientos de una forma rápida y sencilla.  En un primer momento el trabajo fue calificado de "vago, pero interesante", no obstante, se convirtió en el descubrimiento tecnológico del siglo XX

Para el gurú de internet canadiense Don Tapscott lo único que ha hecho la web es que los jóvenes "pasen menos tiempo delante de la televisión".

Cuando están en la red, "en lugar de ser espectadores pasivos de los videos de otra persona, están leyendo, pensando, organizando y compartiendo sus propias ideas", explica Tapscott. "Incluso los videojuegos les obligan a recordar cosas y a desarrollar estrategias".

Tapscott considera que actualmente se está utilizando un "modelo pedagógico erróneo que satura a los niños de conceptos que luego deben arrojar en un examen".

Sin embargo, cuando uno acaba una carrera, "lo importante no es sólo lo que se sabe, sino la capacidad de pensar, de resolver problemas y de comunicar", sentencia Tapscott.

Por su parte, la profesora de comunicación de la Universidad de Brighton, en el Reino Unido, Tara Brabazon, considera peligrosa esta pedagogía que elude el rol del profesor, ya que "insta a los estudiantes a explorar sus propias ideas, mientras que la educación pretende mostrarles otras culturas para aprender sobre personas diferentes".

Google y Wikipedia son para los estudiantes de hoy en día, lo que el diccionario y la enciclopedia eran para sus padres, pero la profesora Barbazon ha prohibido estas dos herramientas a sus alumnos para asegurarse de que "leen y escriben al nivel que se exige en la universidad".

"También existe algo que se llama biblioteca, y hay numerosos documentos, tanto en la red como en papel, a los que no tendrán acceso a través de Google", señala la profesora.

Fuente: BBC Mundo, 13-3-09

 

 

-Científicos estrechan el cerco sobre la elusiva partícula de Higgs

Un equipo internacional de científicos con base en Estados Unidos ha estrechado el cerco en su búsqueda de la elusiva partícula Higgs, cuya existencia nadie ha probado todavía, pero cuya existencia ha sido predicha teóricamente, aseguró hoy a Efe uno de sus miembros. Lo que ha hecho este grupo de investigadores, ubicado en Chicago, es reducir el rango de masas en el cual suponen que podría hallarse la partícula, que no ha podido ser detectada en ningún experimento.

La española Bárbara Álvarez, una de las científicas del equipo, explicó en conversación telefónica desde el Laboratorio Fermi, en Illinois, que hoy se ha excluido, con una probabilidad del 95 por ciento, la región situada entre los 160 y los 170 GeV/c2.

Un Gev/c2 es una medida de la masa que equivale a un gigaelectrón voltio dividido por la velocidad de la luz al cuadrado. Los científicos del Laboratorio Europeo de Física de Partículas ya habían establecido que el bosón de Higgs, si es que existe, debe tener una masa de entre 114 y 185 GeV/c2.

"Con las conclusiones de hoy quedan dos regiones donde buscarlo", dijo la investigadora. "Puede estar en la región de 114 a 160, o en la más alta de 170 a 185 GeV/c2", añadió.

Álvarez, de la Universidad de Oviedo, y su compatriota Bruno Casal, de la Universidad de Cantabria, participan en el equipo de cientos de investigadores que trabajan en el tevatrón de ese laboratorio del Departamento de Energía de Estados Unidos.

El tevatrón es un acelerador circular de partículas ubicado en Batavia (Illinois), que consiste en un sincrotrón que acelera protones y antiprotones en un anillo tubular de 6,28 kilómetros de longitud a energías de hasta un teraelectronvoltio.

"Las colisiones se llevan a cabo las 24 horas del día, y ocurren millones de colisiones por segundo de las cuales muy pocas producirían un bosón de Higgs", explicó Álvarez. "Por eso es un trabajo tan difícil, que lleva tiempo".

El bosón de Higgs es una partícula elemental hipotética cuya existencia la predice el modelo estándar de la física de partículas. Es, hasta ahora, la única partícula del modelo estándar que nadie ha observado, aunque (teóricamente) desempeña un papel importante en la comprensión del origen de la masa de otras partículas, y en especial de la diferencia entre el fotón, que no tiene masa, y los bosones W y Z, que son relativamente pesados.

Fuente: EFE, 13-3-09

 

 

-La cirugía que jubilará al bisturí

Nadie se atreve todavía a ponerle fecha de caducidad al bisturí tradicional, pero su jubilación está más cerca que nunca. La cirugía del futuro, que se caracteriza por la ausencia de cicatrices visibles, es ya una realidad consolidada en España, aunque todavía está recorriendo las etapas iniciales de su desarrollo.

Pulsa aquí

Esta novedosa técnica, conocida como cirugía endoscópica transluminal a través de orificios naturales (NOTES, en sus siglas en inglés), presente en España desde hace sólo un año y medio, se basa en el acceso a los órganos internos aprovechando las cavidades naturales del cuerpo humano y evitando hacer incisiones en la pared abdominal. Así, mediante un corte de pocos centímetros en la vagina, el ombligo –en su calidad de orificio embrionario–, el estómago o el ano, los cirujanos llegan a los órganos enfermos para su tratamiento o extirpación.

La ausencia de cicatrices conlleva no sólo un menor riesgo de infecciones, sino también menos dolor, una indudable mejora cosmética y tiempos de recuperación mucho más breves.

Los dos últimos ejemplos del desarrollo de esta técnica en España se han registrado esta misma semana en dos hospitales de Barcelona, el Clínic y el de Sant Pau. En el caso del Clínic, un equipo de especialistas dirigido por el jefe del Servicio de Urología, Antonio Alcaraz, presentó ayer la primera extracción de un riñón a través del ombligo llevada a cabo en España. La intervención, realizada a una mujer de 84 años con un tumor en el riñón, duró dos horas y 40 minutos (el doble que en un caso de cirugía laparoscópica tradicional). La paciente fue dada de alta a los tres días sin señales aparentes de haber pasado por un quirófano.

Toda la operación se realizó a través de un único orificio de cuatro centímetros abierto en el ombligo en el que se instaló un puerto (un soporte cilíndrico para los instrumentos de laparoscopia). A través de este puerto, que contaba con tres entradas, se introdujeron los instrumentos necesarios, como una cámara, distintos tipos de pinzas y un bisturí eléctrico. Tras desligar el riñón enfermo de sus vasos sanguíneos, los cirujanos lo metieron en una bolsa de plástico y, a continuación, lo sacaron entero a través de una de las cánulas. En este caso se utilizó el ombligo porque los médicos aprovecharon para tratar en la misma operación una hernia abdominal que tenía la paciente, pero, en general, la forma más común de extraer órganos con cirugía NOTES en mujeres es a través de la vagina.

“La cirugía a través del ombligo está más pensada para hombres”, explicó a Público Antonio Alcaraz, que recordó que en el caso de las mujeres el Clínic ya ha hecho 13 extirpaciones de riñón a través de la vagina desde que el año pasado presentaran el primer caso en España de esta técnica.

El otro avance significativo, y en este caso pionero a nivel mundial, tiene como protagonista al Hospital Sant Pau de Barcelona, que presentó el pasado miércoles las primeras dos extracciones del bazo a través de la vagina utilizando también la técnica NOTES. Asimismo, los cirujanos del Sant Pau lograron realizar hace pocas semanas otras dos extirpaciones de bazo en sendos varones, en estos casos a través del ombligo.

Mejor observación

Manuel Trias, jefe del Servicio de Cirugía del centro catalán, defiende esta técnica frente a la cirugía tradicional, y cita una ventaja adicional para el médico: gracias a los instrumentos ópticos se observa mucho mejor el órgano a intervenir que en la cirugía abierta. Sin embargo, todavía queda mucho camino por recorrer, sobre todo en el desarrollo de instrumentos quirúrgicos apropiados: “Todavía no hay material adecuado, y hay que irlo produciendo”, dijo.

El jefe de Ginecología del Hospital Son Llátzer de Mallorca, Ángel Martín, que en 2007 formó parte del equipo de este centro que hizo la primera extracción de un órgano con cirugía NOTES (una vesícula biliar), indica que esta nueva técnica “se extiende rápido”, aunque hoy por hoy “no se enseña en las facultades”. “Se trata de una técnica de superespecialización que se aprende con la práctica clínica y que lo que necesita es más desarrollo tecnológico”, indicó.

Antonio Alcaraz: "Buscamos la operación sin cicatriz"

El jefe del Servicicio de Urología del Hospital Clínic de Barcelona está convencido de que la cirugía NOTES acabará sustituyendo a la cirugía que se realiza en la actualidad en la mayoría de los centros sanitarios.

¿Cuál es la diferencia básica entre este nuevo tipo de cirugía y la laparoscopia tradicional?

En la cirugía laparoscópica tradicional colocamos diferentes puertos [cánulas por donde se introducen los instrumentos quirúrgicos] en el abdomen y hacemos otra incisión por donde sacamos el órgano, mientras que en este caso los puertos coinciden con la zona de extracción del órgano enfermo.

¿Cuáles son las principales mejoras que supone la cirugía transluminal a través de los orificios naturales (NOTES)?

La ventaja cosmética [apenas hay cicatrices] y una recuperación más rápida, ya que hay menos riesgo de infecciones y también menos dolor. Con esta técnica buscamos la operación sin cicatriz; intentamos que la cicatriz sea mínima, y que esté escondida en el ombligo o en la vagina. Éste es el objetivo último.

¿Es la falta de instrumental adecuado el principal obstáculo para la generalización de esta técnica?

En este ámbito estamos aún en precario, pero gracias a la colaboración con la industria tendremos en breve un instrumental mucho más avanzado que va a permitir que esta técnica, que está todavía en una fase muy inicial, sea lo que tiene que ser: algo de lo que todo el mundo se pueda beneficiar. En el futuro los instrumentos tendrán cabezales mejor adaptados y esto nos permitirá trabajar con mucha más habilidad.

Los accesos utilizados por esta cirugía son la vagina, el ombligo, el ano y la boca. ¿Llegarán a usarse otros orificios naturales, como el oído o la nariz?

Todavía no hemos llegado a eso. Lo más establecido es el acceso transvaginal, aunque el ombligo va a cobrar cada día más auge. El acceso mediante la boca y el estómago es todavía puramente experimental y en cuanto al ano se ha hecho algún avance, pero nos sigue pareciendo una vía peligrosa.

¿Cree que en el futuro este tipo de intervenciones sustituirán a la cirugía tradicional?

Esta técnica, que es una evolución de la laparoscopia, está naciendo, pero va a sustituir casi seguro a la cirugía que se hace ahora.

 

Fuente: publico.es, 12-3-09

 

 

 

 

-"Google" retoca Marte

Mientras se celebra en todo el planeta el Año Internacional de la Astronomía, el gigante Google actualiza su mapa de la superficie marciana con nuevos servicios, informa la compañía. Puro entretenimiento mezclado con ciencia. Google Maps se actualiza con nuevas opciones para que los usuarios puedan bucear en el presente y el pasado del planeta rojo. Gracias a los 'mapas históricos', se puede acceder a mapas antiguos los de Giovanni Schiaparelli o Percival Lowell, proyectados sobre la superficie de Marte.

 

También se han actualizado determinadas vistas del planeta con nuevas imágenes de la NASA y de la ESA, y se ha simplificado más -si cabe- la búsqueda de sitios sobre la superficie marciana, ideal para aficionados a la astronomía. No obstante, el cambio más llamativo que ha introducido Google es 'Live from Mars' ('En Directo desde Marte'), una capa que muestra imágenes de forma continua obtenidas por la nave Mars Odyssey de la NASA. Así, se puede 'volar' con la Odyssey y con la Mars Reconnaissance Orbiter, para contemplar qué es lo que están explorando y hacia dónde se están dirigiendo.

Por último, los usuarios de Google Earth pueden conocer la historia de Marte con las visitas guiadas que cuentan con la narración de Ira Flatow y Bill Nye, reconocidos especialistas americanos en ciencia.

Para acceder a todo este contenido, los usuarios tienen que seleccionar 'Marte' en la barra de herramientas de Google Earth, lo que les llevará a una vista en 3D del mismo. Las herramientas para navegación y exploración son idénticas a las de Google Earth: 'zoom' para alejar y acercar, cambiar de punto de vista o girar el planeta entero con un clic del ratón.

Fuente: elmundo.es, 12-3-09

 

 

-La Plataforma Oceánica de Canarias (Plocan) costará 22 millones de euros

 

Imágenes del proyecto

La Plataforma Oceánica de Canarias (Plocan) costará 22 millones de euros que financiarán al 50 por ciento el Estado y el Gobierno autonómico, así lo manifestó hoy el director de la Agencia Canaria de Investigación, Innovación y Sociedad de la Información (ACIISI) del Ejecutivo autonómico, Juan Ruiz Alzola, tras el quinto consejo rector de la Plocan celebrado en la capital grancanaria.

   Alzola señaló, en rueda de prensa, que esto se debe a que ambas administraciones tienen "una visión compartida" en cuanto a la necesidad de "desarrollar en España una economía basada en el conocimiento" con el fin de "cambiar el modelo de desarrollo". Asimismo, destacó que Canarias "tiene prácticamente el 20 por ciento de la costa española" y el sector marítimo "supone más del 6 por ciento del Producto Interior Bruto (PIB) canario, significa aproximadamente el 6 por ciento del empleo" en las islas. Por ello, subrayó que dicho sector está "llamado a jugar un papel preponderante".

   "Canarias tiene la posibilidad de convertirse en esa gran plataforma de la investigación y del apoyo a la innovación empresarial en todo en lo que al mar se refiere en el Atlántico medio. Eso es una apuesta que tenemos que compartir el Gobierno de Canarias y el Gobierno de España", afirmó Alzola.

   Además, incidió en que la Plataforma "está llamada a ser un elemento totalmente singular" en el ámbito nacional e internacional, de ahí que sea "una apuesta firme" de ambas administraciones. Añadió que aunque apuestan por este tipo de iniciativa en un momento complicado, de crisis internacional, señaló que los ejecutivos nacional y regional lo tienen que "hacer para ser capaces de salir de esta situación de crisis económica de una forma mucho más sólida".

   Por su parte, el director general de Planificación y Coordinación del Ministerio de Ciencia e Innovación, Juan José Moreno, aseguró que desde el Estado existe una "clara apuesta por esta infraestructura", que se enmarca dentro del programa general del citado Ministerio que apuesta por las "grandes infraestructuras" para conseguir "hacer la ciencia especial" y conseguir que estas instalaciones sean "un referente europeo internacional".

   Moreno destacó el "ejercicio de generosidad" de Canarias con la comunidad científica al poner los medios para la construcción de dicha Plataforma, al igual que el Periscopio de Canarias "que se inaugurará próximamente" y que ya está funcionando "al 100 por 100". Para el director general de Planificación, la Plocan será la "gran plataforma de las ciencias marinas", ya que la definió como una instalación "singular en el mundo". Añadió que se pretende hacer "algo que es novedoso" porque se quiere que sea el "referente de todo la investigación oceánica en el Atlántico".

   En cuanto a la forma en la que se ha optado para la elección del proyecto, ya que aún se desconoce cómo será la Plataforma, Moreno explicó que se ha decidido el proceso "novedoso" de 'diálogo competitivo' consistente en que cuando se hace una adjudicación no se hace con un pliego cerrado de condiciones, sino que este "puede modificarse durante el diálogo con las empresas".

   Agregó que las empresas que acudan al procedimiento deberán tener la "misma información entre ellas" aunque sobre la marcha se podrán "hacer diferentes modalidades, diferentes opciones de lo que se quiere conseguir al final", lo que incluso podría implicar, entre otras cosas, "diferentes precios en un momento dado con el que se licita" pero también permite que las empresas "dialoguen entre sí" para ser licitadores de lo que se pretende impulsar.

   De este modo, se prevé que a primeros de abril comience dicho procedimiento, 'diálogo competitivo', para formalizar el contrato "a finales de año" y en 2011 esté operativa la Plataforma.  El procedimiento de 'diálogo competitivo', hasta el momento, sólo se ha utilizado, también en el Ministerio de Ciencia e Innovación, para la nueva Red de Fibra Óptica de Comunicación Académica.

Creación de recursos

   Por su parte, el director de la Plocan, Octavio Llinás, destacó que la Plataforma, que se prevé que comience a funcionar en 2011, permitirá crear recursos, ya que se trata de una "iniciativa movilizadora de ciencia y tecnología marinas de excelencia dirigidas a la búsqueda de la competitividad socioeconómica empresarial internacional".

   Añadió que se pretende que la Unión Europea se incorpore como un "agente importante" una vez se ponga en marcha en la promoción de la Plataforma donde se pretende que converja la I+D+i pública de la ciencia y la tecnología con la I+D+i privada, de empresas, para generar ciencia, desarrollo tecnológico de "gran nivel", entre otras cuestiones.

   Llinás explicó que las líneas de actuación de dicha instalación estarán enfocadas a la creación de una plataforma tecnológica de innovación donde existe una "gran esperanza en que esto se convierta en un gran referente" en su campo de acción; un banco de ensayos donde se podrá hacer "cualquier tipo de experimentación"; base nacional de vehículos de instrumentos; observatorio multidisciplinar de aguas profundas para estudiar, entre otras cosas, el cambio climático; y un centro de alta especialización profesional.

   En cuanto al lugar de ubicación de la Plataforma, explicó que se ha estudiado la franja Este de la isla de Gran Canaria, desde el Sur del Puerto de La Luz y de Las Palmas hasta Arinaga, ya que esto dependerá de cómo se prevea construir. Añadió que las instalaciones, según un análisis elaborado, deberían tener unas dimensiones mínimas de profundidad de 50 metros, así como una superficie en planta entre 800 y 900 metro.

   Asimismo, en lo que respecta al personal que se contratará se prevé que esté alrededor de 50 personas, aunque se estima que el primer año de funcionamiento de la Plataforma se movilice entre "300 y 400 investigadores" nacionales e internacionales.

   También insistió en que Estado y Ejecutivo canario continúa manteniendo el compromiso de que la Plataforma esté en funcionamiento en 2011, para que la infraestructura "empiece a generar los beneficios".

Para saber más:

http://www.plocan.eu/index.php

Programa de radio "Explora" (Cadena Ser en Canarias). Entrevista a Octavio (Director del Instituto Canario de Ciencias Marinas)

 

Fuente: europapress.es, 11-3-09
 


 

-¿Encontró "Phoenix" agua líquida?

El análisis, posterior a la misión, de los datos recogidos por el aterrizador marciano Phoenix está revelando nuevas y fehacientes pruebas (“evidencias de arma humeante” según el argot estadounidense) de que la nave descubrió agua líquida en el Planeta Rojo. Los datos que muestran que Phoenix fotografió y palpó agua líquida constituyen un descubrimiento espectacular que se relaciona directamente con el potencial de Marte para albergar vida, tanto en el presente como en el pasado. Además de las pesquisas directas en pos de la vida, la búsqueda de agua líquida que pueda soportarla ha sido el "Santo Grial" de la exploración de Marte desde los 1960s.

Este mosaico, montado a partir de imágenes obtenidas por Phoenix, muestra las tres patas del tren de aterrizaje de la nave.
Salpicaduras de material marciano en una de las barras transversales de la pata situada a la izquierda en el mosaico, podrían ser de agua líquida salina.
Véase la ampliación justo a continuación. Créditos: Kenneth Kremer, Marco di Lorenzo, NASA/JPL/UA/Instituto Max Planck

 

 

La ampliación muestra las salpicaduras de material en la barra transversal de la pata del aterrizador.
Créditos: Kenneth Kremer, Marco Di Lorenzo, NASA/JPL/UA/Instituto Max Planck
 

 

El descubrimiento tiene implicaciones históricas, mucho más importantes que el anterior hallazgo del aterrizador de hielo de agua, duro y compacto. Esto es así porque, hasta donde la ciencia conoce a día de hoy, la vida puede existir en el agua salada, similar a salmuera, encontrada por Phoenix, pero no se puede formar en el agua congelada hallada en su lugar de aterrizaje en el polo norte, donde las temperaturas nocturnas en invierno alcanzan habitualmente los 75ºC bajo cero.

Otra conclusión igualmente importante del equipo de Phoenix es que los datos recopilados indican que esa agua líquida no se encontraría solamente en el lugar de aterrizaje, sino que es muy probable que exista actualmente en muchos sitios de Marte.

Todas estas conclusiones están recopiladas en un nuevo informe titulado "Evidencias Físicas y Termodinámicas de Agua Líquida en Marte". Este informe será presentado el 23 de marzo, en la 40ª Conferencia sobre Ciencia Lunar y Planetaria en Houston, y ha sido firmado por 22 miembros del equipo científico de Phoenix y por Peter Smith, de la Universidad de Arizona, Investigador Principal de la misión y líder del equipo.

Han sido las imágenes de salpicaduras de material marciano en el tren de aterrizaje de la nave las que primero dividieron, luego unieron, y finalmente convencieron a las casi dos docenas de científicos de Phoenix de que "existe agua líquida salina en zonas agitadas por el aterrizador", según se afirma en el informe. Esto es lo que se describe como evidencia fehaciente (“arma humeante”) de la presencia de agua líquida en el lugar de aterrizaje.

Este descubrimiento, extraordinariamente significativo, de que actualmente existen salmueras de agua en la superficie de Marte tiene implicaciones muy importantes sobre la posibilidad de vida marciana actual. Sin embargo, no es garantía de que la vida exista, porque el fluido pudo ser demasiado fugaz o demasiado salobre para la vida.

Y también ayudaría a explicar las aparentes pruebas de erosión reciente vistas por MRO (Mars Reconnaissance Orbiter). Los científicos creían anteriormente que todas características marcianas excavadas por el agua habían sido creadas miles de millones de años atrás; sin embargo, muchas de esas características no concordaban con una geología tan antigua.

Según afirman los investigadores de Phoenix, los datos del aterrizador aportan pruebas, tanto termodinámicas como físicas, de la existencia actual y ampliamente extendida por Marte de agua con un elevado contenido de sal. Tal y como sucede con todo lo que concierne a la posibilidad de vida en otro planeta, los datos serán debatidos acaloradamente.

Pero los nuevos hallazgos de Phoenix, que han aparecido después de que el aterrizador dejara de funcionar a principios de Noviembre, están consiguiendo un apoyo excepcionalmente amplio. Los miembros del equipo científico involucrados en estos descubrimientos representan a laboratorios y universidades tanto de Canadá y Europa, como de los EE.UU.

Aunque Phoenix nunca observó directamente agua líquida en la tierra o en el hielo subterráneo que encontró al excavar, los científicos creen que el material estaba allí y que fue salpicado a las barras del tren por los motores de descenso de la nave durante el aterrizaje del 25 de Mayo.

Basándose en los datos de Phoenix, y también en otras muchas fuentes de información sobre Marte, el equipo científico dice que confía plenamente en "la hipótesis de que el agua líquida salina es (actualmente) común en Marte". Los miembros de este equipo dicen en su informe que el descubrimiento afectará a casi cada aspecto de la investigación marciana, incluyendo al desarrollo de nuevas naves, más allá del MSL (Mars Science Laboratory) que se prevé lanzar en 2011: "Este descubrimiento tiene implicaciones muy importantes sobre la estabilidad del agua líquida, sobre el clima, sobre la mineralogía, sobre la geoquímica y sobre la habitabilidad de Marte".

El autor principal del informe es Nilton Renno, de la Universidad de Michigan. Asimismo, los descubrimientos están también fundamentados en los estudios realizados por Aarn Zent del Centro de Investigación Ames. Su trabajo descubrió que las moléculas de agua de la atmósfera marciana condensan en el suelo como finas películas de humedad sobre las partículas de tierra (y, en este caso, sobre el tren de aterrizaje de Phoenix).

Un factor clave para mantener, en el suelo, una cantidad de humedad (no congelada) suficiente para hacerla habitable es la presencia de sales de perclorato que reducen mucho la temperatura de congelación del agua. Según éstos y otros datos de Phoenix, que van a ser presentados en la LPSC, los percloratos encontrados por Phoenix son capaces de mantener suficiente humedad (en estado líquido, en vez de congelado) como para soportar formas de vida similares a las encontradas en la Tierra en regiones sumamente secas como los 'Dry Valleys' de la Antártida.

Existen también otras evidencias fehacientes, basadas tanto en los datos de Marte, como en datos obtenidos en la Tierra, que soportarían los descubrimientos de salmueras de agua en Marte. Tales salmueras se encuentran, por ejemplo, entre 2 y 10 centímetros bajo la superficie, en los valles secos de la Antártida.

Los rovers Spirit y Opportunity han encontrado también pruebas de tales salmueras en épocas pasadas de Marte. Según afirma el equipo científico, "la presencia de estas salmueras es consistente con las evidencias de alteración de meteoritos por agua que los rovers han encontrado durante su estancia en Marte".

"Y finalmente, las salmueras tienen una elevada constante dieléctrica que puede ocasionar atenuación en las señales de radar. Esta atenuación parece ocurrir frecuentemente, según las mediciones de los orbitadores marcianos de la NASA", concluye el informe de Phoenix.

Phoenix “murió” en Noviembre, sobrepasado por las cada vez más frías temperaturas invernales. Es improbable, aunque posible, que la nave vuelva a la vida en Octubre, cuando la luz solar esté en su máximo. Los ingenieros, sin embargo, lo dudan porque creen que Phoenix habrá sido recubierta por hielo de dióxido de carbono que habrá roto sus paneles solares.

Fuente: sondasespaciales.com, 11-3-09

 

 

 

-Los peces necesitaron dos años para recuperarse del Prestige

 

Los peces demersales, aquellos que habitan en los fondos marinos, empezaron a recuperarse del vertido del petrolero Prestige dos años después de la catástrofe sucedida en noviembre de 2002. Así lo demuestra un estudio dirigido por Concha Martínez-Gómez, investigadora del Instituto Español de Oceanografía, y que se acaba de publicar en la revista Chemosphere, informa SINC.

Los investigadores analizaron, cinco meses después del accidente y durante tres años, la respuesta de una serie de biomarcadores de exposición a contaminación química en las poblaciones de gallo (Lepidorhombus boscii) y de dragoncillo (Callionymus lyra). "A partir del segundo año, la respuesta de estos biomarcadores disminuyó significativamente, en la mayoría de las áreas estudiadas", explica Martínez. Desafortunadamente, los investigadores no pudieron conocer si la situación era la misma que antes del accidente del petrolero porque no había estudios anteriores a 2002 en estas especies.  Los científicos realizaron más de 1.500 muestras de ambas especies a lo largo de toda la plataforma norte peninsular, desde Galicia al País Vasco, y en diferentes ambientes, desde los 70 a 400 metros de profundidad.

"Se eligieron estas especies porque los peces demersales son los que mejor reflejan la contaminación de los sedimentos marinos", expone la investigadora. Además, los científicos concluyen que el vertido del Prestige tuvo un impacto en los peces demersales tanto en las áreas costeras como en aguas profundas de la plataforma continental.

 

Fuente: publico.es, 10-3-09

 

 

-Obama abre una nueva etapa en la investigación con células madre

El presidente Barack Obama ha puesto fin a los límites que el anterior mandatario George W. Bush había fijado en 2001 a la investigación con células madre procedentes de embriones humanos. De esta manera, y en contra de la voluntad de muchos grupos católicos, Estados Unidos empezará a destinar fondos federales a este tipo de estudios con la intención de encontrar un tratamiento para muchas enfermedades que no tienen cura en la actualidad.

 

"Los científicos creen que estas células pueden tener potencial para ayudarnos a comprender, y posiblemente curar, algunas de nuestras más devastadoras enfermedades y patologías", ha declarado Obama. "Apoyaremos en todo lo posible a quienes lleven a cabo ese tipo de investigación" ha señalado el mandatario estadounidense, que ha agregado que el liderazgo mundial en ese en ese ámbito es uno de los objetivos del país.

Obama ha insistido en que la norma no "abrirá la puerta" a la clonación humana que considera que es "peligrosa, profundamente errónea y que no tiene lugar en nuestra sociedad, o en cualquier sociedad". No obstante, ante el enorme potencial que tiene la investigación con células madre, considera que América debería jugar un papel en la exploración de las fronteras de esta investigación.

En agosto del 2001, el entonces presidente de Estados Unidos George W. Bush revirtió una decisión de los Institutos Nacionales de Salud que permitía a los investigadores financiados por el Gobierno federal trabajar con células madre provenientes de embriones humanos.

Desde entonces, y a pesar de los intentos tanto del Congreso como del Senado de liberar este tipo de investigaciones, Bush ha limitado el trabajo en este campo y estos científicos sólo podían trabajar con los lotes ya existentes de células madre, es decir, con el material procedente de 21 líneas celulares.

Bush y otras personas se oponían (y se oponen) al uso de este material por cuestiones éticas y religiosas, dado que esas células tan poderosas provienen de embriones humanos de unos pocos días de vida.

Sin embargo, Obama ha declarado que, como cristiano creyente que es, está obligado a ayudar a las personas que sufren. Y ha criticado la postura de la pasada Administración como "una elección errónea entre la ciencia razonable y los valores morales". En este caso, ha indicado el actual presidente, "creo que esos dos aspectos no son irreconciliables".

Las voces que apoyan la investigación con células madre señalan que la misma puede ayudar a conseguir grandes avances en la lucha contra enfermedades como el Parkinson o la diabetes.

Repercusión en Europa

"Es una decisión que, no por esperada es menos bienvenida", ha señalado a elmundo.es el investigador español Juan Carlos Izpisúa. "No me cabe duda de que la contribución de los centenares de grupos estadounidenses que no pudieron acceder a este tipo de investigación en la época de George W. Bush será determinante para resolver los problemas que hacen que las células madre pluripotentes humanas (embrionarias o las iPS) no tengan aplicación clínica por el momento", apunta el director del Centro de Medicina Regenerativa de Barcelona. Con la adopción de esta norma, tal y como prometió Obama en su campaña electoral, los investigadores de todo el país podrán trabajar con fondos federales con células derivadas de otros laboratorios.

Paradójicamente, como reconoce Izpisúa, la decisión de Obama podría repercutir negativamente en el futuro de los grupos españoles que trabajan en este tema. A juicio del investigador, la medida supondrá un aumento considerable de la competición en un campo que ya es extraordinariamente competitivo". A pesar de eso, admite que si se consigue aprovechar "la posición de relativa ventaja que tiene en estos momentos Europa y, en particular España, en este tema para crear sinergias y colaboraciones con grupos americanos, en lugar de (o a la vez que) competir con ellos, todos podemos salir beneficiados".

De momento no se ha especificado ningún tipo de advertencia o requisito para estos estudios, pero se espera que en los próximos 121 días, los Institutos Nacionales de Salud del país publiquen unas guías que contemplen cómo se puede llevar a cabo este tipo de investigación y cómo solventar las diferentes dudas éticas que conllevan estos trabajos.

Durante su discurso en la Casa Blanca, Obama ha prometido apoyar no sólo la investigación con células madre embrionarias sino también cualquier trabajo innovador que sea realizado con células humanas ordinarias.

"Muchas personas amables y decentes están en conflicto, o se oponen fuertemente, con este tipo de investigación", ha señalado el presidente. "Comprendo su preocupación, y debemos respetar su punto de vista". Obama ha explicado que se asegurará que el gobierno establezca estrictas guías sobre el tema y además ha aclarado que la nueva legislación no afectará a las leyes federales que previenen el empleo de dinero federal para destruir embriones humanos.

Aunque la norma permitirá ampliar las oportunidades de investigación sobre las líneas establecidas, no conllevará la creación de unas nuevas, algo que requiere de la intervención del Congreso. El presidente no ha tomando ninguna posición al respecto.

Reacciones

La decisión adoptada ahora por Barack Obama ha dado un giro a la política de Estados Unidos en investigación científica, algo muy esperado por médicos y científicos. Uno de ellos es el doctor Irving Weissman que ha atravesado el país para estar presente en este evento. Por su parte, Larry Soler, de la Fundación de Investigación en Diabetes Juvenil, comentará por la red social Twitter sus impresiones.

Mientras tanto, otros expertos envían correos electrónicos repletos de signos de exclamación a sus colegas, todos ellos entusiasmados por la decisión del presidente estadounidense, que ha sido anunciada en medio de una audiencia en la Casa Blanca repleta de defensores y políticos invitados.

"He estado trabajando y denunciando la prohibición durante unos ocho años y ahora quiero estar ahí", dijo Weissman, director del Instituto de Biología de las Células Madre y Medicina Regenerativa de la Stanford University.

"Podemos levantar la burocracia que fue establecida para controlar cada compra de cada laboratorio y avanzar con esta investigación importante", ha manifestado el doctor.

Michael West de la compañía biotecnológica BioTime (con sede en California) ha señalado por su parte que su empresa comenzará a beneficiarse con la decisión de Obama casi inmediatamente.

BioTime acaba de comprar docenas de lotes de células madre de una clínica de fertilidad de Chicago y quiere venderlas a los recién incentivados investigadores.

Los lotes provienen de embriones fecundados a través de procesos de fecundaicón in vitro y que portan los genes de la fibrosis quística, la distrofia muscular de Duchenne, el cáncer de mama, la enfermedad de Huntington y otras patologías.

"Sería poco ético implantarlos (en un útero) sabiendo que van a dar origen a un niño con una enfermedad devastadora", dijo West durante una entrevista telefónica. Pero esas células serán perfectas para estudiar estas enfermedades, con la esperanza de algún día poder curarlas o prevenirlas. Bajo las restricciones de Bush, los investigadores financiados a nivel federal no podían tocarlas.

"Las células madre embrionarias tienen esta propiedad maravillosa de dividirse sin límite", apostilla West a modo de explicación, una característica que permite reprogramarlas para lograr que se conviertan en cualquier linaje celular del organismo humano.

Fuente: elmundo.es, 9-3-9

 

-Las temperaturas pueden alcanzar niveles peligrosos este siglo

Existe un 50% de probabilidades de que las temperaturas del planeta alcancen niveles peligrosos en los próximos cien años, según advierten los climatólogos británicos.

Aunque se reduzcan en un 3% anual las emisiones de gases de efecto invernadero a partir de 2015, sólo hay un 50% de probabilidades de evitar que las temperaturas suban más de un 2% para el año 2050. Y por cada diez años de retraso en tomar medidas para recortar esas emisiones, las temperaturas subirán medio grado, advierten los expertos del Met Office Hadley Centre, de Exter (Inglaterra).

Los científicos británicos presentarán sus conclusiones, que adelanta hoy el diario «The Times», en la conferencia sobre el clima que se celebra esta semana en Copenhague y que servirá de preparación de la cumbre de las Naciones Unidas prevista para diciembre en esa misma capital.

Jason Lowe, del Hadley Centre, presentará las conclusiones de su estudio según las cuales las emisiones de gas invernadero, incluidas las de CO2, deberían alcanzar un pico en 2015 para caer cada año un 3% hasta 2050 si se quiere lograr una reducción global hasta la mitad de los niveles alcanzados en 1990.

Recorte mínimo del 50%El recorte del 50% para el 2050 de esas emisiones en relación con los niveles de 1990 se considera el mínimo necesario para que la Unión Europea tenga expectativas razonables de limitar a un 2% el incremento de la temperatura media. Según Lowe, si las emisiones alcanzan un pico en 2015, pero se reducen a partir de entonces sólo en un 1% anual, las temperaturas se incrementarán en un 2,9% para 2050, y si las emisiones alcanzan ese pico en 2035, las temperaturas medias aumentarán en un 4%. Si no se actuase, es decir, si no se recortasen las emisiones de gas invernadero, las temperaturas podrían aumentar hasta 7,1º C de aquí a final de siglo.

Los científicos creen que un incremento de las temperaturas superior al 2% podría conducir a guerras en torno a recursos como el agua, a una caída de la producción agrícola y a la difusión de enfermedades como el paludismo y el dengue. Casi un tercio de las especies de animales y de plantas se extinguirían y entre los animales que tendrían mayores dificultades para sobrevivir están los osos polares y los pingüinos emperadores

Desde 2000, las emisiones de gas invernadero han crecido a un ritmo de entre un 2% y un 3% anual, aproximadamente el mismo que el incremento del PIB mundial. La contracción de un 0,5% de la economía mundial ha generado una caída equivalente en las emisiones de esos gases, señala «The Times». Según declaró al periódico Vicky Pope, del citado Hadley Centre, para lograr estabilizar las temperaturas en un 2% por encima del nivel actual, hay que llevar a cabo recortes muy drásticos de esas emisiones de gas. Y por drásticos que sean esos recortes, no podrá evitarse un aumento de las temperaturas medias, advirtió la experta.

El profesor Kevin Anderson, director del Centro Tyndall de Investigaciones sobre el Cambio climático, y su colega Trevor Davies, uno de sus fundadores, declararon a «The Times» su pesimismo sobre la próxima cumbre de Copenhague y abogaron por buscar alternativas a un acuerdo internacional, que tarda en llegar.

Fuente: ABC, 9-3-09

 

 

-Europa fabricará nanomateriales para la electrónica

Un nuevo proyecto financiado con fondos comunitarios se dispone a situar a Europa a la vanguardia en la utilización de nanomateriales en los sectores de la fotónica y la electrónica orgánicas.

El proyecto ONE-P («Nanomateriales orgánicos para la electrónica y la fotónica: diseño, síntesis, caracterización, procesado, fabricación y aplicaciones») ha recibido fondos por valor de 18 millones de euros por medio del tema «Nanociencias, nanotecnologías, materiales y nuevas tecnologías de producción» (NMP) del Séptimo Programa Marco (7PM). En el proyecto participan veintiocho socios de diez Estados miembros de la UE.

En la actualidad la mayor parte de la tecnología electrónica se fundamenta en los semiconductores a base de silicio, cuya fabricación es costosa, requiere un gran consumo de energía y genera un gran volumen de residuos. Pese a ello, la industria de los semiconductores de silicio está afianzada.

El proyecto ONE-P se encuadra en el floreciente sector de los semiconductores orgánicos a base de carbono. A diferencia de los semiconductores de silicio, los de carbono resultan más económicos de fabricar y su producción es mucho menos nociva para el medio ambiente, dado que requiere menos energía y genera menos residuos.

Mediante el Sexto Programa Marco (6PM) ya se financiaron muchos proyectos de éxito en el campo de la electrónica orgánica, los cuales depararon una amplia gama de tecnologías novedosas y contribuyeron a cimentar la posición de Europa como líder mundial en el sector.

No obstante, existen impedimentos para que se amplíe el desarrollo y la aplicación de esta novedosa y apasionante tecnología, y de ahí la creación del proyecto ONE-P. Durante los tres años que durará, sus investigadores crearán nuevos nanomateriales para su uso en dispositivos fotovoltaicos, fotodetectores y diodos orgánicos emisores de luz (OLED), entre otras aplicaciones. Se prevé que los materiales desarrollados en el proyecto serán estables, fáciles de procesar, baratos y respetuosos con el medio ambiente.

«Los científicos tienen la responsabilidad de desarrollar tecnologías sostenibles que reduzcan los impactos ambientales y mejoren, al mismo tiempo, el bienestar de la gente», comentó el coordinador del proyecto, el profesor Yves Geerts de la Universidad Libre de Bruselas (ULB), Bélgica.

Poniendo la iluminación como ejemplo, éste explicó que una bombilla convencional emite alrededor de 20 lúmenes por vatio, mientras que las bombillas actuales de ahorro de energía emiten casi 80 lúmenes por vatio. En el mundo de la electrónica orgánica ya existen OLED que pueden alcanzar fácilmente la eficiencia de las bombillas de ahorro de energía, y profundizando en las investigaciones estas nuevas fuentes de iluminación pronto podrán proporcionarnos los mismos niveles de luz que las bombillas comunes, pero con un consumo energético mucho más bajo.

Es previsible que los resultados de este proyecto representen una oportunidad de negocio fantástica. En el consorcio de ONE-P participan seis prestigiosas empresas que confían en poder transformar los frutos del proyecto en productos y servicios comerciales que generen empleo y riqueza.

Fuente: CORDIS, 9-3-09
 

 

-La sonda Kepler inicia su búsqueda de otro planeta Tierra

La sonda Kepler ha entrado hoy en órbita terrestre en el paso previo de una misión que la sacará del sistema solar y la llevará a una región del universo donde los científicos esperan descubrir planetas similares a la Tierra y donde pudiera haber algún tipo de actividad biológica.

 

El cohete Delta II que sacó a la nave de la fuerza de gravedad terrestre comenzó a rugir a las 22.49 (03.49 GMT del sábado) cuando iluminó la noche del cielo límpido de la zona central de la Florida. "El cohete Delta II ha partido llevando a Kepler en busca de otros planetas como la Tierra", dijo el control de la misión segundos después de que cruzara la noche del Cabo Cañaveral.

Tras entrar en la órbita a unos 185 kilómetros de la Tierra el cohete activará nuevamente sus motores para lanzar la nave a otra órbita, esta vez en torno al sol. La sonda comenzará su búsqueda en una lejana zona de la Vía Láctea para constatar si hay planetas rocosos similares a la Tierra y donde haya agua en forma líquida, el ingrediente fundamental de cualquier manifestación de actividad biológica.

Buscando la otra Tierra

Según Ed Weiler, director de misiones científicas de la NASA, se trata de responder al enigma que el Hombre se ha planteado desde los albores del conocimiento: ¿Hay vida en otros lugares o estamos solos en el Universo? "No se trata de un interrogante científico, es una pregunta humana básica", ha señalado.

Después de dos meses, Kepler comenzará a transmitir información sobre los llamados exoplanetas que giran en torno a más de 100.000 estrellas en una tarea que durará tres años y medio y que determinará si, efectivamente, existe un cuerpo rocoso similar a la Tierra más allá del sistema solar.

"Miraremos una amplia variedad de estrellas, desde las pequeñas y frías alrededor de las que deben circular muy de cerca los planetas, hasta las más grandes y más candentes que nuestro sol", ha dicho William Borucki, científico de la NASA en el Centro Ames de Investigaciones. "Todo en esta misión se ha optimizado para encontrar planetas como la Tierra y que tengan el potencial de albergar vida", ha señalado.

"Estamos muy ansiosos de ver el funcionamiento de esta nave cuando llegue al espacio", ha manifestado en una conferencia de prensa James Fanson, director del proyecto Kepler en el Laboratorio de Propulsión a Chorro (JPL) de la NASA.

Buscando a través de la luz

Para esta búsqueda, el observatorio cuenta con los instrumentos más poderosos producidos hasta ahora para la exploración científica del espacio: un telescopio ultrapoderoso y una cámara de alta resolución. El telescopio podrá detectar cambios en el brillo de las estrellas de solo 20 partes por millón y las imágenes que capte serán transmitidas por una cámara con una resolución de 95 megapixeles.

Según explicaron los científicos, las observaciones se realizarán mediante el método de establecer las fluctuaciones periódicas en la luz que emiten los planetas cuando pasan frente a su estrella "Detectar planetas del tamaño de Júpiter con ese método es como medir el efecto lumínico que causa un mosquito cuando pasa frente a las luces de un automóvil", ha señalado Fanson. "Y encontrar planetas como la Tierra es como detectar una pulguita bajo esa misma luz", añadió en una conferencia de prensa.

Fuente: publico.es, 7-3-09

 

Imagen facilitada por la NASA el 7 de marzo de 2009 del momento de lanzamiento del cohete Delta 2 desde la Estación de las Fuerzas Aéreas de Cabo Cañaveral, Florida. - NASA

 

-China destapa el mayor cementerio de dinosaurios

Esqueleto en el museo del Instituto Chino de Paleontología

 

La mayor parte de la cultura milenaria china fue reducida a escombros durante la Revolución Cultural pero, afortunadamente, los fósiles de dinosaurios, fundamentales para el estudio de la evolución de la especie humana y de la Naturaleza, no se convirtieron en objetivo de destrucción. Ahora, el importante patrimonio paleontológico del gigante asiático se amplía, ya que un grupo de científicos chinos ha descubierto en la provincia costera de Shandong lo que podría ser el mayor cementerio de dinosaurios del mundo.

De hecho, más de 7.600 fósiles de dinosaurios han sido desenterrados este mes cerca de la ciudad de Zhucheng, en Shandong, según informó a la prensa china Zhao Zhijin, investigador del Instituto de Paleontología y Paleoantropología Vertebrada de China (IVPP) y líder de la exploración. Según la escasa información publicada, la mayoría de los huesos pertenecen al final del período Cretácico (entre los 100 millones y los 65 millones de antigüedad), cuando los dinosaurios se extinguieron.

"La exploración aun sigue en marcha", aclara Wang Yuang, investigador del IVPP y director del pequeño museo de Paleozoología anexo al Instituto, en Pekín. La idea es no mover los fósiles y convertir Zhucheng en un museo subterráneo gigante. "El Gobierno chino está promoviendo mucho los proyectos científicos", añade Wang, de 40 años. El IVPP, perteneciente a la Academia China de las Ciencias, ha liderado en los últimos diez años numerosas investigaciones y publicado más de 60 estudios en revistas internacionales.

Uno de los principales hallazgos en Zucheng es la calavera de dos metros de longitud de un ejemplar de la familia de los ceratópsidos, dinosaurios herbívoros con cuerno del Cretácico. El más conocido es el triceratops, cuyo hábitat natural era América del Norte. Sin embargo, el hallazgo es una prueba de que los ceratópsidos vivieron fuera del continente americano y de que la biogeografía de Asia y América no es tan diferente, asegura la revista New Scientist.

 

Shandong es uno de los principales yacimientos paleontológicos de China, junto con las provincias de Sichuan, en el interior, Mongolia Interior y Liaoning, en el norte, y Yunnan, en el sur. Algunos de los mejores fósiles se encuentran en el pequeño museo que dirige Wang, como el llamado Elefante del Río Amarillo o Stegodon huanghoensis, de 4 metros de altura y 8 de longitud, contando sus largos colmillos, que casi llegan al suelo. El esqueleto de este dinosaurio fue descubierto en 1975 por unos campesinos en la provincia de Gansu, cerca del río Amarillo, y tiene 2,5 millones de años. "Todos los niños lo reconocen. Está en los libros de biología", dice Wang, que aun se acuerda del día en que fue descubierto.

Otro de los esqueletos mejor preservados es el de un Tsintaosaurus ornithopodus, un dinosaurio herbívoro qur vivió hace 70 millones de años y contaba con una larga espina en la frente y dentadura gigante para desmenuzar la vegetación. Su nombre deriva de Tsintao, el vocablo colonial dado por los alemanes a Qingdao, la capital de Shandong, y fue descubierto en 1958 por Yang Zhong Jian, considerado el padre de la paleontología en China. Yang, doctorado por la Universidad de Munich, en Alemania, fue quien lideró las investigaciones sobre el Hombre de Pekín y el que descubrió los fósiles que formaron la primera colección del IVPP.

Ejemplares de cine

China ha contribuido con notables descubrimientos para entender los movimientos de los dinosaurios, por ejemplo, con el hallazgo en Yunnan de un ejemplar de diloposaurio, un carnívoro con dos crestas y mandíbula estrecha y afilada popularizado en la película Parque Jurásico. O con el descubrimiento en Liaoning del Changchengornis, un fósil de 125 millones de años de antigüedad utilizado para el estudio del origen de las aves. "Es un fósil fundamental para entender la teoría de Darwin", dice Wang, paseando por la exposición organizada por su museo con motivo del 200 aniversario del nacimiento del científico inglés.

A diferencia de lo que ocurrió en otros países donde la religión se ha opuesto a las teorías de la evolución, en la China comunista no hubo tantos problemas. "Karl Marx admiraba a Darwin", recuerda Wang.

Fuente: publico.es, 6-3-09

 

 

-Un viaje diseñado para viajes virtuales hiperrealistas

 

¿Cómo se vivía en la Grecia antigua? ¿Qué sonidos se escuchaban por sus calles? ¿Qué olores emanaban? ¿A qué sabía su comida? Hasta ahora, la realidad virtual únicamente permitía estimular algunos sentidos por separado, por lo general la vista y el oído, éste era su límite, pero esto puede cambiar en un futuro muy cercano gracias a un proyecto que están desarrollando distintas universidades británicas y con el que se podría llegar a estimular los cinco sentidos a la vez.

Es lo que ellos llaman la virtualidad real. El proyecto fue presentado ayer en Londres en la feria tecnológica Pioneers 09, junto con otros proyectos financiados por el Engineering and Physical Sciences Reasearch Council. El objetivo de esta prestigiosa exhibición ha sido presentar las últimas investigaciones científicas que se están desarrollando en el país y poner en contacto a los equipos de investigación con sectores industriales a los que les podría interesar.

'Hacia la virtualidad real' es el nombre con el que se ha bautizado el proyecto que desarrollan de manera conjunta científicos de las universidades de Warwick y de York -además de otras universidades- y con el que quieren crear «una experiencia real en la que todos los sentidos sean estimulados a la vez de tal manera que el usuario logre una experiencia sensorial completa en la que no pueda decir si fue real o no», explica David Howard, uno de los tres científicos líderes del proyecto. Los cinco sentidos serían estimulados mediante un casco.

En el stand de la realidad virtual había ayer una reproducción parcial de un velero, a tamaño real, en el que el usuario se podía sentar y experimentar lo que sentiría con el casco virtual integrador de los cinco sentidos. En el viaje del velero, los sentidos eran estimulados por separado. A través de unas gafas especiales se visualizaban imágenes 3D de la proa del velero levantándose por encima de las olas, mientras unos aspersores reproducían el intenso olor a salitre del mar, se escuchaba el ruido del viento contra las velas, el aire propulsado por un ventilador golpeaba el rostro y un espray lanzaba agua sobre el rostro.

 

Concentrar estímulos

«Nuestro proyecto consiste en concentrar todos estos estímulos en un casco parecido a éste», explica Marina Boj, física argentina de la Universidad de Bradford, que también participa en el proyecto, mientras señala un casco ubicado enfrente del velero.

El casco tiene una enorme pantalla en la que se visualizarían las imágenes y unos auriculares que recogerían los sonidos del mar. Se complementaría con unos guantes con los que se generaría una experiencia táctil, y un sensor que se introduciría en la boca y provocaría los sabores.

Por ahora, se trata únicamente de un proyecto, pero puede convertirse en realidad en un plazo de cinco años, si se consigue la financiación que se precisa. El simulador de los cinco sentidos transformaría la industria turística, al abrir la puerta al turismo virtual. Permitiría enviar a gente a la Luna o a Marte sin moverse, o que dos amigos o familiares que viven en Australia y en España pudiera realizar un viaje conjunto sin salir de casa, únicamente colocándose el casco. «Además, ellos tendrían el control de la situación, ya que con sus decisiones modificarían el viaje», explica Howard. Este científico de la Universidad York reconoce que lo más complicado es reproducir el sentido del sabor. «El sabor y el olor están muy relacionados y lo que queremos es dar una sensación de textura a algo que tenemos en la boca; si conseguimos el olor, tendremos el sabor», reconoce. Los científicos de la Universidad Warwick están desarrollando un invento pionero para el sentido del olfato.

Esta innovación tendría múltiples aplicaciones en el mundo empresarial, ya que permitiría celebrar reuniones virtuales desde distintos lugares físicos y en el de la educación, porque permitiría a los niños hacer viajes en el tiempo. Otra aplicación sería la medicina, ya que posibilitaría la realización de operaciones virtuales, reproduciendo olores y texturas, o hacer seguimientos de operaciones a distancia.

Fuente: elmundo.es, 5-3-09

 

 

-Nuevos objetivos para "Opportunity" y "Spirit" en  2009

La tierra apilada en la parte norte de la meseta  llamada “Home Plate” ha bloqueado al “rover” Spirit  en su camino hacia a donde se dirigía para pasar otro duro invierno en Marte. El vehículo no se ha dirigido directamente a su destino. Ha ido acercándose circulando rodeando la meseta. Durante este recorrido ha identificado un afloramiento rico en silicio lo que ha servido para recoger más información sobre lo que tuvo que ser un ambiente sometido a la influencia de agua caliente o vapor. Esto altero un poco los planes del robot, alargando el camino que ahora tiene que recorrer. Spirit ha estado en el 2008 en el borde norte de Home Plate, parte superior de una formación sedimentaria con una superficie similar a un campo de béisbol. Se encuentra a una altura de 1,5 metros por encima del terreno que rodea a esta pequeña elevación. Su objetivo era el de alcanzar la cara norte y aprovechar su inclinación para de esta manera poder captar con sus paneles solares la máxima intensidad del sol invernal. De esta manera, podría, como ha hecho otras veces, sobrevivir durante los 6 meses que durará la estación.

Fotografía recogida por el robot "Spirit" con su cámara delantera  en el día marciano 1829 (24-3-09) desde que llegó al planeta. En ese momento se encontraba en el lado norte de "Home Plate". Se dirigá hacia el noroeste. Vemos las huellas dejadas por la rueda derecha delantera. El vehículo se desplazaba hacia atrás, mirando su cámara delantera hacia el sur. Las rocas de tamaño considerable puden dificultar bastante el desplazamiento.

 

"Opportunity" tiene un camino enorme que recorrer. El 7 de Marzo el robot captó con una cámara fotográfica el siguiente destino a donde tiene que llegar, el cráter "Endevour". En el horizonte, a 20 kilómetros del "rove"r, hacia el oeste, vemos los bordes del cráter.

 

 
Para el 2009, los científicos e ingenieros han elegido varios destinos a los que "Spirit" tendrá que llegar. Uno es el monte “Von Braun” y el otro es una depresión irregular de unos 45 metros de ancho llamada “Goddard”.  Estos interesantes lugares podrán ser examinados por "Spirit" siempre que no le fallen las baterías y pueda llegar al sitio en el que aguardará el paso del próximo invierno. "Von Braun" y "Goddard"  intrigan a los científicos. Allí "Spirit" deberá encontrar evidencias sobre la mezcla explosiva de agua y volcanismo que ocurrió en el pasado. El “rover” tendrá que caminar 200 metros hacia el sur de donde se encuentra ahora. En el hemisferio sur, la primavera ha llegado a su mitad. El sol se ha elevado en el cielo sobre Spirit en estas semanas.

El equipo que dirige al robot móvil intentó conducirlo sobre “Home Plate” para que fuera hacia el sur. Lo intentaron primero ascendiendo parcialmente la pendiente donde el "rover" pasó el invierno. Sólo cinco de las seis ruedas del robot han podido rotar desde que la rueda delantera derecha dejara de funcionar en el 2006. Con las cinco ruedas en funcionamiento, "Spirit" no pudo ascender la pendiente. En enero y febrero, "Spirit" descendió de “Home Plate” y se desplazó unos 15 metros hacia el este, donde había  menos pendiente. Sin embargo, la tierra allí depositada ha embarrancado a "Spirit". Ahora, el equipo de la NASA tendrá que elegir otro camino.

“Spirit no pudo hacer progresos en los últimos dos intentos que ha hecho para ascender por Home Plate”, dijo Jonh Callas, director del proyecto de los "rovers" en el JET. “Como alternativa, estamos conduciendo a Spirit alrededor de “Home Plate” hacia el este. Spirit ha tenido que sortear un par de pequeños ridges que se extendían hacia el norte y luego  ver si podía atravesar una ruta al este. Si esa ruta no es posible, entonces todavía nos queda una opción en el oeste de Home Plate”.

Durante el trayecto hacia el este, al norte de “Home Plate”, en enero, "Spirit" paró para usar las herramientas de su brazo robotizado con el fin de examinar un afloramiento muy erosionado apodado “Stapledon” . Steve Ruff, científico del equipo, se interesó por el afloramiento al compararlo con las imágenes y el espectro infrarrojo que "Spirit" había registrado en su posición de invierno.

“Parecía que el material al este de “Home Plate” que habíamos encontrado era rico en sílice, este compuesto se concentra en zonas alrededor de fumarolas volcánicas o salidas de vapor, zonas propicias para la existencia de vida en la Tierra".

“Ahora, hemos encontrado sílice en un segundo lado de “Home Plate”, expandiendo la zona afectada por emanaciones de gases” . Dijo Ruff.  "Cuanto más grande sea esta zona, más agua entraría en el proceso y más posibilidades de habitabilidad podría tener el sistema”.  

El espectrómetro de rayos X, con el que también se identificó el sílice, dio seguridad  al equipo para identificar afloramientos de sílice a distancia con el espectrómetro de emisiones termales, a pesar del polvo acumulado en el espejo del periscopio del instrumento. El plan de los investigadores ahora es usar el espectrómetro de emisiones termales y la cámara panorámica para analizar los afloramientos ricos en sílice que vayan encontrando en el camino hacia "Von Braun" y "Goddard". Sin embargo, ahora le ha dado prioridad al asunto de la conducción de "Spirit". El viento limpió los paneles solares del robot el 6 y el 14 de febrero, lo que incrementó un 20% la cantidad de energía capturada por el “rover”.

Mientras tanto, “Opportunity”, en el otro hemisferio, está mostrando signos de incremento de fricción en su rueda delantera derecha. El equipo del JET  ha estado conduciendo el vehículo hacia atrás durante unas pocas jornadas, una técnica que ha funcionado en situaciones parecidas, aparentemente por la redistribución del lubricante en las ruedas. “Opportunity” se dirige hacia el Cráter “Endevour”, de unos 22 kilómetros de diámetro y a 12 kilómetros hacia el sur. Se ha desviado de una ruta directa para evitar bancos de arena que pueden atraparlo.

Más información en: http://www.nasa.gov/rovers .

Fuente: NASA, 5-3-09

 

 

-Llega el coche eléctrico

Se recarga por la noche, como un teléfono móvil, apenas gasta 1,5 euros por cada 100 kilómetros, no sale humo del tubo de escape y su conductor se libra de la vibración y los ruidos de los motores actuales. Los coches eléctricos no son ciencia ficción: llegarán a Europa el año que viene. Pero lo que falta, precisamente, es toda una red de enchufes y postes eléctricos que proporcionen autonomía a los vehículos. En las casas, en las empresas, en las calles.

Tras varios intentos fallidos, las industrias del automóvil y de la energía aúnan fuerzas para hacer viable, esta vez sí, el coche más limpio. Si se tiene en cuenta que el Gobierno prevé que circule un millón de coches eléctricos dentro de cinco años, el desafío es mayúsculo. Experiencias pioneras en Londres, Israel o California están enseñando el camino, no exento de tropiezos.

Las dudas son muchas. ¿Habrá energía suficiente? El consumo eléctrico aumentará, pero los expertos coinciden en que, al menos a medio plazo, es posible funcionar con las centrales existentes si se produce un cambio estructural. El éxito parece residir en las smart grids, o redes inteligentes, que conformarán un sistema de gestión de electricidad activo y capaz de interactuar con el cliente. Es decir, redes que permitan que los vehículos aparcados vendan a la red energía en los momentos en que el sistema la necesite.

El coche eléctrico cargando baterías

 

La cátedra BP de Desarrollo Sostenible de la Universidad Pontificia de Comillas ha elaborado un documento en el que se analiza el impacto de la implantación del coche eléctrico. El documento hace hincapié en estas redes inteligentes: "Sistemas que permitan una relación bidireccional en los flujos entre la red y los coches, y que faciliten la transmisión de las señales necesarias para que los coches se conecten a la red en los períodos adecuados para el correcto funcionamiento de la red eléctrica".

Por ello, a medio plazo, el coche eléctrico puede funcionar (con condiciones). Las eléctricas coinciden en que los vehículos tendrán que recargarse principalmente por la noche, en las llamadas horas valle, donde existe menor consumo eléctrico, para facilitar la operatividad del sistema. La energía eólica, en la que España es líder, funciona dependiendo de las circunstancias meteorológicas y es precisamente por la noche cuando suele haber más viento. "Ha llegado a aportar más del 40% de la energía total, pero en otras ocasiones representa menos del 1%", dice Luis Atienza, presidente de Red Eléctrica Española (REE). A veces es necesario desconectar los molinos porque sobra producción; hasta el 37% de ellos tuvo que parar un domingo del pasado mes de noviembre.

Con el coche eléctrico se va a ganar en eficiencia y sostenibilidad. En eficiencia, porque estos nuevos vehículos rinden al 80% o 90%, mientras que la eficacia de un motor de combustión se sitúa en torno al 20%. Por otro lado, la energía total consumida por los vehículos proviene en el 98% de productos derivados del petróleo, por lo que el ahorro real irá en función de la procedencia de la electricidad que, según los expertos, podría ser renovable en mayor medida. Atienza apunta, en este sentido, el posible aprovechamiento de las renovables: "El parque automovilístico eléctrico contribuirá a absorber la producción energética renovable que actualmente no encaja en el sistema. Crearlo no es tanto un reto como una oportunidad para que, como líderes internacionales de energías renovables, podamos facilitar la operatividad del sistema".

El optimismo de Atienza no es descabellado, pero dar el salto a la gestión inteligente de la energía será un proceso complejo. Según el presidente de REE habrá que esperar unos 10 años para que el suministro pueda ser bidireccional. No obstante, con el número de coches que se prevé que vayan incorporándose al mercado, el presidente de REE cree que será suficiente con "reforzar el sistema eléctrico en algunas zonas y adaptar sobre todo los puntos de suministro; enchufes y postes, y realizar la transmisión de forma inteligente".

Desde el Ministerio de Industria también se confía en la capacidad energética de España. "Es posible producir 80.000 megavatios y el pico está en 45.000", dice un portavoz del departamento. Aunque estos datos son relativos porque, dado que no todas las centrales rinden de forma continuada, es necesario tener instalada una sobrecapacidad para poder atender a la demanda. No obstante, Pedro Linares, ingeniero de la cátedra de Desarrollo Sostenible, también descarta que pueda producirse un colapso en el sistema energético: "Las previsiones que existen de aquí a 2014 supondrían un aumento de la demanda del 3% o 4%. Esto es lo que suele crecer anualmente, por lo que no sería significativo para el sistema". Lo que será necesario es mejorar el rendimiento, poniendo el mayor énfasis en las energías renovables, que España se ha propuesto aumentar hasta llegar al 20% de la energía total en 2020, objetivo de la Unión Europea.

Otra cuestión que preocupa al sector es la forma de abastecimiento de energía en los coches. Tras años de estudio, la tecnología de las baterías de ion-litio de los teléfonos móviles se perfila como la alternativa más eficaz para recargar los vehículos del futuro, por su menor tamaño y mayor capacidad. Aunque las baterías resultan aún muy caras, y más cuanta más autonomía tenga el coche, el precio por kilómetro rodado es mucho menor. Según José Santamarta, que ha asesorado al Ministerio de Medio Ambiente, cargar el coche de noche costará, aproximadamente, 1,5 euros cada 100 kilómetros, mientras que en los automóviles de gasolina el importe está en torno a los seis o siete euros.

Las compañías automovilísticas tienen que decidir entre dos posibilidades para que los vehículos se carguen en la calle: una, rellenar sus baterías en puntos destinados a ello, y otra, que directamente cambien su batería por otra cargada. En España, todo apunta a que los coches optarán por el primer modelo. Según el informe de la cátedra BP, si se opta por la sustitución de baterías no sería necesario un gran cambio en la regulación del sector, al contrario del procedimiento de recarga, para el que habría que dotar de mayor infraestructura al sistema y "dar señales adecuadas sobre cuándo es conveniente cargar el coche y, más aún, si el flujo va a ser recíproco", señala el documento, que concluye que "el sector eléctrico está plenamente capacitado para afrontar cualquier cambio de paradigma regulatorio".

Uno de los principales retos en este sentido pasa por la estandarización de los postes de carga. La normalización de sus características y de los sistemas de contadores de consumo para que se homologuen los de todas las empresas con la tarificación de los comercializadores de la energía. Asimismo hay que lograr una interlocución con la red para que se gestione y cobre la demanda. Todo esto debe ir, indica el presidente de la REE, de la mano de la tecnología de la información y en paralelo a los progresos de la industria automovilística. Miguel Ángel Sánchez, director de telecomunicaciones de Iberdrola, asegura que la empresa ya está trabajando en esta normalización: "Estamos en todos los foros con fabricantes europeos y ya se están planteando soluciones. No será difícil llegar a un estándar".

La experiencia internacional puede servir de modelo. Better Place, una compañía con sede en California, se ha convertido en pionera de instalación de infraestructuras para coches eléctricos. El primer proyecto a escala nacional se hará en Israel. Las condiciones son ideales en un país donde la mayoría de los conductores recorren menos de 70 kilómetros al día y la distancia entre las principales ciudades no supera los 150 kilómetros. La alianza Renault-Nissan será la que proveerá de vehículos que podrán cargar la batería en 500.000 puntos de recarga por todo el territorio. El proyecto comenzará en pruebas este año.

En Londres, donde los coches eléctricos tienen incentivos, éstos circulan desde 2006. Los modelos de más éxito son el Smart y el Reva, coches de baja potencia para el centro de la ciudad, donde ya hay una importante red de puntos de recarga. El Ayuntamiento ha establecido una tarifa anual, de alrededor de 400 euros, con la que los usuarios pueden aparcar y recargar sus coches.

En España, el Ministerio de Industria se ha puesto el objetivo de que un millón de vehículos se muevan con energía eléctrica en 2014. Aunque no está claro que la cifra sea viable. Santamarta opina que "el proyecto tiene muy buenas intenciones pero, con las inversiones realizadas, será complicado". El director general de la federación de concesionarios Faconauto, Blas Vives, añade: "Lo que el Gobierno pretende es, hoy por hoy, un sueño. Tal y como está la industria, con unas pérdidas tremendas, es necesario reactivarla primero y no improvisar con ideas nuevas".

Para actuar planificadamente, las compañías eléctricas y automovilísticas se están poniendo las pilas. General Motors e Iberdrola han iniciado un acuerdo para analizar la viabilidad del suministro energético que, si concluye con éxito, pasarán a las Administraciones públicas para pedirles su participación mediante subvenciones o ayudas.

A corto plazo y como experiencia piloto en España, el IDAE presentó en febrero el proyecto Movele. La iniciativa quiere demostrar la viabilidad de los vehículos eléctricos en entornos urbanos y "reducir las incógnitas que puedan surgir y servir de base para la expansión de estas tecnologías a corto y medio plazo". Juan Luis Pla, jefe del departamento de transporte del IDAE, asegura que el plan (que tiene previsto comenzar a hacerse efectivo en abril y mayo) está aún en fase inicial, ya que hay que "trabajar en modificaciones normativas para que se puedan establecer los puntos de carga públicos, por ejemplo, en cabinas telefónicas o parquímetros, y aumentar la potencia eléctrica donde sea necesario, etc., y tomar las decisiones políticas para crear tarifas y establecer procedimientos de cobro. La dificultad va a estar en la distribución, no en el sistema".

España no sólo quiere utilizar el coche eléctrico. Además quiere fabricarlo. El Ministerio de Industria negocia con Renault para establecer la producción de un coche de este tipo en Valladolid. Si la conversación da sus frutos, la planta comenzaría a producir un coche eléctrico de carácter sencillo en 2012.

Paso a paso, la llegada paulatina de los nuevos modelos verdes y la implantación de la red inteligente irán conformando este nuevo panorama. Luis Atienza asegura que estamos ante "un paso de modernización extraordinario, la gran apuesta de la industria energética para la próxima década". Y se aventura con una apuesta: "Al fin de la próxima década será prácticamente imposible entrar en las grandes ciudades con un vehículo que no sea eléctrico".

Fuente: elpais.com, 4-3-09

 

-Los volcanes submarinos como fuente de hierro

Mientras prosigue el experimento Lohafex para estudiar los efectos de la fertilización con hierro de las aguas superficiales oceánicas, los científicos han encontrado una nueva fuente de hierro en el mar, y está en su mismo fondo. El polvo de hierro es el nutriente más escaso y clave para la vida marina. Llega a los océanos por los ríos o en el polvo procedente de los continentes, pero también, sorprendentemente, flota hacia la superficie desde el fondo, en el material que surge de las fuentes termales oceánicas. Hasta ahora se suponía que el hierro de este origen, similar en cantidad al de los ríos, se precipitaba en el fondo marino como mineral.

El descubrimiento, publicado en Nature Geoscience, se ha hecho al tomar muestras de una cordillera volcánica en el Pacífico Este. Los investigadores hallaron que los compuestos orgánicos (con carbono) de las emisiones submarinas capturan hierro y que este hierro no se oxida, informa la Fundación Nacional para la Ciencia (NSF) de Estados Unidos, que señala que, para los científicos, encontrar hierro brillante en el océano fue como sacar una esponja seca de un baño. "Todo lo que sabemos sobre las propiedades químicas del hierro nos dice que debería de estar oxidado", dice Katrina Edwards, de la Universidad del Sur de California. Los organismos acuáticos metabolizan el hierro puro mucho mejor que en su forma oxidada, explica Edwards, si bien es verdad que no se conoce el volumen de esta nueva fuente nutritiva.

"Una cuestión importante es en qué medida en todo el hierro del mundo se produce una oxidación catalizada por bacterias en vez de la habitual, o se mantiene puro", recuerda Don Rice, de la NSF.

La fertilización con hierro del plancton (los microorganismos marinos) se quiere estudiar como posible vía para acelerar la captura de carbono de la atmósfera y luchar así contra el cambio climático. Sería algo similar al abono con nitrógeno de las cosechas que llevó a un gran aumento de su rendimiento en el siglo XX. Sin embargo, esta técnica, que pretende lograr una mayor productividad biológica en el océano abierto, es criticada por los que temen que una intervención así en la naturaleza tenga consecuencias perjudiciales.

El fitoplancton (microorganismos similares a las plantas) utiliza la luz solar para alimentarse a través del proceso de fotosíntesis, mediante el cual también captura dióxido de carbono, el principal gas de efecto invernadero. Una parte de este carbono se hunde y se mantiene secuestrado en el océano profundo y en los sedimentos del fondo del mar, aunque se desconoce cuanto tiempo permanece fuera de la circulación. De hecho, el inicio del experimento de fertilización oceánica con polvo de hierro Lohafex, en el Atlántico sur, fue retrasado unos días debido a las protestas ecologistas. Desde entonces, los trabajos en el buque oceanográfico Polarstern van a buen ritmo, confirmó el pasado viernes desde el barco Victor Smetacek, codirector científico del experimento. "La zona que hemos fertilizado se mantiene dentro del remolino que elegimos y estamos ya en la cuarta semana de estudio de los procesos que tienen lugar", explicaba por correo electrónico.

Lohafex es un proyecto conjunto de Alemania, India y Chile y en la expedición, además de los científicos de estos países, participan dos españoles y tres italianos. Según Smetacek, la convivencia es muy buena, aunque algunas veces los científicos están muy cansados de los turnos incesantes: "Entonces llega una tormenta y, como no podemos trabajar, dormimos".

A falta de resultados definitivos, los científicos explican en la página web del Instituto Alfred Wegener (www.awi.de) las primeras observaciones realizadas, especialmente sobre cuáles son los géneros de fitoplancton que responden antes a la fertilización y cómo interactúan con otros grupos en lo que Smetacek y el codirector indio Wajih Naqvi, llaman su "jardín experimental".

Fuente: elpais.com, 4-3-09

 

Fertilización con hierro

 

 

-El postdarwinismo: su necesidad se basa en el conocimiento de las razones de un pasado darwinista en biología
 

La biología es producto de una ciencia institucionalizada. La primera razón que explica el pasado darwinista de la biología es la existencia de fuertes intereses económicos involucrados. Por eso sus objetivos se han dirigido tradicionalmente hacia la obtención de resultados aplicados, basados en el conocimiento de las funciones biológicas. Sin embargo, la descripción de la naturaleza necesita tanto la comprensión de las formas como de las funciones.

Otra razón que explica el pasado darwinista de la biología es que se trata de una ciencia especializada y, como tal tiende a atribuir funciones específicas a sus objetos de estudio: Órganos, tejidos, células y moléculas. Así, el organismo se viene convirtiendo tradicionalmente en un objeto “diluido” y las cuestiones principales que atañen a aspectos globales se convierten en “inoportunas”, inadecuadas y hasta imposibles de resolver bajo las perspectivas habituales. La Teoría Celular propone el modo de contemplar a los objetos de la naturaleza como formados por unidades, pero no propone medios para responder acerca de los mecanismos globales mediante los cuales las células se comunican entre sí para configurar y dar forma a un indivíduo. Las enzimas actúan en extractos libres de células permitiendo la investigación de sus mecanismos de acción, pero no hay garantía de que dicha acción sea la misma exactamente bajo las condiciones experimentales que dentro de las células de un organismo vivo. Las moléculas de DNA y de RNA contienen y transfieren la información genética, pero es cada vez más claro que sus modificaciones por otras moléculas (metilación, acetilación), pueden contribuir en aspectos esenciales de dicha función.

El panorama histórico de una ciencia institucionalizada y especializada tiene consecuencias importantes en el modo en que la biología se enfrenta y responde a cuestiones fundamentales. Por ejemplo, ante la cuestión: ¿Cómo se configura y se regula la forma de un organismo?, la respuesta puede referirse a la combinación de su genoma y de su ambiente. Siendo correcta desde un punto de vista académico, esta respuesta no proporciona la mejor posición de partida para abrir vías originales que permitan ampliar el conocimiento y el análisis; entre otras razones, porque el ambiente es extremadamente complejo para definirlo, y el genoma una entidad plástica en constante interacción con muchos factores ambientales insuficientemente definidos. Es, ante este panorama de una biología secuestrada por el capital, por el paradigma neodarwinista, cuando se impone un cambio hacia una biología post-darwinista. Las propuestas incluyen: Lectura de textos de autores anteriores a Darwin o contemporáneos. Ya hemos hablado por ejemplo de Agassiz o de la propuesta de Máximo Sandín centrada en el retorno a Lamarck. Otro de los autores olvidados o proscritos es von Baer. También, muy recomendable en este sentido es la propuesta del autor estonio Kalevi Kull, estonio como el propio von Baer, quien arranca su texto con esta frase poderosa: "Development, not evolution, could be considered as the central theoretical framework for biology. In this case Baer and not Darwin would become the central historical figure in theoretical biology" (Salthe, 1993:247).

Fuente: blog madri+d, biología y pensamiento, 2-3-09
 

 

-Ambiciosa exploración del Ártico

Un equipo británico de exploradores inició una ambiciosa marcha hacia el Polo Norte para averiguar cuan rápido se está derritiendo el hielo del Mar Ártico.

Un avión llevó en la noche del sábado al renombrado explorador Pen Hadow y a sus dos compañeros a la región ártica, a unos 1.700 kilómetros al norte de Canadá.  Durante su viaje de 1.000 kilómetros planean medir el grosor del hielo en la región.  Se trata de la investigación de este tipo más detallada que se lleva a cabo esta temporada y deben finalizarla en mayo.

Calentamiento global

Según el especialista de la BBC en temas medioambientales, David Shuckman, los investigadores utilizarán trajes de supervivencia para atravesar a nado aquellas zonas en las que no haya hielo.  Los expedicionarios medirán constantemente el grosor del hielo con un radar móvil instalado en la parte trasera de uno de los trineos en los que viajan.  Imágenes satelitales han mostrado como la extensión que ocupa el hielo ártico se ha ido reduciendo en los últimos años.

 

 

Pen Hadow medirá el grosor del hielo polar

 Esta expedición debe dar a los científicos una idea más aproximada de cómo se está reduciendo su grosor.  Se cree que el hielo del Mar Ártico está desapareciendo más rápidamente debido al aumento de las temperaturas del aire y de las aguas.

Las principales organizaciones científicas que estudian el Ártico atribuyen este fenómeno al calentamiento global.  Tan sólo hace unos años, los investigadores predijeron que a finales de este siglo podría no quedar hielo en el Ártico en verano. Algunos científicos creen ahora que ello puede suceder antes.

Pen Hadow, de 46 años, y los otros dos miembros de la expedición, Ann Daniels, de 44, y Martin Hartley, de 40, intentarán recoger nueva información sobre el estado de la capa de hielo en invierno y al principio de la primavera, cuando el hielo abarca la mayor extensión posible.  Los expedicionarios pretenden dar a los científicos "la verdad sobre el terreno" para que puedan afinar sus modelos y las interpretaciones de las imágenes satelitales.

El profesor Wieslaw Maslowski, quien asesora a los expedicionarios, espera que los datos que consigan le permitirán refinar su previsión sobre el momento en el que llegará el primer verano sin hielo en el Ártico.

Actualmente lo sitúa en el año 2013, aunque podría suceder entre 2010 y 2016.  Pen Hadow se convirtió en 2003 en la primera persona en marchar sola y sin ayuda desde Canadá hasta el Polo Norte.  Según explicó, el objetivo de la expedición que ahora inician -que podría durar hasta 100 días- es científico.

"Si los expertos dicen que el hielo se está reduciendo rápidamente, ello debe hacer saltar las alarmas en todo el mundo", opinó el expedicionario.

Según Hadow, cada miembro del equipo arrastrará un trineo de hasta 120 kilogramos de peso durante unas 12 horas al día.  Su mayor miedo, explicó, es la posibilidad de tener que nadar con todo el equipo hasta dos horas en la oscuridad.

Fuente: BBC Mundo, 1-2-09