Inicio
Ya puedes DESCARGAR todos nuestros PROGRAMAS DE RADIO "EL ALEPH" en la Sección NOSOTROS-PROGRAMACIÓN--

NOTICIAS CIENTIFICAS


NOTICIAS DE ULTIMA HORA

--Nuevas Noticias Próximamente--

NOTICIAS EXTENDIDAS

Julio 2007

TITULARES DE LAS NOTICIAS DEL MES :

 

Canarias arde

¿Por qué practicar el sexo?

Cambio climático, más huracanes

Una expedición rusa se prepara para llegar al fondo marino en el Polo Norte

Llega la eco-moda

94 millones de dólares de la NASA en paradero desconocido

La NASA dejó que astronautas borrachos viajaran al espacio

El Hubble busca minerales lunares

Cuando el león bebe (inundaciones en Londres)

Tener un amigo obeso aumenta la probabilidad de ser obeso

Los simpsons y la ciencia

Las torres de la telefonía móvil no causa enfermedades

Reestablecidas las comunicaciones con el rover Opportunity

Un mecanismo de hace dos siglos sirve como modelo para las nanocomputadoras actuales

Un acuario permitirá la cría de caballitos de mar en cautividad

Estamos perdiendo la guerra contra el SIDA

Spirit y Opportunity en peligro por las tormentas de arena

Tres variantes de genes podrían encerrar la clave para entender el desarrollo del SIDA

Zeltia saca al mercado su nuevo producto estrella: Yondelis

Ojo con las etiquetas RFID

Captura ilegal de pájaros en Tamaraceite

China cultiva tomates y sandias "espaciales"

Un parásito asiático detrás de la desaparición masiva de abejas

Medidas concretas para cumplir Kioto

Satélites de observación de rayos X descubren la mayor colisión del universo

Julio Verne va al espacio

La separación dramática de Gran Bretaña

Entrevista  a Robert Aymar sobre el CERN

El laboratorio Columbus viajará a la ISS a finales del 2007

Earth attack: los terrícolas hacia la invasión de Marte

Hallan la dentadura completa de un Austrolopithecus anterior a "Lucy"

Una nueva tecnología permite navegar en internet a una velocidad 40000 veces más rápida que la velocidad media en España

La primera reserva marina de Galicia

Otra pista genética para la diabetes de tipo 1

El Gran Telescopio Canarias ve su primera luz

Descubren como suprimir la memoria

Desmienten que la mayor actividad del sol afecte al clima

Ignasi Ribas habla para ABC sobre un exoplaneta con agua

España amplía su flota científica con un nuevo buque puntero, el "Miguel Oliver"

¿Qué hay detrás de un Nobel?

Simulador quirúrgico con sentido del tacto

La Coopetición clave de la evolución

La NASA lista para mandar la sonda "Phoenix" a Marte

El clima de la Tierra ha variado en los últimos 800000 años

Las condiciones para fijar dióxido de carbono oceánico se fijarán en noviembre

En Marte se podrían cultivar algas "mutantes"

La anémona no es tan diferente al ser humano

Recuperado en Groelandia el ADN más antiguo conocido

Science asegura que los hombres y mujeres usamos el mismo número de palabras

Una nueva molécula podría ser efectiva contra el SIDA

La televisión personal en internet es una industria emergente

Hiperión: una esponja en medio del espacio

Queman bosques para producir biodiesel

"Science" y "Nature"  "Principe de Asturias de la Comunicación" 2007

Una plataforma tecnológica sobre las plantas establece sus prioridades de investigación

De la enfermedad animal a la humana

Teología cibernética

El universo desde una idea alternativa

Hallan un neurotransmisor que actúa como "interruptor biológico" de la grasa

Juan Maldacena: un día el universo colapsará y surgirá una realidad distinta

El mapa español del secuestro del dióxido de carbono

Una "tijera molecular" logra extirpar el virus del sida de células infectadas

 

Archivo


 

-Canarias arde

 Las islas Canarias han sido arrasadas por varios incendios que han provocado la evacuación de más de 12.000 personas y han quemado unas 35.000 hectáreas.

A vista de satélite así se ve el incendio

 

Zonas afectadas en Canarias por los incendios forestales

 

Gran Canaria

La cifra de evacuados en Gran Canaria por el fuego declarado el pasado viernes asciende a más de 5.000 personas y han quedado arrasadas unas 20.000 hectáreas de monte, informó el presidente del Cabildo, José Miguel Pérez, que anunció unas ayudas de 300.000 euros para los damnificados.

Incendio propagándose en las cercanías de San Bartolomé

Pérez explicó que persisten focos muy "latentes" en la zona del Sequero, la zona más alta de San Bartolomé de Tirajana, para evitar ascienda al Pozo de las Nieves, donde se encuentra el nudo de comunicaciones más importante, situado en pleno corazón de la isla y su zona más elevada.

Ayagaure

El viento ayuda parcialmente a contener el avance de este frente, pues no sopla en contra. No obstante, las altas temperaturas persisten por encima de 40 grados y la humedad es muy baja, un índice "inédito" en la isla.

Así se veía el incendio desde Tejeda

El frente situado en la zona de Fataga empieza a ser controlado por aire y por tierra. Asimismo, la fuente manifestó que se teme por el frente de la zona de la presa de Siberio, porque podría afectar al municipio de Artenara y al pinar de Tamadaba. Mientras, la situación en la zona de La Aldea de San Nicolás y Mogán ha mejorado.

El humo del incendio llegando a las instalaciones hoteleras de Mogán

Pérez pidió prudencia a la población y que no se desplacen al interior de la isla, y reiteró que la seguridad de las personas es la prioridad. El desalojo de las poblaciones iniciado en la madrugada del pasado lunes obligó a elevar el nivel de emergencia a 2, por lo que las competencias de coordinación recaen desde el lunes en el Gobierno canario.

Helicópteros de gran capacidad de carga colaboran en la extinción del incendio

El presidente del Gobierno canario, Paulino Rivero, reconoció el lunes que la situación es "compleja, difícil, dramática", por lo cual la única prioridad es evitar la eventual pérdida de vidas humanas y, con ese fin, atajar las llamas.

La policía intenta poner orden en la situación evitando que llegue gente a las zonas afectadas

La ministra de Medio Ambiente, Cristina Narbona, viajó a Gran Canaria para evaluar, con las autoridades regionales e insulares, el alcance del incendio.

Un trabajador forestal, detenido como presunto autor del incendio, ingresó en prisión por orden de la juez del Juzgado de Primera Instancia e Instrucción de Arucas.

Juan Antonio Navarro presunto autor del incendio

Tenerife

El incendio forestal que afecta a la isla ha provocado la evacuación de 7.500 personas. El presidente del Cabildo de Tenerife, Ricardo Melchior, dijo que se encuentra prácticamente controlado el frente este del fuego, mientras que el más activo es que el que afecta a los municipios de Garachico, El Tanque, Santiago del Teide y una parte de Icod de los Vinos.

El perímetro del fuego abarca 15.000 hectáreas. La fuerza de viento ha oscilado entre 45 y 65 kilómetros por hora, lo que ha permitido la rápida extensión del incendio.

Melchior destacó que en la zona norte, el contrafuego realizado evitó que las llamas llegaran hasta el Valle de La Orotava y afirmó que en esa zona hay un dispositivo de control para la extinción total del fuego.

La misma fuente dijo que unas 300 personas trabajan en la extinción del fuego así como 34 vehículos, cinco helicópteros y un hidroavión del Ministerio de Medio Ambiente. Además, Defensa ha enviado desde Valencia y Zaragoza 150 efectivos de la Unidad Militar de Emergencias (UME) con equipos y herramientas individuales de lucha contra el fuego.

La Gomera

El incendio forestal declarado esta madrugada en el municipio gomero de Alajeró, que quemó 60 hectáreas, ha quedado controlado y los 100 vecinos desalojados han podido volver a sus casas, informó el Cabildo Insular.

El incendio comenzó sobre las 02.45 horas en la zona de Targa, al parecer por un cortocircuito en una de las torres de media tensión ubicada en el pueblo.

El consejero de Política Territorial y Medio Ambiente, Javier Trujillo, indicó que, salvo una pequeña vivienda de madera, no se produjeron grandes pérdidas materiales. Recordó también que este es el segundo incendio forestal que se declara en la isla en los últimos días, ya que el pasado viernes se originó uno en la zona de Chipude, controlado pero aún sin extinguir.

Un tercio de la masa forestal de Gran Canaria ha sido quemada

La Fundación Foresta que trabaja por la reforestación en el Archipiélago estima que Gran Canaria ha perdido un tercio de su masa forestal en el incendio que la castiga desde el viernes. Además, denuncia que el daño que sufre esta isla amenaza seriamente la supervivencia de más de treinta especies de fauna y flora endémica de las Islas. Sostiene que la precariedad de fondos en los presupuestos públicos para limpieza y mantenimiento del bosque canario tiene mucho que ver con la tragedia.

El fuego ha consumido ya una parte importante del triángulo que forman los pinares de Inagua, Pajonales y Ojeda, la superficie de pinar de mayor continuidad de la Isla. El entorno de la Presa de las Niñas y de Chira, el pinar de Pilancones y las proximidades al Barranco de Fataga son otras zonas también afectadas por el incendio. Aún sin datos definitivos, la Fundación Foresta estima en un comunicado remitido a ACN que la superficie de bosque quemada supone más de un tercio de la masa forestal en la Isla. Además, la supervivencia de más de treinta especies de fauna y flora endémicas está seriamente amenazada.

La precariedad de fondos en las partidas presupuestarias para limpieza y mantenimiento del bosque canario, una normativa que impide a los propietarios realizar las actividades tradicionales de aprovechamiento forestal y la falta de un objetivo claro para la conservación del medioambiente constituyen los puntos básicos que, según la Fundación Foresta, confluyen en la propagación de los fuegos y el agravamiento de los focos.

Desde finales de 2006 la Fundación Foresta ha denunciado la falta de recursos destinados por el Gobierno de Canarias a tareas tan básicas en la prevención de incendios y mantenimiento de los ecosistemas como la limpieza y el aprovechamiento forestal. Este hecho ha multiplicado el impacto del fuego iniciado en Gran Canaria el pasado viernes favoreciendo su expansión y convirtiéndolo en el mayor incendio de la historia del Archipiélago.

Además, la Fundación Foresta afirma sumarse a las protestas de propietarios de fincas agrícolas y vecinos de las zonas afectadas ante las prohibiciones impuestas por la Ley de Espacios Naturales Protegidos, en relación a los aprovechamientos forestales que se vienen haciendo de forma tradicional y que desempeñan una función clave en la prevención de incendios y otros desastres naturales. Como parte de la solución la Fundación Foresta demanda al Gobierno de Canarias la aprobación definitiva de las Directrices Generales de Ordenación Forestal, que vendrían a regular de forma global la actividad forestal del Archipiélago y que podrían dinamizar la acción de conservación y protección de los bosques canarios.

De cara al futuro, añaden, varias son las líneas de actuación que a criterio de la Fundación Canaria para la Reforestación resultan vitales para garantizar la recuperación de las zonas afectadas y la conservación del resto del bosque grancanario.

En primer lugar las instituciones gubernamentales "deben invertir más y mejor en acciones de estudio, reforestación, mantenimiento y conservación del Patrimonio Natural Canario". En segundo lugar se hace necesario que el medio ambiente se convierta en uno de los objetivos primordiales del ejecutivo canario, a fin de evitar que desastres como el que acontece no se repita. Y finalmente, para la Fundación Foresta, es crucial "la dinamización de las políticas forestales poniendo en marcha acciones como el Plan de Desarrollo Rural, pendiente de aprobación, la concesión y tramitación de las subvenciones sectoriales, y la valoración urgente de las pérdidas ocasionadas por los incendios y la puesta en marcha de ayudas específicas y de compensación a los propietarios".

Desde su nacimiento en 1999 la Fundación Foresta ha repoblado un total de 238 hectáreas de monte, incluyendo fincas agrícolas privadas y terrenos municipales extendidos por toda la geografía insular. En estos momentos la Fundación continúa haciendo balance de las pérdidas ocasionadas por el fuego en estos trabajos y en la repercusión del mismo en proyectos a medio plazo.

Los incendios de Gran Canaria y Tenerife suman 34000 hectáreas afectadas, 12000 evacuados y 2 heridos leves

Dos incendios de dimensiones históricas sacuden con brutalidad las islas de Gran Canaria y Tenerife. En Gran Canaria, son ya cerca de 20.000 las hectáreas que han sido afectadas tras 94 horas de incendio, que han forzado la evacuación de aproximadamente 5.000 personas. En Tenerife, el incendio ya va por las 14.000 hectáreas y los evacuados alcanzan ya las 7.000 personas. En ambas islas el viento ha bajado un poco, con lo que todos los medios aéreos disponibles trabajan en estos momentos en la extinción. El fuego en Tenerife es por ahora el más descontrolado, con dos frentes activos muy peligrosos, mientras que en Gran Canaria preocupa la reactivación de tres focos en la zona de Tunte.

Incendio visto desde el Guirete (Gran Canaria)

Según los últimos datos de que dispone el Gobierno de Canarias, la situación es preocupante en ambas islas, pero en Gran Canaria ya empieza a haber un poco más de optimismo. En estos momentos, preocupa la reactivación de tres focos en la zona de Tunte, uno en la zona del mirador, otro a los lados de la carretera de Tunte para Villagarcía y un tercero en el frente de la Presa del Mulato.

Se sigue trabajando intensamente en el Frente de Monteleón, al igual que en el foco de Fatiga. La noticia positiva es que están estabilizados los focos de Sequeros (aunque tiene el riesgo de reavivarse) y el incendio de Siberio y todo el flanco del oeste, el más próximo a La Aldea de San Nicolás.

En Gran Canaria, ya están actuando todos los medios aéreos disponibles después de que le viento haya remitido un poco. En total, hay 8 helicópteros en Gran Canaria, de los que tres son Kamov del Ministerio de Medio Ambiente, 2 helicópteros Sopor para el traslado de los agentes en primera línea de fuego y tres helicópteros más, dos del Cabildo y uno del Gobierno de Canarias.

La única incidencia relativa a la salud de las personas en Gran Canaria ha sido el vuelco de uno de los camiones de la UME, que dejó dos heridos en el frente de Ayacata. Uno de los militares se consideraba en estado grave con un dolor cérvico dorsal y otro ha sido herido leve con erosiones.

En Tenerife, mientras, la situación se considera aún más descontrolada y peligrosa, en un incendio que empezó inicialmente en Los Realejos y ha ido creciendo a velocidades vertiginosas, hasta el punto de que ya hay entre 13.000 y 14.000 hectáreas afectadas. En Tenerife, los problemas están en dos frentes muy activos, uno entre Los Realejos e Icod de los Vinos y otro entre Santiago del Teide y Guía de Isora. En este segundo caso, la principal preocupación consiste en evitar que el fuego salte a Monte del Agua, lo que afectaría a un importante bosque de laurisilva.

En Tenerife, están actuando en estos momentos también todos los medios aéreos disponibles (4 helicópteros del Gobierno canario, uno del Cabildo y un avión de carga en tierra). Tras la evacuación de 7.000 personas, los servicios sanitarios han tenido que realizar un total de 10 intervenciones, todas ellas a las personas que estaban siendo desalojadas. Las crisis nerviosas y ataques de ansiedad han sido lo más tratado.

Fuente: elmundo.es, La Provincia, 31 de Julio de 2007

 

 

-¿Por qué practicar el sexo?

¿Por qué practicar el sexo? A muchos les parecerá una pregunta peregrina. Y, sin embargo, no existe una sola respuesta. Por lo menos hay 237. Eso es lo que se desprende de una investigación dirigida por dos investigadores del departamento de Psicología de la Universidad de Texas. El estudio será publicado en 'Archives of Sexual Behavior', pero ya se puede encontrar en el sitio de internet de esa revista.

Según Cindy Meston y David Buss, directores de la investigación, junto a razones obvias como "para tener hijos", "por placer" o "para aliviar la tensión sexual", las personas entrevistadas dieron otras menos esperadas, como "para acercarme a Dios" o "para quemar calorías".

No siempre las respuestas dejan en buen lugar a quien las da. Hubo personas que dijeron desear sexo para "para vengarme de mi pareja porque me engañó" o "porque estaba borracho". En el otro extremo, también hubo respuestas altruistas del tipo de "quería que se sintiera bien consigo misma". También hubo respuestas como "para pagar un favor", "para mantenerme caliente", "para cambiar el tema de conversación", o "alguien me desafió a ver si me animaba". Quizás la más sorprendente sea "para quitarme el dolor de cabeza".

Según los autores, la principal conclusión que se desprende de su estudio es que las personas tienen motivaciones sexuales muy complejas. Practican sexo, o no lo hacen, dependiendo de circunstancias muy diversas como, por ejemplo, el género, el atractivo físico, la emotividad, el estatus social o las presiones externas.

Fuente: elmundo.es, 31 de Julio de 2007

 

 

-Cambio climático, más huracanes

Según un estudio llevado a cabo por un equipo de científicos estadounidenses, el número de huracanes en el Océano Atlántico se duplicó en el último siglo debido al cambio climático.

Para los responsables del estudio, el aumento en el número de huracanes se debe al incremento de la temperatura de la superficie de los océanos y a cambios en el comportamiento de los vientos, ambos causados por el cambio climático.

Pero otros científicos consideran que los huracanes son cíclicos y que el aumento registrado es un reflejo de una pauta natural.

2007 será abundante en huracanes

En el estudio, realizado por el Centro Nacional de Investigaciones Atmosféricas de Colorado y el Instituto Tecnológico de Georgia, ambos en EE.UU., se analizó la frecuencia de este fenómeno meteorológico desde el año 1900 hasta nuestros días.

Así, llegaron a la conclusión de que hoy en día se producen el doble de huracanes que hace 100 años.

Los científicos identificaron tres periodos diferentes desde 1900 en los que la frecuencia de los huracanes y las tormentas tropicales aumentó de forma drástica, manteniéndose a un nivel elevado.

Durante el primer periodo, entre 1900 y 1930, hubo una media de seis tormentas tropicales, cuatro de las cuales fueron huracanes.

En el segundo, entre 1930 y 1940, hubo diez tormentas tropicales, de las cuales cinco fueron huracanes.

Por último, entre 1995 y 2005 se produjeron 15 tormentas tropicales, de las que ocho fueron huracanes.

Según los autores del estudio, el aumento de la temperatura de la superficie de los océanos provocada por el cambio climático es la causa principal para este incremento.

Temporada muy activa

"En el periodo estudiado hubo variabilidad natural en la frecuencia de los huracanes, pese a que, en nuestra opinión, ésta contribuyó en menos de un 50% al incremento detectado".

"Aproximadamente el 60% o 70% del aumento de la pasada década puede ser atribuido directamente al calentamiento causado por los gases con efecto invernadero", concluyeron los investigadores.

Según los expertos, en 2007 la temporada de huracanes será muy activa, con nueve huracanes previstos, de los que se espera que cinco sean de fuerte intensidad.

Animación de un huracán

Fuente: BBC Mundo, 30 de Julio de 2007

 

 

-Una expedición rusa se prepara para llegar al fondo marino en el Polo Norte

Una expedición polar rusa ha llegado a la Tierra de Francisco José, archipiélago ártico donde efectuará las primeras inmersiones submarinas en batiscafos previas al descenso al fondo marino que planea realizar el domingo en el Polo Norte.

Los científicos se encuentran en el buque laboratorio 'Académico Fiódorov' que, conducido por el rompehielos atómico 'Rossía', lleva a bordo los batiscafos tripulados Mir-1 y Mir-2, que en el Polo Norte efectuarán inmersiones de hasta 4.300 metros de profundidad.

Son los mismos batiscafos que el director de cine James Cameron utilizó en 1995 para el rodaje de su famoso 'Titanic', galardonado con 11 premios Oscar, y que participaron, aunque infructuosamente, en los intentos de rescatar el submarino nuclear ruso 'Kursk', hundido en el Ártico con sus 118 tripulantes en agosto de 2000.

En la Tierra de Francisco José (Archipiélago de Fritjof Nansen), los batiscafos descenderán a profundidades de hasta 1.500 metros, dijo a Itar-Tass a bordo del buque laboratorio Vladímir Strugatski, vicepresidente de la Asociación de Exploradores Polares.

El jefe de la expedición, Artur Chilingárov, explicó a su vez que estos descensos inicialmente no estaban programados, pero se decidió realizarlos para poner a prueba todos los equipos técnicos antes de la "complicada y arriesgada misión" prevista para el domingo.

"Tocar el fondo del Océano Glacial Ártico, el más severo de todos, en el punto donde convergen los meridianos en el hemisferio norte, es un viejo sueño de la Humanidad", dijo Chilingárov, conocido explorador polar y vicepresidente de la Duma rusa.

Chilingárov confirmó que durante una de las inmersiones en el Polo Norte se depositará en el fondo marino una cápsula de titanio con la bandera rusa y un mensaje conmemorativo de la expedición.

Mientras, el rompehielos realiza una misión colateral, al desembarcar en la isla de Kheysa, donde se encuentra la estación polar más septentrional, Krenkel, a un equipo de ornitólogos que durante una semana observará a las gaviotas blancas, incluidas en el Libro Rojo de especies en extinción.

La Tierra de Francisco José, perteneciente a Rusia y ubicada entre los 80 y 81,9 grados de latitud norte, está compuesta por 191 desérticas islas cubiertas de hielo, a una distancia de aproximadamente mil kilómetros del Polo Norte.

Tras completar las misiones previstas, la expedición bordeará el archipiélago por el este y se dirigirá hacia la cima del planeta, con la previsión de encontrarse con los primeros témpanos de hielo tras los 82 grados de la latitud norte.

Fuente: elmundo.es, 29 de Julio de 2007

 

 

-Llega la eco-moda

El cambio climático ha llegado también a la pasarela. Ejecutivos de la moda y responsables de compras de ropa están almacenando trajes de telas más finas y ligeras para la próxima primavera fabricados con tejidos que repelen el agua y no se arrugan, según explicaron durante los desfiles celebrados en la última semana de junio. Algunos tienen incluso capacidad de generar la energía necesaria para recargar el iPod. El gris es el color estrella de estas nuevas prendas.

"En el mundo hace más calor, por lo que se necesita comprar un traje que se pueda llevar durante 10 meses al año", señala Colby McWilliams, director de moda para la empresa Neiman Marcus Group, con sede en Dallas. "Lo que estamos viendo es la tecnología aplicada a los tejidos para hacer trajes más cómodos y de bajo mantenimiento".

Para los que tienen auténtica conciencia verde, Ermenegildo Zegna, conocido por sus lujosos trajes de hombre, ha presentado una chaqueta con paneles solares en el cuello que permite recargar un teléfono móvil o un iPod. La chaqueta, de la que James Bond podría sentirse orgulloso, cuesta 750 dólares (550 euros) y estará en las tiendas en noviembre.

"No hemos resuelto el problema del calentamiento global, pero la chaqueta solar muestra que hay pasos que uno puede tomar en la dirección correcta", asegura Gildo Zegna, responsable ejecutivo de Ermenegildo Zegna.

Los paneles solares pueden separarse y utilizarse independientemente. Cinco horas de luz solar sirven para recargar cualquier aparato electrónico, según Zegna. Disponible en cazadora o con un estilo más largo, la prenda fue desarrollada junto con la firma alemana Interactive Wear AG, un fabricante de prendas electrónicas. Además, viene dotada de adaptadores para diferentes aparatos.

Es una verdadera solución para la gente con prisa, que gusta de artilugios y puede siempre conseguir un valor añadido, especialmente si es verde, subraya Tom Kalenderian, director general de la cadena de Nueva York Barney's, propiedad de Jones Apparel Group.

Una nota más convencional es la chaqueta para asistir a cócteles vespertinos de Brioni Roman Style, en seda pespunteada con hilo de plata auténtica y que puede combinarse tanto con unos pantalones de esmoquin como con unos vaqueros. Brioni también presentó un abrigo tres cuartos de lana repelente al agua que se puede enrollar formando una pelota y no se arruga y una chaqueta sin forro que se guarda como una camisa.

"Brioni fue uno de los primeros en hacer chaquetas ligeras de seda, que son fáciles de llevar en el verano", apunta McWilliams. "Es la nueva chaqueta de esmoquin, pero no tan formal".

Tonos grises claros y tejidos de calidad han sido los elementos clave de la colección de Tom Ford, con la que debutará en febrero en cinco tiendas de Neiman Marcus, en Estados Unidos, y en los grandes almacenes londinenses Harrod's. Por primera vez sus trajes de 3.400 dólares (2.494 euros) y sus versiones a la medida estarán disponibles fuera de la tienda de Nueva York de Gucci, donde fue diseñador.

Las grandes superficies están comprando más la marca británica Bamford & Sons, incluida su línea de ropa orgánica hecha de algodón cultivado de forma natural y pieles ecológicas, que se tiñen con tintes vegetales, sin componentes químicos. "Regresar a la naturaleza es grande", opina Tommy Fazio, el director de moda de Bergdorf Goodman, filial de Neiman Marcus Group. "Estamos viendo un gran cambio hacia tejidos ecológicos".

Para hombres, se llevan los trajes de dos botones y pantalones sin pinzas, según los jefes de compras, evitando el estilo de tres botones, elemento básico de los armarios durante años. Las tiendas también venden modelos de tres botones en que sólo se utilizan dos, dejando el de arriba suelto. "Los dos botones son sexy", cree Kalenderian. "Hacen a los hombres más delgados y altos". "El largo de las chaquetas disminuye y se estrechan las solapas", añade Gold.

Fuente: El País, 29 de Julio de 2007

 

 

-94 millones de dólares de la NASA en paradero desconocido

Valioso material informático regalado a amigos o familiares y rocambolescas denuncias de portátiles «perdidos en el espacio». Son sólo algunas de las prácticas de los empleados de la NASA y que durante los últimos diez años han costado a la agencia 94 millones de dólares, según un informe elaborado por el Congreso norteamericano.

La propia NASA, en una de sus auditorías internas, había detectado el problema hace ya cinco años, pero su cultura «de no pedir explicaciones» -dice el informe- ha hecho que éste se generalice.

«Este ordenador -aseguró una vez uno de los trabajadores- a pesar de haberme sido asignado, fue usado a bordo de la ISS. Fui informado de que, al fallar, fue lanzado por la borda y se quemó en la atmósfera». Sin comentarios.

Fuente: abc.es, 29 de Julio de 2007

 

 

-La NASA dejó que astronautas borrachos viajaran al espacio

La agencia espacial estadounidense autorizó por lo menos en dos ocasiones que participaran en misiones astronautas ebrios -cuyas identidades no se han facilitado-, según un informe divulgado por la NASA.

"Las entrevistas con médicos de misión y astronautas identificaron algunos episodios de uso fuerte de alcohol por parte de astronautas en el período inmediatamente previo a los vuelos, lo que había causado preocupaciones sobre la seguridad de la misión", indicó el informe.

El estudio fue elaborado por una comisión independiente establecida en febrero pasado por el director de la NASA, Michael Griffin, después del caso de arresto y despido de la astronauta Lisa Nowak.

Nowak comparecerá ante un tribunal el 24 de septiembre acusada de intento de secuestro, allanamiento y agresión a otra oficial de la Fuerza Aérea, a quien al parecer consideraba su rival por el amor de un astronauta.

"El alcohol se consume en los alojamientos de la tripulación. Se describieron dos instancias específicas en las cuales los astronautas estaban tan intoxicados antes del vuelo que los médicos y sus colegas astronautas expresaron su preocupación a los responsables en el lugar acerca de la seguridad", según el informe. "Sin embargo se permitió que los individuos volaran", agregó.

El informe indica que, cuatro décadas y media después de su fundación, la NASA no cuenta con un procedimiento de evaluaciones psicológicas rutinarias a su personal. Aunque la agencia espacial usa rigurosos exámenes psicológicos para aceptar candidatos a astronautas, después de su contratación "no hay evaluaciones psicológicas periódicas".

Dos escándalos en pocas horas

Este es el segundo escándalo que se hace público de la NASA en las últimas horas. También se ha sabido que una pieza no crucial de la Estación Espacial Internacional (ISS) fue objeto de un aparente sabotaje, según denunciaron ingenieros de la agencia espacial.

Las autoridades de la NASA indicaron que la pieza, integrada en uno de los ordenadores y que iba a ser enviada al espacio con el transbordador Endeavour en la próxima misión, fue encontrada con los cables cortados.

El comienzo de esa misión de 11 días está previsto para el próximo 7 de agosto y su objetivo central es llevar hasta la Estación Espacial Internacional (ISS) una nueva viga que se agregará a su estructura.

Según Mike Leinbach, director de lanzamientos de la agencia espacial, la pieza es una unidad de control que iba a ser instalada en el laboratorio estadounidense de la Estación Espacial. "No queremos especular acerca de las motivaciones, pero hemos abierto una activa investigación", manifestó.

Leinbach indicó que el aparente sabotaje fue detectado hace una semana y media y fue la propia empresa que fabricó la unidad la que avisó del daño sufrido por la pieza.

Fuente: elmundo.es, 28 de Julio de 2007

 

-El Hubble busca minerales lunares

Los geólogos han usado el Telescopio Espacial Hubble para estudiar los minerales de la Luna. Esto puede ser un pequeño paso para ellos, pero es un salto gigantesco hacia la construcción de un puesto lunar avanzado.

Los científicos espaciales están muy interesados en trazar un mapa de la concentración de Ilmenita un mineral rico en dióxido de titanio sobre la superficie de la luna comentó Jim Garvin del Centro de Vuelo Espacial Goddard de la NASA en Greenbelt, Maryland. "La producción de oxígeno en suelos lunares ricos en dióxido de titanio (TiO2) podría hacer potencialmente respirable el oxígeno e incluso oxidante para combustible de cohete".

Las imágenes en ultravioleta de la superficie lunar muestran modelos que tienen correlación con la concentración de dióxido de titanio medido en muestras lunares recogidas por las misiones Apollo, y de este modo un mapa de las variaciones ultravioleta puede ser usado para crear un mapa de abundancia de dióxido de titanio. Sin embargo, la atmósfera de la Tierra interfiere en las lecturas del ultravioleta, por eso el equipo usó el Hubble para tomar las imágenes ultravioleta de una pequeña área de la superficie lunar que incluyó los lugares de aterrizaje de las naves espaciales Apollo 15 y 17.

Cuando el equipo comparó los datos ultravioleta con los niveles de dióxido de titanio de las muestras de los Apollo, encontraron que el suelo basáltico a baja altura tiene un 6 a un 8 por ciento de dióxido de titanio por medida, mientras que los suelos montañosos contienen sólo el 2 por ciento. "Nuestras imágenes en ultravioleta bien calibradas actuarán como un pionero para trazar un mapa por la Lunar Reconnaissance Orbiter de la NASA en 2008" explicó Garvin.

Fuente: sondasespaciales.com- newscientist.com, 27 de Julio de 2007

 

 

-Cuando el león bebe (inundaciones en Londres)

Por suerte, las últimas inundaciones no han afectado a Londres, y eso que algunas imágenes virtuales ya anticipaban de modo alarmista la catástrofe.

 La Thames Barrier, situada río abajo, después de la Millennium Dome, estaba preparada para regular el caudal del Támesis, pero su actuación no ha sido necesaria.

Thames Barrier

“When the lion drinks, London sinks” (cuando el león bebe, Londres se hunde), afirma un dicho. Esa función de dar la alerta la cumplen los bajorrelieves de leones que adornan parte de las orillas del Támesis. Cuando el agua supera el nivel de 4,87 metros al atravesar el centro de la capital, el peligro de desbordamiento es inminente.

Pero eso ocurre de modo muy ocasional. Los anales históricos registran una gran inundación en 1236, momento en que “en el gran Palacio de Westminster los hombres remaban en botes en medio de los salones”. Y en 1663, el famoso cronista Samuel Pepys indicaba que “la última noche, la mayor marea en este río que se recuerda en Inglaterra anegó todo el Whitehall”. El agua, no obstante, nunca han sido tan debastadora en Londres como el fuego, como el mismo Pepys constataría tres años después en el gran incendio que sepultó para siempre la ciudad medieval.

El peligro, más que del curso superior del Támesis, viene de las mareas de su estuario. Fuertes tormentas en el Mar del Norte pueden elevar seriamente el caudal del río, lo que se añade al progresivo aumento del nivel océano debido al deshielo, en una crecida que se estima de unos veinte centímetros cada cien años.

Para no quedar a la intemperie de imprevistas fuerzas naturales, en 1984 entró en servicio la Thames Barrier, una compleja obra de ingeniería que tardó diez años en completarse. Se trata de siete grandes estructuras distribuidas secuencialmente entre una orilla y otra, que desplazan compuertas para barrar el paso del agua. Su gran volumen y las planchas de acero que las recubren las asemejan más a una apuesta arquitectónica de Frank O. Gehry que a una construcción hidráulica. Los claros y nubes que conforman siempre el cielo de Londres aportan vistosos reflejos en la brillante y plomiza superficie de los pilares de la Barrera del Támesis. Un buen lugar desde el que tomar fotos es el parque que existe en la ribera norte.

Aquí el río no puede cruzarse de una parte a otra. Aunque no lo parezca, las compuertas están tan separadas entre sí como los dos extremos del puente de la Torre de Londres, con el propósito de permitir la navegación a través del río. De todos modos, grandes buques ya no avanzan hacia el interior de la ciudad, después de que la ocupación portuaria se desplazara a terrenos más próximos al estuario.

La Thames Barrier se cierra rutinariamente una vez al mes para asegurar el mantenimiento de sus mecanismos, y sólo en un par de ocasiones al año se tienden las compuertas ante un aumento excesivo del caudal, anticipándose siempre a cualquier situación de singular riesgo.

Fuente: abc.es, 26 de Julio de 2007

 

 

-Tener un amigo obeso aumenta la probabilidad de ser obeso

Si usted tiene un amigo, amiga, hermanos o pareja con sobrepeso, tendrá más riesgos de ser también obeso.

Y entre más cercana sea esa relación con la persona obesa, aún cuando viva a kilómetros de distancia de ella, más alto será el riesgo de desarrollar la obesidad.

Esa es la conclusión de un estudio llevado a cabo en la Escuela de Medicina de Harvard y la Universidad de California, en San Diego, Estados Unidos.

"Este estudio revela que los factores sociales juegan un papel muy importante en el desarrollo de la obesidad", dijo a BBC Ciencia el doctor Pedro Kaufmann, de la Sociedad Uruguaya para el Estudio de la Obesidad.

"Y sin duda hay muchos factores involucrados en ello", agrega.

Propagación

Los científicos analizaron datos recogidos durante 32 años para un estudio sobre el corazón en el que participaron más de 12.000 personas.

Descubrieron que los riesgos de ser obeso aumentan 57% si se tiene un amigo obeso, 40% si el hermano es obeso y 37% cuando la pareja es obesa.

Y cuando la persona obesa es un amigo cercano del mismo sexo, el riesgo de desarrollar el trastorno aumenta a 71%, dice el estudio publicado en la Revista de Medicina de Nueva Inglaterra.

Los participantes, cuya edad variaba entre 21 y 70 años, dieron información personal como su índice de masa corporal y los nombres de amigos a quienes podría contactarse.

Posteriormente los investigadores localizaron los contactos sociales que incluían tanto a amigos como familiares de los participantes.

Descubrieron que cuando un miembro de ese círculo social aumentaba de peso, aquéllos que lo rodeaban también desarrollaban obesidad.

"Esto demuestra -afirma el doctor Pedro Kaufmann- que el desarrollo del sobrepeso y obesidad no puede solamente atribuirse al estilo de vida y el medio ambiente".

Tal como señalan los autores "lo que vimos es que no se trata simplemente de que los obesos busquen gente similar para relacionarse o formar vínculos".

"Sino más bien se trata de una propagación de la obesidad y de las probabilidades de que una persona se vuelva obesa dependiendo de la gente que la rodea".

Es decir, cuando una persona se vuelve obesa, es probable que provoque un cambio en las normas de su grupo sobre lo que cuenta como una talla corporal apropiada.

"La persona puede llegar a creer que está bien ser obeso o tener sobrepeso ya que quienes la rodean también son obesos y grandes", afirman los autores.

Y los efectos fueron más grandes entre la gente del mismo sexo.

"Esto sin duda puede deberse a muchos factores" dice Pedro Kaufmann.

"Como el disfrutar la comida juntos o encontrarse entre pares que no se preocupan por el exceso de peso", agrega.

Implicaciones

Los expertos afirman que los resultados del estudio pueden tener implicaciones importantes.

Con el dramático aumento de la obesidad en el mundo, dicen los expertos, es importante analizar cómo los factores sociales amplifican otros factores que están causando el trastorno.

"Esto demuestra que no es suficiente con que la industria o gobiernos tomen medidas como la reducción de grasas trans o la introducción de ensaladas en las comidas rápidas", afirma el doctor Kaufmann.

"Mientras siga existiendo la posibilidad de acceder a comidas grasas e hiperhidrocarbonadas entre amigos, lamentablemente la epidemia de obesidad seguirá aumentando".

"Y esto significa que es difícil actuar con educación solamente, sino habrá que tomar otro tipo de medidas", agrega.

El experto señala además que "es muy interesante el hecho de que el vínculo sea más fuerte entre los amigos que los hermanos de la persona".

"Esto podría significar que los factores sociales son aun más importantes que los factores genéticos en la obesidad".

Sin embargo, tal como señala el doctor Kaufmann, el trastorno es mucho más complejo y no debemos olvidar los factores clave como la dieta y la falta de ejercicio.

"Todavía habrá que estudiar mucho más la relación entre estos factores y los aspectos sociales en el desarrollo de la obesidad" dice el experto.

Fuente: BBC Mundo, 26 de Julio de 2007

 

 

-Los simpsons y la ciencia

¿Qué otra serie televisiva cuenta entre sus personajes con Stephen Hawking o un padre regaña a su hija por ir en contra de las leyes de la termodinámica? Además de irreverentes, 'Los Simpsons' han resultado tener unos conocimientos científicos nada desdeñables.

Con motivo del estreno mundial de 'The Simpsons Movie', la prestigiosa revista científica 'Nature' ha entrevistado esta semana al productor ejecutivo de la película, Al Jean, y ha seleccionado los diez momentos "más científicos" de la serie televisiva protagonizada por Homer, Marge, Bart, Lisa y Maggie Simpson.

Como en otros asuntos, cuando 'Los Simpsons' analizan una cuestión científica tratan de "mostrar las dos partes" para "permitir a los telespectadores formarse su propia opinión", explicó a 'Nature' Jean, que también es el guionista jefe de la serie.

Y para ello cuentan con un equipo de guionistas con una amplia formación científica, capaces de aderezar el programa con chistes sobre matemáticas o física.

Entre los momentos "más científicos de la serie", la revista destaca uno de los episodios especiales emitidos por Halloween, en el que el Premio Nobel de Química Dudley Herschbach entrega un Nobel al Profesor Frink, el científico excéntrico de Springfield, el pueblo ficticio donde vive la familia Simpsons. Su mérito: devolver a la vida a su padre muerto.

O cuando Lisa, aburrida por la falta de estudios, construye una máquina de movimiento continuo. La idea no agrada a Homer, que le advierte: "Lisa, en esta casa nosotros obedecemos las leyes de la termodinámica".

Ese interés por las cuestiones científicas se mantiene en la película. "La crisis que precipita el argumento es medioambiental. Lisa está intentando advertir al pueblo sobre ello y da una conferencia titulada 'Una verdad molesta'", explica Jean en la entrevista.

El productor destaca como Lisa, pese a tener sólo ocho años de edad, es a menudo "la voz de los guionistas" y muchos miembros del equipo se identifican con ella.

"Pero también es caracterizada como un personaje socialmente impopular y que no siempre se la escucha", añade.

Jean recuerda cómo tanto el público como él mismo estuvieron "encantados" con la aparición en la serie de Hawking, el científico que ha profundizado en el conocimiento sobre el origen del universo y la existencia de los agujeros negros.

Destaca, no obstante, cómo "una broma que refleja la actitud de los ciudadanos hacia la ciencia es cuando (el prestigioso científico) aparece frente a los habitantes de Springfield y les dice lo que deberían hacer. Y Homer dice: 'Sí, Larry Flynt tiene razón".

Y si le preguntan por qué científico, de todos los tiempos, le gustaría tener como invitado en el programa no lo duda: Isaac Newton.

"Pero si tiene que estar vivo, es una pregunta difícil. Hace 50 años, Albert Einstein era la personificación de un científico y era considerado un héroe. Pero no hay ninguna figura comparable en la actualidad".

Fuente: elmundo.es, 26 de Julio de 2007

 

 

-El origen de hielo de agua permanente en el polo sur marciano

Gracias a los datos de la misión Mars Express de la ESA, combinados con modelos del clima marciano, los científicos pueden ahora sugerir cómo la órbita de Marte alrededor del Sol afecta a la deposición de hielo de agua en el Polo Sur Marciano

Al comienzo de la misión, el instrumento OMEGA (espectrómetro de mapeo mineralógico visible e infrarrojo) a bordo de la Mars Express ya había encontrado depósitos permanentes de hielo de agua no detectados previamente. Éstos están situados en lo alto de terrenos estratificados de millones de años de edad y constituyen una fuerte evidencia de reciente actividad glacial.

Hemisferio sur

Sin embargo, sólo ahora se podría sugerir una explicación realista para la edad de los depósitos y su mecanismo de formación. Esto se logró gracias al mapeo de OMEGA y a la caracterización de estos depósitos de hielo, combinado con los Modelos Climáticos Globales Marcianos generados por ordenador.

 

Tipos de depósitos de hielo en el Polo Sur marciano

El mapeo y el análisis espectral de OMEGA han mostrado que los depósitos permanentes en el Polo Sur Marciano son, esencialmente, de tres tipos: hielo de agua mezclado con hielo de dióxido de carbono (CO2), placas de decenas de kilómetros de extensión de hielo de agua, y depósitos cubiertos por una fina capa de hielo de CO2.

El descubrimiento de los depósitos de hielo del primer tipo confirma la hipótesis mantenida durante mucho tiempo de que el CO2 actúa como una trampa fría para el hielo de agua. Pero, ¿cómo se pudieron formar y preservar los otros tipos de depósitos, no "atrapados" por el CO2?.

Franck Montmessin, del Service d'Aéronomie du CNRS/IPSL (Francia), responsable principal de los descubrimientos, explica cómo se 'comportan' los depósitos de hielo de agua de los polos marcianos. “Creemos que los depósitos de hielo de agua migran entre los polos norte y sur de Marte a lo largo de un ciclo que abarca 51000 años, correspondiente al lapso de tiempo en el que la precesión del planeta se invierte”. La precesión es el fenómeno por el cual el eje de rotación de un planeta oscila.

Tasas de acumulación del hielo, actualmente y en el pasado

Montmessin y sus colegas llegaron a esta conclusión yendo atrás en el tiempo en su modelo informático de clima marciano. Esto fue llevado a cabo cambiando la precesión junto con otros parámetros orbitales.

Los científicos ajustaron el reloj 21000 años atrás cuando la parte del planeta más cercana al sol se correspondía con el verano del hemisferio norte, la sintuación contraria a la actual.

El modelo ha mostrado que el agua en el Polo Norte estaba depositada de forma inestable y era fácilmente transportada al polo sur en forma de vapor de agua, donde se condensaba y congelaba en la superficie. Hasta 1 milímetro de hielo de agua era depositado todos los años en el polo sur. Después de más de 10000 años repitiéndose el mismo proceso, esta acumulación dio lugar a una capa de 6 metros de espesor.

Hace 10000 años el ciclo de precesión se invirtió, y comenzó a cambiar hasta su actual configuración. El hielo de agua en el polo sur se volvió inestable, y fue forzado a regresar progresivamente al Norte.
 

Evolución del hielo de agua en el polo sur marciano

Hace 10000 años, iniciado por un proceso no muy bien explicado todavía, la erosión de los depósitos de hielo de agua en el polo sur se bloqueó al comenzar a depositarse capas de hielo de CO2 sobre el hielo de agua, dejándolo atrapado tal y como ha podido observar el instrumento OMEGA.

Fuente: sondasespaciales.con, ESA, 25 de Julio de 2007

 

 

-Las torres de la telefonía móvil no causan enfermedades

Así lo asegura un estudio. La exposición a las radiaciones emitidas por las antenas de telefonía móvil no causan enfermedades. Esta conclusión fue hecha por un investigador británico que tuvo que investigar los efectos de las antenas sobre la salud. El fin del estudio era aportar pruebas en un juicio en el que un grupo de personas pedían ser dañadas por las ondas emitidas por dichas antenas.

Los resultados muestran que muchos de los problemas en la salud producidos por dichas antenas (síntomas parecidos a los de la gripe, dolor de cabeza, nauseas...) se deben a otras causas. Según Elaine Fox, psicóloga  que dirigió las investigaciones, los transtornos son de origen psicológico.

Un 4% de los ingleses creen que las ondas de radio procedentes de móviles u otros electrodomésticos les están afectando.

Los experimentos haciendo pruebas a 44 personas que aseguraban haber sufrido enfermedades por la exposición a las ondas de los teléfonos móviles y 144 que no. Usaron las emisiones de radiaciones de un móvil convencional y otro con tecnología 3G.

Los investigadores informaban que los transmisores iban a estar encendidos sobre unos 50 minutos. Entonces, los individuos más sensibles mostraban una mayor ansiedad, incomodidad y tensión. Sus latidos del corazón se incrementaban, así como la sudoración. La intensidad de estas alteraciones no dependía de que el transmisor estuviera encendido o apagado.

El estudio sugiere que aunque los síntomas sean ciertos, el problema se origina al achacar su causa a la  cercanía de una antena y recibir el efecto de las ondas electromagnéticas. Tampoco se conocen mecanismos que expliquen la supuesta interacción maligna entre las ondas y el cuerpo humano.

Las investigaciones se hicieron para exposiciones a las radiaciones a corto plazo. Por ello, Fox cree que es conveniente investigar más sobre lo que pasa a largo plazo con personas que viven cerca de grandes fuentes de emisión de estas radiaciones.

Fuente: Nature, 25 de Julio de 2007    

 

 

-La depresión no existe entre los indígenas africanos

"Los pueblos indígenas africanos viven en sociedades en las que están protegidos de enfermedades mentales como la depresión, la anorexia o el estrés que hace mella en Occidente".

"Su vida en comunidad, la relación entre los niños o el cuidado de los ancianos están más ajustados a la historia evolutiva humana que la nuestra». Así de explícito es el médico y antropólogo Francisco Giner Abati, que presentó ayer en Madrid una nueva edición de la Expedición Española a África, un proyecto científico y humanitario con el que se está recorriendo el continente.

Durante el viaje del año pasado, el equipo de seis investigadores españoles recorrió 50.000 kilómetros que les llevaron más allá de las fronteras políticas e incluso de las de las ONG. «Buscamos los pueblos más aislados y con ellos descubrimos que nuestra vida en las grandes ciudades está desajustada. El individualismo patológico nos genera problemas que estos indígenas desconocen porque viven en núcleos pequeños, como el ser humano vivió hasta hace 5.000 años. Pueden morir de malaria, pero no sufren las enfermedades mentales que tanto nos hacen sufrir», asegura Giner Abati.

En su largo periplo de seis meses, en el que su trabajo se centró en Egipto, Sudán, Etiopía, Kenia, Angola y Camerún, documentaron seis sociedades diferentes. Entre los nubios de Sudán descubrieron que las mujeres están aumentando su papel social, y un buen ejemplo es Ebo Komando, que ha creado una asociación contra la castrante ablación del clítoris habitual en su etnia.

Entre los surma etíopes, cuyas mujeres se incustran un plato de barro en los labios (hoy símbolo de belleza, pero hace 200 años una deformación voluntaria para evitar que se las llevaran los esclavistas), encontraron un pueblo abierto de gentes atléticas en el que la comunicación y la vida comunitaria son básicas para su supervivencia. De los afar del este del país de los hombres de piel quemada aprendieron cómo recuperar el vapor de agua de una zona volcánica, colocando una bóveda sobre los pozos.

Más al oeste, en las selvas de Camerún, localizaron a grupos de pigmeos que huyen de la brutal deforestación que acaba con su modo de vida. «Es espectacular lo que saben de medicina. El bosque es un arsenal terapéutico para ellos: cortezas de árbol contra la malaria, hojas que evitan las picaduras de mosquitos, hierbas para el estómago. Y los surma también. Por lo visto su mijo tiene un parásito que les evita las infecciones», asegura el antropólogo que, en su faceta médica, es especialista en males tropicales.

La parte menos investigadora del viaje, la humanitaria, se tradujo precisamente en la atención sanitaria que el grupo fue proporcionando allá por donde iba, a la vez que identificaba carencias que pueden suplirse este año con el apoyo solidario de empresas y particulares: recursos para apoyar a la afar Ebo Komando o para hacer pozos en un poblado surma.

Nada de ello fue fácil. En Sudán, parte del recorrido lo hicieron escoltados por convoyes militares, en Etiopía contrataban en las tribus a guardianes para evitar a los bandidos que, armados con fusiles, son un peligro para los viajeros y en República Democrática del Congo el barro se convirtió en una pringosa pesadilla que duró varias noches.

Surmas de Etiopía

Pese a ello, este año vuelven. Y lo hacen con ayuda de la Agencia Española de Cooperación Internacional (AECI), de empresas como Nissan, Michelín y Telefónica, de la Universidad de Salamanca (en donde Giner Abati es catedrático de Antropología) y de la Sociedad Geográfica Española.

Serán otros 50.000 kilómetros en seis meses de aventura en los que atravesarán 30 países, si bien el trabajo se centrará en el sur de Sudán, Etiopía, RD Congo, Benin, Níger, Malí y Namibia. Por si alguna frontera se les resite, llevan dos rutas en la cartera.

De allí saldrán nuevos documentales y datos sobre la calidad de vida y la salud en culturas africanas no industrializadas, para compararlas con las nuestras antes de que desaparezcan. Uno de los temas en los que harán hincapié son las familias polígamas y las relaciones entre las mujeres. Los dogón de Malí, los peul de Níger, los himba de Namibia, los pigmeos del Congo serán sus próximos objetivos antropológicos.

El embajador Juan Alonso, director de la Casa de África, reconocía que el continente ha estado "muy alejado de las precupaciones de los españoles", pero ya es hora de cambiar este escenario. "Casa de África fue inaugurada hace un par de meses en Gran Canaria para ayudar a transmitir culturas y tradiciones que nos acerquen a estos pueblos, y por ello apoyamos la expedición de Giner Abati, que tiene este conocimiento como objetivo principal", señaló durante la presentación de la nueva ruta.

Fuente: elmundo.es, 25 de Julio de 2007

 

 

-Reestablecidas las comunicaciones con el rover Opportunity

La NASA ha logrado reestablecer las comunicaciones con el vehículo explorador 'Opportunity', cuya actividad ha sido amenazada por las violentas tormentas estivales de polvo que azotan desde hace más de un mes al planeta Marte.

La agencia espacial señaló que la primera comunicación desde el 'Opportunity' se recibió esta mañana y que la situación parece haber mejorado desde la semana pasada, cuando obedeció órdenes de establecer contacto cada tres días para ahorrar energía.

En ese momento, los paneles solares del vehículo estaban produciendo un 80% menos de energía que el mes pasado.

El próximo contacto deberá producirse el jueves de esta semana, dijo la NASA en un comunicado.

Por otra parte, la agencia espacial dijo que en el punto donde se encuentra el 'Spirit', el vehículo gemelo de 'Opportunity', el cielo parece haberse despejado levemente.

"La suerte de ambos vehículos depende de las condiciones del clima en Marte y este es impredecible", manifestó John Callas, director del proyecto en el Laboratorio de Propulsión a Chorro (JPL) de la NASA.

Hasta la semana pasada el más afectado de los dos vehículos de seis ruedas independientes y del tamaño de una lavadora era 'Opportunity', cuyos paneles estaban cubiertos en un 99% por el polvo marciano, señaló JPL en un comunicado.

JPL señaló que si los paneles continúan sin recibir luz solar durante mucho tiempo los vehículos no dispondrán de la energía necesaria para continuar sus operaciones.

Los vehículos de exploración utilizan calefactores eléctricos para evitar que se congelen sus circuitos electrónicos más importantes.

Esta fue la primera vez que los ingenieros de JPL se ven obligados a interrumpir las comunicaciones con uno de los vehículos, que llegaron al planeta en enero de 2004.

Fuente: elmundo.es, 25 de Julio de 2007

 

 

-Un mecanismo de hace dos siglos sirve como modelo para las nanocomputadoras actuales

Investigadores de Estados Unidos han presentado el diseño de una diminuta computadora mecánica inspirada en ideas sobre computación de unos 200 años atrás.

Los científicos encargados del proyecto dicen que la computadora estará construida con componentes nanométricos, equivalentes a una milmillonésima parte de un metro, según escribieron en la revista "New Journal of Physics".

Máquina diferencial creada por Charles Babbage

Aseguran que los chips basados en este diseño podrían utilizarse, por ejemplo, en motores de automóviles donde el silicio puede ser demasiado delicado.

"Estamos proponiendo un nuevo tipo de arquitectura computacional basada en elementos mecánicos nanométricos", afirmó Robert Blick, de la Universidad de Wisconsin-Madison en Estados Unidos y uno de los autores del estudio.

"No queremos competir contra el silicio de alta velocidad, pero donde somos competitivos es en todas las aplicaciones convencionales que necesitan microprocesadores que pueden ser también lentos y baratos", añadió. Los usos podrían incluir desde juguetes hasta electrodomésticos.

Pensar en pequeño

Las computadoras mecánicas no son nuevas. Los restos de una computadora analógica de más de 2.000 años de antigüedad y conocida como el mecanismo Antikythera fueron descubiertos en Grecia en 1902.

Y durante el siglo XIX, el matemático e ingeniero británico, Charles Babbage, diseñó una máquina analítica que utilizaba tarjetas perforadas de Jacquard.

Su máquina diferencial, por ejemplo, contenía más de 25.000 palancas individuales, trinquetes y dientes y pesaba más de 13 toneladas.

Aunque sus diseños nunca llegaron a realizarse, reconstrucciones recientes llevadas a cabo por el Museo de Ciencia de Londres muestran que eran capaces de efectuar cálculos complejos.

La propuesta del equipo de investigadores de EE.UU. está en deuda con estos conceptos originales.

"Está inspirado en las ideas de Babbage pero estos días podemos hacerlo a escala pequeña", afirmó Blick.

Objetivo comercial

El diminuto e hipotético procesador de operaciones matemáticas podría construirse a partir de materiales muy duros, como diamante o los llamados materiales piezoeléctricos, que pueden cambiar de forma cuando se les aplica una corriente eléctrica.

Al contrario de las computadoras actuales, que están basadas en el movimiento de electrones alrededor de los circuitos para efectuar cálculos útiles, la computadora mecánica nano podría usar el empuje y atracción de cada elemento diminuto para hacer los cálculos.

Los investigadores actualmente están construyendo el primer elemento necesario para la computadora, centrándose al comienzo en los transistores, los conmutadores básicos que se hayan en el corazón de todas las computadoras.

"Hemos demostrado que un único elemento de estos transistores funciona", dijo Blick.

Las simulaciones también indican que debería de ser posible construir circuitos que funcionan, agregó.

"Creemos que, dentro de un par de años, este trabajo conducirá a aplicaciones comerciales", dijo.

El ejército de Estados Unidos está interesado en estos mecanismos ya que, al contrario de los chips tradicionales, los mecanismos mecánicos nano no son susceptibles a impulsos electromagnéticos que podrían ser utilizados por el enemigo para dañar sistemas informáticos.

Principios de diseño

Sin embargo, el equipo cree que las ventajas clave de los chips podrían consistir en ayudar a la industria de los chips en su incesante búsqueda de la Ley de Moore.

El cofundador de la compañía de componentes electrónicos Intel, Gordon Moore, dijo en 1965 que el número de transistores en un microchip se doblaría cada dos años.

Durante cuatro décadas fue así, pero el mismo Moore creyó que su ley "no puede continuar siempre" ya que se alcanzará el límite térmico.

En ese punto, el calor interferirá en las funciones de los circuitos, anulando cualquier eficiencia conseguida al colocar más transistores en un chip.

Los dispositivos mecánicos son más fríos que el silicio y, por tanto, no tendrían este problema.

Pero Michael Kraft, de la Universidad de Southampton en Inglaterra, cree que será difícil convencer a la industria del silicio a que abandone los diseños de chips más tradicionales como el diseño de circuitos conocido como CMOS.

"El sector ha estado trabajando con CMOS casi 40 años y hay muchísima infraestructura y conocimiento adquirido", dijo Kraft a la BBC.

"Creo que, comercialmente, el sector continuará con CMOS hasta el punto en que no sea posible impulsarlo más", añadió.

Sin embargo, dijo que el enfoque mecánico nano ofrece ciertas ventajas que podrían conducir a la creación de chips híbridos.

"Consumen menos energía lo cual es muy importante porque hoy en día la mayoría de las computadoras son móviles", afirmó.

"La batería es el gran cuello de botella, así que cualquier cosa que reduzca el consumo de energía será una gran ventaja", dijo.

Fuente: BBC Mundo, 24 de Julio de 2007
 

 

-Un acuario permitirá la cría de caballitos de mar en cautividad

Un grupo del Instituto de Investigacións Mariñas de Vigo ha iniciado una técnica de mantenimiento u reproducción de caballitos de mar en cautividad. Para esto, definieron las condiciones biológicas y tecnológicas del cultivo más adaptadas a el Hippocampis guttulatus, una especie de caballito de mar. Tras un año de investigación el grupo ha conseguido desarrollar un acuario específico para la especie, así como una dieta basada exclusivamente en el molusco Artemia. Estos resultados han supuesto un verdadero hito en lo que a la cría de caballitos de mar, una especie protegida, se refiere.

Un grupo de investigación de la Universidad de Santiago de Compostela, especializada en genética aplicada a la acuicultura y la conservación, está trabajando en el estudio genético de los ejemplares. Los investigadores están trabajando para evaluar el estado genético de las poblaciones salvajes y para realizar análisis de parentesco en esta especia. La aplicación de estos marcadores permitió confirmar la paternidad de los ejemplares obtenidas en cautividad al mismo tiempo que permite analizar el comportamiento de selección de pareja en los caballitos de mar. Esto permitirá mejorar el diseño de los cruce y posibilitar la repoblación en situaciones eventualmente críticas de los recursos naturales.

Además del Instituto de Investigación Mariñas de Vigo, los investigadores de la facultad de Veterinaria de Lugo, también colaboran en este proyecto cuatro acuarios nacionales y una empresa privada, apoyando la reproducción en cautividad. Esto permitirá que en el futuro se puedan producir intercambios de ejemplares entre centros.

Especie protegida

En la actualidad todas las especies de caballitos de mar están protegidas, dedido a la regresión progresiva que están sufriendo las poblaciones en su medio natural. En España, sólol habitan dos de las 33 especies que existen en el mundo.

Fuente: La Voz de Galicia, 23 de Julio de 2007

 

 

-Estamos perdiendo la guerra contra el SIDA

Fauci, quien dirige el Instituto estadounidense de Alergias y Enfermedades Infecciosas, asiste a la Conferencia sobre Patogénesis y Tratamiento del VIH, que se realiza en Sidney, Australia.

En palabras del experto, "por cada persona que recibe terapia, otras seis se contagian. Es decir, que estamos perdiendo la batalla de los números".

El especialista agregó que "aunque estamos logrando grandes avances en el acceso a los fármacos, claramente la prevención debe encararse de una forma más firme".

Contagio

Hace tres años, menos de 300.000 personas en el mundo en desarrollo tenían acceso a los medicamentos antirretrovirales.

Doctor Anthony Fauci

Hoy esa cifra se ha incrementado a más de dos millones; no obstante, el alto número de nuevos contagios opaca los esfuerzos internacionales en las áreas de tratamiento y educación.

En muchos países en desarrollo, estrategias de prevención, como el uso de condones o jeringas esterilizadas sólo son accesibles para menos del 15% de la población.

Entretanto, el copresidente de la conferencia, el argentino Pedro Cahn, declaró que 11.000 personas contraen cada día el VIH en el mundo.

El también director de la Fundación Huésped en Argentina pidió la colaboración internacional para que "los nuevos avances en los sistemas de prevención y tratamiento" se apliquen "en los sistemas de salud del mundo en desarrollo".

"Fuera de control"

En la conferencia de Sidney, el presidente y fundador de la Asociación Británica de VIH, Brian Gazzard, dijo que "la epidemia del SIDA está fuera de control. Está fuera de control en África y está fuera de control en Asia".

De acuerdo con Gazzard, "si el mundo desarrollado no muestra una mayor solidaridad hacia los países en desarrollo, no se ganará la batalla contra el SIDA".

La conferencia reúne alrededor de 5.000 expertos de más de 131 países.

El encuentro se inició con un llamamiento al acceso de los países más pobres a los últimos avances en tratamientos y prevención contra el VIH/SIDA.


Fuente: BBC Mundo, 23 de Julio de 2007

 

-Spirit y Opportunity en peligro por las tormentas de arena

Las violentas tormentas estivales de polvo en Marte amenazan paralizar sin remedio a los vehículos 'Spirit' y 'Opportunity' que exploran la superficie del planeta, según ha informado el Laboratorio de Propulsión a Chorro (JPL) de la NASA.

El más afectado de los dos vehículos de seis ruedas independientes y del tamaño de una lavadora es 'Opportunity', cuyos paneles están cubiertos en un 99 por ciento por el polvo marciano, señaló JPL en un comunicado. Como resultado, los ingenieros de la NASA han ordenado al vehículo que interrumpa las comunicaciones durante dos días para ahorrar energía.

Imágenes captadas por Opportunity en diferentes días (14 de Junio, 30 de Junio, 5 de Julio,  13 de Julio y 15 de Julio de 2007. En la parte superior de la imagen tenemos un número conodio por tau que indica la opacidad del cielo. A mayor valor, mayor opacidad

Ante la posibilidad de que las tormentas continúen durante días e incluso semanas los científicos de la NASA han hecho público su temor sobre su futuro en el planeta rojo.

"Estamos alentando a nuestros vehículos de exploración para que sobrevivan a estas tormentas", dijo Alan Stern, administrador asociado del Directorio de Misiones Científicas de la NASA, en Washington. Sin embargo, Stern admitió la gravedad de la situación al señalar que los vehículos "nunca fueron diseñados para condiciones así de intensas".

Comunicaciones interrumpidas

JPL señaló que si los paneles continúan sin recibir luz solar durante mucho tiempo los vehículos no dispondrán de la energía necesaria para continuar sus operaciones. Los vehículos de exploración utilizan calefactores eléctricos para evitar que se congelen sus circuitos electrónicos más importantes.

Ésta es la primera vez que los ingenieros de JPL se ven obligados a interrumpir las comunicaciones con uno de los vehículos que llegaron al planeta en enero de 2004. Debido a las tormentas de polvo, el 'Opportunity' redujo el nivel de energía diaria producida de 700 vatios-hora, suficientes para iluminar una bombilla de cien vatios durante siete horas, a 400.

Cuando las tormentas se intensificaron, el pasado martes, la energía producida por este vehículo disminuyó hasta 148 vatios-hora, el nivel más bajo alcanzado hasta entonces. Y tras descender los niveles el miércoles a 128 vatios-hora el JPL decidió ordenar el corte de las comunicaciones con "Opportunity".

'Spirit', en la antípoda del planeta y en una zona menos asediada por las tormentas, deberá limitar sus actividades, dijo JPL. Los ingenieros estudiarán el estado del 'Opportunity' y del 'Spirit' una vez se calmen las tormentas, dijo el Laboratorio de Propulsión a Chorro.

Las tormentas de arena que han ocurrido en el planeta han levantado una gran cantidad de polvo cubriendo casi toda su faz. Este mosaico de imágenes tomadas por Mars Reconnaisance Orbiter (MRO) y Mars Color Imager (MARCI) en tres semanas y media con intervalos de dos días de separación. La primera del 22 de Junio, muestra una tormenta de arena cerca del Valle Marineris. En la segunda foto, del 17 de Julio podemos observar el resultado de las tormentas de arena (regionales y muchas locales) de las semanas anteriores. El polvo levantado cubre gran parte de la atmósfera

La pérdida de uno o los dos vehículos sería un duro golpe para la exploración del planeta, pese a que los resultados de su recorrido han sido mayores de lo que se esperaba, dijeron científicos de la agencia espacial. Meses después de su suave descenso sobre el planeta, los vehículos confirmaron que el planeta había albergado agua en su pasado remoto. Además, durante más de tres años han enviado miles de fotografías de la superficie y han proporcionado información sobre la constitución geológica y atmosférica del planeta.

Fuente: elmundo.es, 20 de Julio de 2007

 

 

-Tres variantes de genes podrían encerrar la clave para entender el desarrollo del SIDA

Tres variantes de genes en el ADN de 486 pacientes con sida parecen jugar un papel en contener y enlentecer el desarrollo del virus del VIH, según un prometedor estudio realizado por un equipo internacional y divulgado este jueves por la revista Science.

Los investigadores confían en que sus hallazgos lleven a una vacuna que potencie los efectos protectores de uno o más de estos genes, y ayuden al propio sistema inmunológico del cuerpo a superar la infección. Y es que la capacidad del sistema inmunitario de combatir el virus en el inicio de la infección tiene relación con la velocidad con la cual la enfermedad evolucionará hacia el sida. Algunos genes podrían controlar el rápido desarrollo de la enfermedad.

Una variante genética se ve especialmente prometedora, destacaron los científicos. "Estos resultados no solo casi duplican nuestra comprensión de los factores que influyen en la variación entre los individuos en cómo controlan el VIH-1, sino que también apuntan hacia nuevos mecanismos de control", dijo David Goldstein, del
Duke's Institute for Genome Sciences and Policy de la Universidad Duke de Carolina del Norte, y coordinador de la investigación.

El equipo internacional de especialistas en genética trabajó durante 18 meses en seleccionar cuidadosamente a los pacientes utilizando lo último en tecnología disponible para estudiar el genoma, para descubrir los tres genes. La investigación halló que algunos pacientes con variantes genéticas específicas en células clave del sistema inmunitario parecen controlar mucho mejor la proliferación del virus de inmunodeficiencia humana (VIH), causante del sida, luego de ser infectados.

"A medida que expandamos la cantidad de pacientes en estudios futuros realizados por investigadores del CHAVI (Center for HIV/AIDS Vaccine Immunology), esperamos descubrir aún más polimorfismos que podrían brindar claves adicionales sobre cómo algunos pacientes pueden controlar mejor el virus que otros", explicó Goldstein. "Esto debería llevar en última instancia a objetivos novedosos para las vacunas, la principal meta del CHAVI", un proyecto de siete años lanzado en 2005 por el Instituto nacional de alergia y enfermedades infecciosas (NIAID).

DOS DE LAS VARIANTES GENÉTICAS, FUNDAMENTALES EN EL SISTEMA INMUNOLÓGICO

Dos de las variantes genéticas recientemente descubiertas fueron encontradas en genes que controlan el sistema de antígenos leucocitarios humanos (HLA, en inglés), que juegan un "papel fundamental" en el sistema inmunológico identificando invasores externos y "marcándolos" para que sean destruidos.

Dos de los genes HLA, conocidos como HLA-A y B, son desactivados por el virus VIH cuando éste ingresa al organismo, lo que hace que el sistema inmunitario no reconozca el virus como agresor externo. Sin embargo, el gen HLA-C aparentemente no es desactivado por el virus del sida, lo que sugiere que al menos en algunos individuos el HLA-C está involucrado en el control del virus, indicaron los investigadores.

El gen HLA-C podría así representar un talón de Aquiles para el VIH, según Goldstein. Así, estimó el experto, podría diseñarse una vacuna que provoque una respuesta del gen HLA-C que el virus del VIH tal vez no podría desactivar. Investigadores de todo el globo han buscado una vacuna contra el VIH durante dos décadas, pero los esfuerzos han sido frustrados por la habilidad del virus de mutar.

Se estima que las más prometedoras de las numerosas vacunas experimentales contra el sida en desarrollo ofrecerán solo una inmunidad limitada contra el mortífero virus. A diferencia de las vacunas clásicas, la primera generación de vacunas contra el VIH no permitirá a la gente rechazar el virus, pero podrían proteger su sistema inmunitario de los peores efectos del virus y postergar la aparición del sida.

Unos 40 millones de personas son VIH positivas y otras 11. 000 personas contraen el virus cada día, la mayoría en las naciones más pobres del mundo, según el NIAID.

Fuente: ABC Periódico Electrónico S.A, 20 de Julio de 2007

 

 

-Zeltia saca al mercado su nuevo producto estrella: Yondelis

La Agencia Europea del Medicamento (Emea) ha anunciado la aprobación del fármaco Yondelis, de Pharmamar, filial del grupo español Zeltia. "Se trata de una buena noticia no sólo para nosotros, sino también para la medicina española en general", comentó un directivo de Zeltia.

Los principales ejecutivos de la empresa se encontraban el miércoles por la tarde reunidos en las oficinas de la empresa en Madrid; hoy el presidente, José María Fernandez Sousa, ofrecerá una rueda de prensa en la capital española.

Yondelis es un antitumoral de origen marino. Su propiedad es compartida entre Zeltia y la multinacional estadounidense Jonson & Jonson.

PharmaMar, que se encarga de explorar gran parte de la biodiversidad del mar para la creación de nuevos fármacos para el tratamiento del cáncer, tiene 5 compuestos en ensayos clínicos, entre los que se encuentra Yondelis con más de 4.850 pacientes tratados en Europa y Estados Unidos y en fase III (comparativa con otros medicamentos) para el cáncer de ovario y en fase II (eficacia) para el cáncer de mama.

Entre otros compuestos derivados del mar, por lo tanto de origen natural, se encuentran Aplidin, con 630 pacientes tratados en Europa, Estados Unidos y Canadá, en fase II para el tratamiento de tumores sólidos y hemáticos, y Kahaladide F, con 277 pacientes tratados, que es el último compuesto en fase II. Fuera de Europa, la licencia para Yondelis la tiene Johnson& Johnson.

En total la empresa PharmaMar tiene 730 patentes concedidas y 680 en petición y "sigue apostando por diferenciarse en su búsqueda de sustancias y compuestos en el mar" de los que se ha demostrado que un 1,8% de los extractos de animales marinos muestra una actividad anticáncer frente al 0,4% de las plantas terrestres, añadió.
 

Fuente: Cinco Días, 20 de Julio de 2007
 

 

-Ojo con las etiquetas RFID

La tecnología de identificación por radiofrecuencia (RFID) aún no está lo suficientemente avanzada para poner en peligro nuestra privacidad. Sin embargo, esto podría cambiar en un futuro muy próximo, y para entonces deberá haber en marcha medidas para proteger la información personal y garantizar la libertad individual, según STOA, el comité de Evaluación de Opciones Científicas y Tecnológicas del Parlamento Europeo

Las etiquetas de RFID son microchips diminutos hechos de plástico o incluso de papel. Se acoplan a una antena y emiten un número de serie exclusivo por radio a través de distancias cortas. Hasta hace poco tiempo, la tecnología de RFID se utilizaba principalmente en la gestión de la cadena de suministro, para seguir el desplazamiento de vehículos entre almacenes y el movimiento de palés de mercancías desde los almacenes a los comercios.

Pero ahora están multiplicándose las aplicaciones de la RFID. Pueden incorporarse etiquetas a todo tipo de productos de consumo y rastrearse a una distancia de entre tres y cincuenta metros para revelar información sobre el producto. También se puede identificar a personas utilizando esta tecnología, que ha permitido el desarrollo de tarjetas equipadas con RFID en el transporte público, en pasaportes biométricos, en sistemas de micropagos, en chips de identificación del personal de oficinas y en tarjetas de fidelización de clientes.

Mediante el estudio de una serie de casos prácticos, los investigadores contratados por el STOA consiguieron plasmar la percepción que tienen de la RFID los consumidores y quienes operan esta tecnología. Los consumidores en general ven la RFID como poco más que una llave electrónica, mientras que para los propietarios de sistemas de RFID, esta tecnología les permite registrar los movimientos, el poder adquisitivo, la productividad, las preferencias y los hábitos de sus usuarios.

Precisamente ese acceso a información personal ha despertado la inquietud de muchas asociaciones de protección de los derechos del consumidor, que argumentan que la implantación de esta tecnología podría perjudicar gravemente a la intimidad de las personas. Los propios investigadores dieron con varios casos en los que se abusaba de la información de los usuarios. En un caso se utilizaban datos de viajes en una investigación policial. En el contexto laboral también se observaron varios casos interesantes. Los empleados, cuya única opción es usar los objetos con chips de RFID proporcionados por sus empresas, estaban sometidos a unos registros de horarios y a una vigilancia contra robos.

Por otra parte, en el estudio también se indica que la RFID es beneficiosa para sus usuarios, y se ofrece como ejemplos de ventajas el ser identificado como cliente fiel y la demostración de las horas extras trabajadas por un empleado.

Aunque para extraer conclusiones definitivas haría falta un estudio exhaustivo, estas primeras indagaciones, según se indica en el estudio, han deparado un número relativamente bajo de incidentes en los que se hizo un uso inapropiado de la información personal. Esto podría atribuirse a dos razones. En primer lugar, en todos los casos estaba claro quién estaba a cargo de los datos y debía cumplir unas directrices concretas sobre la protección de datos. En segundo lugar, muchos sistemas de RFID no son muy sofisticados y pueden revelar tan sólo pequeños fragmentos de la identidad de sus usuarios.

A pesar de ello, dado el rápido desarrollo de los sistemas de RFID, en el estudio se señala que, paulatinamente, resultará más sencillo reunir datos sobre los usuarios y analizarlos. Además, una vez se conecten entre sí diferentes sistemas de RFID u otras tecnologías como GSM, GPS, CCTV e Internet, será posible formarse una imagen mucho más detallada de los usuarios. Esto permitiría a los propietarios de sistemas de RFID entregar datos personales obtenidos con RFID para investigaciones policiales.

Paralelamente, para los usuarios resultará mucho más turbio quién tiene en su poder sus datos personales y en qué sistemas, cosa que trastoca el balance de poder en el espacio público digital. No sólo está la cuestión de proteger la privacidad o los datos personales, sino también la de garantizar la libertad individual logrando el equilibrio adecuado entre libertad de elección, comodidad y control, se argumenta en el estudio.

El estudio concluye ofreciendo las siguientes recomendaciones:

Fuente: Cordis, 20 de Julio de 2007

 

 

-Captura ilegal de pájaros en Tamaraceite

El periódico Canarias 7 de hoy recoge la noticia que sobre las Charcas de San Lorenzo ha sacado la federación ecologista Ben Magec y que ha denunciado la actividad del pajareo -captura ilegal de aves- en las charcas de San Lorenzo y ha advertido que daña a especies endémicas macaronésicas que están a punto de desaparecer en Canarias.
Los pajareros son vecinos de San Lorenzo y de Tamaraceite, además de otros barrios colindantes como El Román, La Milagrosa, Piletas o La Suerte, asegura Francisco González, miembro de Ben Magec. «La técnica de captura es con red con una cuerda de la que se tira y atrapan a las piezas. Para ello utilizan un ave como reclamo; allanan el terreno y colocan cardos de forma artificial (estos pájaros se alimentan de semillas de cardo), así como un bebedero de agua;también ponen otros granos como alpiste o trigo». Y prosigue: «Cuando el ave se posa sobre la red a comer o beber agua tiran de ella y la red se cierra capturándola».

Las aves son todo un negocio. Cada pieza puede llegar a tener un valor en el mercado que va desde los 50 hasta los 200 euros, según la especie de que se trate. González explica que «se suelen vender en bares de la zona, en domicilios particulares, en la zona Puerto e incluso en el propio Mercado Central».

«Hay pajareros que se sacan un autentico sobresueldo con la venta de estas especies protegidas en extinción», denuncia Ben Magec.

Los ecologistas han denunciado los hechos ante la Agencia de Protección del Medio Natural, el Seprona de la Guardia Civil, el Cabildo de Gran Canaria y el Ayuntamiento pero hasta el momento todas sus peticiones han caído en saco roto.

Ben Magec solicita que se abra una «investigación policial urgente en esta zona para capturar a unos individuos sin escrúpulos que, por ganar dinero, extinguen especies de un enorme valor ornitológico».

Las sanciones establecidas por la captura ilegal de estas aves van desde los 4.000 a los 20.000 euros. Además existe la obligación por parte del Seprona de liberar de modo inmediato las aves capturadas así como de incoar un expediente sancionador que puede acabar en detención del individuo que sea sorprendido capturando aves o vendiéndolas en cualquier punto de la Isla.
 

Fuente: Radiotamaraceite.com, 19 de Julio de 2007

 

-China cultiva tomates y sandias "espaciales"

Varias empresas están llevando a cabo en China cultivos experimentales de hortalizas tales como sandías y tomates, cuyas semillas, después de haber pasado cierto tiempo en el espacio, son modificadas por la "radiación cósmica", lo que agranda su tamaño y su rendimiento, señaló hoy el diario "Shanghai Daily".

Una de las mayores firmas dedicadas a su producción, Pujiang Zhengyi Horticulture, situada en las afueras de Shanghai, cosechará cerca de 50 toneladas de "cultivos espaciales" este mes, sembrados a partir de semillas enviadas fuera del planeta en alguna misión espacial china, o de las generaciones derivadas de ellas.

"Los (frutos de los) cultivos espaciales son generalmente mayores que los normales, y el color de algunas especies varía", explicó Shi Zhenggang, subdirector general de la empresa, que plantó en febrero 25 especies vegetales, incluidos tomates, sandías y maíz, cuyas semillas estuvieron a bordo de un satélite recuperado en 2006.

La producción de estos cultivos suele ser un 25 por ciento mayor que la obtenida con semillas convencionales, aseguró Shi, aunque se den fenómenos como el cambio de tonalidad de la piel de las sandías, del verde al amarillo.

La primera cosecha se pondrá a la venta en forma de un surtido de distintos vegetales "espaciales", con precios de entre 100 y 150 yuanes por caja (9,5 y 14,3 euros, 13,2 y 19,8 dólares), y la segunda se espera para septiembre.

Estos cultivos no suponen ningún riesgo para la salud humana, ya que los cambios en las semillas ocurren de manera espontánea cuando entran en contacto con la "radiación cósmica", lo que las diferencia de los alimentos modificados genéticamente, aseguró Feng Zhiyong, miembro de la Academia de Ciencias Agrícolas de Shanghai.

Los cultivos "espaciales" se hicieron famosos en la metrópoli china en febrero pasado, cuando un restaurante local ofreció en su menú de San Valentín una variedad de patatas tropicales chinas, de color violeta, cultivadas a partir de semillas que estuvieron a bordo del segundo vuelo espacial chino tripulado.

Fuente: EFE, 19 de Julio de 2007
 

 

-Un parásito asiático detrás de la desaparición masiva de abejas

Un científico español ha descubierto que el causante de la desaparición masiva de miles de abejas en Europa y América es un parásito común entre las abejas asiáticas.

El culpable de su muerte es, según el científico Mariano Higes, que ha estado estudiando el fenómeno durante años, un parásito miscroscópico conocido como "nosema ceranae".

Para llegar a esta conclusión Higes y sus compañeros del centro de Guadalajara, capital de esta industria en España, han analizado miles de colmenas en diferentes países.

"Empezamos en el año 2000 con la hipótesis de que se debía a algún pesticida, pero pronto descubrimos que no era así", afirmó el científico, que descubrió que los rastros de pesticida sólo se encontraban en una proporción mínima de ejemplares y las abejas también morían en otras áreas situadas a miles de millas de las tierras cultivadas.

Durante mucho tiempo Higes y sus compañeros pensaron que otro parásito llamado "nosema apis", muy típico en las zonas húmedas, era el que estaba matando las abejas, pero pronto descubrieron que los síntomas eran diferentes y que las abejas también morían en zonas secas.

El parásito "nosema ceranae", verdadero culpable de la muerte de las abejas, puede matar a las abejas europeas en cuestión de días. Sin embargo, se ha descubierto que las asiáticas son mucho menos vulnerables a este parásito, que, según Higes, ha infectado al 50% de las colmenas de España, país que, con sus 2,3 millones de colmenas, alberga un cuarto del total de las colmenas de Europa.

Fuente: ABC Periódico Electrónico S.A,  19 de Julio de 2007


 

-Medidas concretas para cumplir Kioto

El Gobierno aprobará el próximo viernes, en un Consejo de Ministros monográfico sobre cambio climático, la Estrategia Española de Cambio Climático y Energía Limpia, que contiene un paquete de 170 medidas concretas y urgentes, con un calendario claro y recursos, para cumplir el Protocolo de Kioto.

Así lo anunció el pasado mes de junio el presidente del Gobierno, José Luis Rodríguez Zapatero, quien subrayó el compromiso del Ejecutivo para que España esté "en el liderazgo" de la lucha contra el cambio climático y a favor del uso de energías renovables. Como parte "esencial" del paquete de medidas urgentes, Zapatero destacó un plan de ahorro y eficiencia energética para el periodo 2008-2012, que incluye un plan específico para los edificios públicos.

El pasado viernes, el Consejo de Ministros avanzó ya una parte del mismo al adoptar un acuerdo por el que se limita a 24 grados centígrados la temperatura mínima durante todo el verano -desde el 1 de junio hasta el 30 de septiembre-, en todos los edificios de la Administración General del Estado, con el que el Gobierno pretende "dar ejemplo".

La vicepresidenta primera del Gobierno, María Teresa Fernández de la Vega, señaló entonces que cuando el plan se ponga en marcha en su totalidad el ahorro de energía en los edificios públicos se situará en torno a un 30%.

La Estrategia de cambio climático, que fue presentada públicamente el pasado mes de febrero y sometida posteriormente a información pública, define once áreas de actuación, con "especial dedicación" a los denominados sectores difusos: transporte, residencial, comercial, institucional, agrícola y servicios, explicó el jefe del Ejecutivo.

Así, en el sector del transporte, se aprobará una norma básica sobre movilidad sostenible, se potenciará el transporte ferroviario de mercancías y se crearán "autopistas del mar".

Para el transporte privado, se incluyen medidas de carácter fiscal en relación con la contaminación de los vehículos, siguiendo el criterio de eximir a los coches "más limpios" de pagar el impuesto de circulación.

Las medidas incluyen el establecimiento de requisitos de eficiencia energética en el alumbrado público y en los edificios, para lo cual se sustituirán progresivamente las calderas domésticas de carbón hasta su completa desaparición en 2012, y se promocionarán las energías renovables.

En el sector agrario y ganadero, el Ejecutivo plantea la reducción de los abonos minerales y fitosanitarios y los fertilizantes nitrogenados y aumentar la superficie destinada a cultivos energéticos y favorecer la producción ecológica.

Se persigue también que los "biocarburantes" supongan el 10% del combustible que consume el transporte en 2020 y que las energías renovables se sitúen en una situación competitiva frente a los combustibles fósiles en 2010.

El Consejo de Ministros aprobará también el viernes un Real Decreto que modifica el que aprobó el Plan Nacional de Asignación de derechos de emisión de gases de efecto invernadero para el periodo 2008-2012, y que se ajusta a las exigencias de la Unión Europea.

El pasado 26 de febrero, la Comisión Europea aprobó el Plan español, con la condición de que se cumpliesen unos objetivos más ambiciosos para reducir las emanaciones de CO2 en 422.271 (0,28% del total propuesto).

Una vez aprobada esa norma, el lunes siguiente se hará público el plan de asignación individualizado por instalación, según fuentes del
Ministerio de Medio Ambiente.

Fuente: EFE, 19 de Julio de 2007

 

 

-Satélites de observación de rayos X descubren la mayor colisión del universo

Los telescopios espaciales de rayos X XXM-Newton y Chandra han capturado la imagen de dos cluster dentro de otro gigante (Abell 576).. Este hallazgo puede hacer creer que los estas acumulaciones de estrellas colisionan más rápido que lo que se pensaba.

El choque entre galaxias deja un rastro de gas caliente que se extiende a lo largo del espacio. Reconocer señales parecidas en Clusters no es tan fácil.

En esta ocasión Renato Dupke junto a sus compañeros de la universidad de Michigan intentaron dar con el rastro de la colisión de clusters utilizaron los observatorios espaciales sabiendo que el rastro de gas dejado no es uniforme. En este caso ellos vieron que existía u na diferencia de velocidad en el gas según la zona que se mirara. La explicación para esta diferencia de velocidad, se puede deber a que los clusters están alineados, uno está detrás del otro, desde el punto de vista que tienen los telescopios. Este tipo de disposición se debe a que uno de los clusters atraviesa el otro como si fuera una bala, de ahí el nombre de cluster bala.

Nubes frías de gas se desprenden alrededor de los clusters. Pertenecen al núcleo de estos grupos de estrellas.

Los datos dan como resultado que la velocidad de colisión ha sido de 3300 Km/s, una velocidad que para algunos modelos matemáticos es imposible que puedan alcanzar dos clusters.

Este tipo de colisiones es muy rara. Entre una cada mil y una cada cien clusters. El gas desprendido en estas colisiones pasa desapercibido en las estimaciones que se hacen de la masa de los clusters, lo que da lugar a masas menores de las reales. Esto es importante saberlo ya que la cantidad de masa que tienen los clusters determina los cálculos de las estimaciones que determinan los parámetros cosmológicos que rigen la expansión del universo.

Más información: http://www.esa.int/esaSC/SEMHOPNSP3F_index_1.html#subhead2

Fuente: ESA, 18 de Julio de 2007 

 

 

-Julio Verne va al espacio

La Agencia Europea del Espacio (ESA, por sus siglas en inglés) ya comenzó el desplazamiento del aparato por tierra hasta el puerto de Rotterdam, de donde partirá en barco hasta América del Sur.

El Julio Verne es un Vehículo de Transporte Automático (ATV, por sus siglas en inglés) que reemplezará a los clásicos cargueros rusos Progreso en el abastecimieto de la Estación Espacial Internacional (EEI).

Nuevo ATV (a la derecha), viejo carguero ruso Progreso (a la izquierda)

En enero saldrá al espacio desde la base guyanesa de Kurú con una carga de hasta siete toneladas y media.

"Novedad"

El vehículo, que ha sido sometido a pruebas durante tres años, se destinará a transportar hacia la EEI tanto alimentos, aire y agua como combustible, equipos científicos y piezas de repuesto. El nuevo ATV tiene 10,3 metros de largo y 4,5 de diámetro y consta de un módulo de propulsión y otro de carga.  Es cilíndrico, pesa 20,3 toneladas y está revestido de un material aislante para resistir choques con meteoritos pequeños.

El Julio Verne "constituye una novedad en muchos aspectos", declaró a la BBC Daniel Sacotte, director de Vuelos Tripulados, Microgravedad y Exploración de la ESA.

"Hemos desarrollado muchas nuevas tecnologías en este ATV, y esto nos permitirá aplicarlas en otros campos en la exploración espacial en el futuro", agregó.

 

 

-La separación dramática de Gran Bretaña

Una inundación catastrófica separó a las islas británicas del continente europeo hace 200.000 años, revela un estudio científico realizado con el uso de un sonar en el Canal de la Mancha.

Las imágenes revelan profundas marcas en el lecho marino del canal, que aparentemente se produjeron por una descarga masiva de agua.

Los científicos que participaron en el estudio dijeron a la revista Nature que el torrente probablemente vino de un lago gigante en lo que ahora es el Mar del Norte. Los geólogos creen que algún evento, quizás un terremoto, provocó una abertura en el borde del lago cerca del estrecho de Dover. El doctor Sanjeev Gupta y sus colegas del Imperial College de Londres afirman que la descarga debe haber sido una de las inundaciones más importantes en la historia reciente de la Tierra y ofrece una teoría que explica la formación insular de Gran Bretaña. "Este evento o serie de eventos que causaron la ruptura cambió el curso de la historia de las islas británicas", comentó el doctor Gupta a la BBC.

Una enorme inundación creó lo que hoy es Gran Bretaña

"Si no hubiera ocurrido, Gran Bretaña habría sido siempre una península de Europa, no habría habido necesidad de hacer un túnel bajo el Canal de la Mancha y se podría caminar entre Francia y Gran Bretaña como lo hacían los humanos que vivían antes de que ocurriera dicho evento".

El sismo

El concepto de una gran inundación proviene de la forma en que los científicos entienden la edad de hielo en el norte de Europa. Se cree que hace cientos de miles de años, cuando las capas de hielo descendieron de Escocia y Escandinavia, había un istmo que comunicaba a Gran Bretaña con Europa. Este acantilado se elevaba tal vez unos 30 metros sobre el nivel que tiene el mar de nuestros días en el Canal de la Mancha.

Los paleoinvestigadores piensan que limitaba en el noreste a un gran lago lleno de aguas glaciales alimentado por los ríos Támesis y Rin.

Entonces -aunque los científicos no están seguros de la fecha precisa- sucedió algo que fracturó el istmo conocido como risco Weald-Artois.

"Posiblemente sólo fue la acumulación de agua. Tal vez algo provocó la fractura; ahora se sabe que hay actividad sísmica menor en la zona de Kent", explicó la doctora Jenny Collier del Imperial College.

Imagen hecha con sonar

Ríos desviados

De cualquier manera, cuando se fracturó el risco, la descarga de agua debió haber sido espectacular. El estudio del Imperial College y la Oficina Hidrográfica del Reino Unido usó ondas de sonar de alta resolución para hacer el mapa del mundo sumergido en la cuenca del Canal de la Mancha.

Las imágenes muestran profundas grietas y relieves que marcan los accidentes geológicos creados por grandes cuerpos de agua que se movían rápidamente.

Se cree que el clímax de la enorme inundación pudo haber durado varios meses, descargando aproximadamente un millón de metros cúbicos de agua por segundo.

Y a juzgar por la forma de algunos cortes, es probable que la inundación haya tenido al menos dos fases.

"Francamente me sorprendió", dijo la doctora Collier. "He trabajado en muchos lugares exóticos del mundo, entre ellos algunos riscos submarinos que tienen formas espectaculares, y fue una enorme sorpresa encontrar algo con implicaciones tan grandes en la costa de la isla de Wight. Fue completamente inesperado".

Los investigadores dijeron a Nature que la fractura del risco y la inundación que eso provocó sirvieron para reorganizar el drenaje de los ríos en el noroeste de Europa, y abrieron nuevos cauces al Támesis y al Rin.

Relleno fósil

La teoría de la enorme inundación ya tiene 30 años, pero lo que ha revelado el sonar representa la más clara historia del caso. Estudios previos de restos de animales prehistóricos del último medio millón de años han revelado el papel crucial del Canal de la Mancha en el curso de la historia natural de Gran Bretaña. El Canal ha actuado como un filtro que permitió el paso de algunos animales de tierra firme e impidió el de otros.

Y aun cuando el agua estaba congelada en capas gigantes de hielo y los niveles del mar se desplomaron, los ríos Támesis y Rin habrían arrojado el producto de los deshielos en un sistema fluvial que transcurría por el Canal. Los científicos pueden ver esta influencia en los fósiles de períodos claves de la historia.

Así lo dice el profesor Chris Stringer, director del proyecto de Antiguos Asentamientos Humanos de Gran Bretaña (Ahob, por sus siglas en inglés), que trata de descubrir los detalles de la prehistoria de las islas británicas.

"El tiempo y el método de formación del Canal de la Mancha han sido tema de una larga discusión porque, después de todo, hicieron de Grean Bretaña lo que es ahora", dijo el profesor Stringer.

"Las pruebas que presenta este estudio son espectaculares. Explican y refuerzan la imagen que Ahob lleva años trabajando para explicar la creciente separación de Gran Bretaña y Europa desde hace 400.000 años".

Fuente: BBC Mundo, 18 de Julio de 2007

 

 

-Entrevista  a Robert Aymar sobre el CERN

El físico francés Robert Aymar se hizo cargo, en 2004, de la dirección del Laboratorio Europeo de Física de Partículas (CERN, junto a Ginebra), con el cometido de culminar la construcción del nuevo gran acelerador, el LHC, instalado allí en un túnel de 27 kilómetros. Ahora tiene ya a la vista, dentro de unos meses, la puesta en marcha de esa colosal máquina científica, dedicada a explorar cómo funciona el universo en sus componentes fundamentales.
 

Aymar tenía ya mucha experiencia en la dirección de grandes proyectos e instituciones científicas -incluido el programa del reactor internacional de fusión Iter-, cuando asumió, hace casi cuatro años, la dirección, del CERN. Hasta entonces se había dedicado a la física del plasma y la fusión nuclear, pero en el mundo de las partículas elementales se sintió cómodo desde el principio porque, dice, "las áreas de física pueden ser diferentes pero los métodos son los mismos: la curiosidad por descubrir algo nuevo, la calidad de los experimentos, el análisis en profundidad, la contrastación de los resultados... la investigación fundamental es similar en cualquier campo". Aymar, 71 años, en su despacho en el CERN, presenta el panorama de lo que queda por hacer hasta lograr los primeros choques de partículas en el LHC, el año que viene, y las perspectivas de avanzar en el conocimiento del microcosmos y del macrocosmos.

Pregunta. Se acerca la hora de estrenar el LHC. ¿Cuál es el calendario?
Respuesta. El LHC se empezó a diseñar en los años ochenta, y en 1996 se aprobó su construcción. Ahora está casi listo. El plan de trabajo es asegurar que podemos empezar a obtener datos científicos a mediados del año que viene, para que a finales haya resultados significativos. Eso significa que todos los sistemas tienen que funcionar correctamente, toda esta enorme cantidad de equipos, máquinas, detectores, cables, aceleradores, de imanes, etcétera.

P. ¿El encendido es un proceso largo?
R. Si, y podemos decir que ya estamos encendiendo. De hecho, parte del acelerador está ya en su estatus operacional. Pero tenemos que hacerlo con todos los sectores, de manera que en la próxima primavera se crearán ya los haces de partículas en la máquina para hacerlas chocar en condiciones estables.

P. Este calendario supone un cambio respecto al de hace unos meses, que contaba con un ensayo el próximo noviembre.
R. Si, teníamos previsto una fase de funcionamiento de ingeniería en noviembre, aunque sin toma de datos científicos aún. Pero hemos suspendido ese paso y vamos directamente al objetivo fundamental de empezar a hacer física con el LHC a mediados de 2008. Esto se debe a que hemos tenido problemas con unos grandes imanes defectuosos y hemos preferido cancelar ese encendido de ingeniería para arreglarlos, sin aplazar el inicio de la operación científica del acelerador.

P. ¿Cómo explicaría a los no especialistas qué se pretende descubrir con esta gran máquina?
R. Aquí hacemos investigación fundamental. Nos planteamos preguntas esenciales que, sin experimentos como el LHC, no podríamos responder. Sabemos que estamos hechos de materia, y conocemos sus ladrillos fundamentales: los átomos, los núcleos de los átomos, las partículas que los forman... También conocemos las fuerzas de interacción de esas partículas. Son los componentes de la materia, de lo que están hechas las galaxias, las estrellas, los planetas y nosotros mismos. Pero se nos escapan cosas. Por ejemplo, en las galaxias hay algo que no sabemos qué es pero cuyo efecto observamos, y que supone el 25% de la masa del universo. Queremos averiguar de qué se trata esa materia oscura; hay muchas teorías, pero sólo los resultados experimentales nos pueden dar respuestas correctas.

P. ¿Por qué necesitan unos experimentos tan complejos?
R. Este es el mayor experimento del mundo. La cuestión es que necesitamos alcanzar altas energías en las colisiones de partículas -con el LHC superamos casi en un orden de magnitud a los aceleradores previos-. Sencillamente aplicamos la ley de Einstein: la energía se transforma en masa (las partículas) y ésta, en energía de nuevo. En las colisiones a energía suficientemente alta se producirán nuevas partículas, incluida, tal vez, una especial que estamos buscando. El problema es que no entendemos el proceso que genera la masa de todas las cosas, y esa partícula que buscamos, el bosón de Higgs, puede ayudarnos a explicarlo.

P. ¿Qué ha sido más difícil en el proyecto del LHC?
R. Para hacer un acelerador mucho más potente que los anteriores hay que innovar mucho. La innovación en el LHC es muy grande y había que lograrlo con la solución más barata. La receta del éxito del proyecto es hacer esta máquina enormemente compleja con una cantidad de dinero, que tampoco es tan grande: unos 4.000 millones de euros.

P. ¿Y qué significa para la ciencia y la tecnología europeas?
R. Hacemos física fundamental, pero necesitamos desarrollar instrumentación, computación, redes informáticas... todo esto no está disponible en el mercado, así que desarrollamos las herramientas que necesitamos. Y hacemos mucha transferencia de tecnología, para que toda esa innovación llegue a la sociedad. El ejemplo más famoso es la web, que se descubrió aquí, en el CERN, en 1990, porque los físicos necesitaban una red de ordenadores para trabajar juntos. Otro ejemplo: transferimos a la medicina, para diagnóstico hospitalario y tratamientos, las tecnologías que desarrollamos.

P. ¿Qué beneficio saca un país como España de su participación en el LHC?
R. España no es diferente de los otros países europeos y el beneficio de su participación es obvio desde el punto de vista científico y de entrenamiento con los físicos del más alto nivel. Pero para la industria es muy importante también. Tenga en cuenta que encargamos a las empresas cosas mucho más difíciles que lo que pide un cliente estándar, con un control de calidad y una precisión que no son normales.

UNA MÁQUINA PARA FUNCIONAR 20 AÑOS

El LHC está formado por 1.650 grandes imanes, de varias toneladas de peso cada uno, alineados hasta formar un anillo de 27 kilómetros de longitud. Está instalado en el túnel que el Laboratorio Europeo de Partículas (CERN), excavó hace un par de décadas, a cien metros de profundidad en la frontera franco-suiza, para su anterior acelerador, el LCC.

Los imanes guían y enfocan los haces de partículas para que éstas choquen en el centro de cuatro grandes detectores, y son equipos superconductores que funcionan a 271 grados centígrados bajo cero, enfriados por helio líquido. No hay ningún acelerador en el mundo que logre la altísima energía en las colisiones de partículas que se alcanzarán en el LHC. Está previsto que el acelerador se actualice y mejore en 2012 y que funcione en total unos 20 años.

Fuente: El País, 18 de Julio de 2007

 


 

-El laboratorio Columbus viajará a la ISS a finales del 2007

Hace algo más de medio siglo los viajes de Cristóbal Colón duraban años; hoy en día el 'Columbus' tardará apenas dos días llegar a su punto de destino: la Estación Espacial Internacional. El laboratorio espacial diseñado y fabricado por la Agencia Espacial Europea viajará, por fin, rumbo al espacio en diciembre de 2007 a bordo del transbordador 'Atlantis'. Desde su instalación, los astronautas a bordo del complejo espacial dispondrán de un 'amplio' espacio para hacer experimentos.
 

La historia del laboratorio 'Columbus' está marcada por los continuos retrasos. Su primera fecha de lanzamiento fue 2002, pero el accidente del transbordador 'Columbia' obligó a trastocar los planes y en los últimos años ha sido cambiado de fecha una y otra vez. Pero ahora parece que ya no hay marcha atrás.

El laboratorio fabricado por la Agencia Europea del Espacio (ESA) lleva en Florida desde mayo de 2006, cuando salió de la fábrica de Toulouse, y desde entonces espera en un hangar, donde los ingenieros de ambas agencias espaciales han ido colocando diversas piezas, retocando secciones y terminando su instalación final. A principios de este año, los técnicos ya instalaron el hardware final en el sistema y en las últimas semanas los ingenieros han instalado los anclajes que aseguran el laboratorio a la bodega del transbordador. El siguiente paso será instalar los paneles que protegerán el laboratorio de potenciales daños por impacto de meteoritos.

"Una vez que 'Columbus' está operativo y funcionando en el espacio, tendremos una presencia permanente a bordo de la Estación Espacial. Será como tener nuestra propia parcela, y cuando tengamos operativo el vehículo espacial Julio Verne podremos cumplir plenamente nuestros objetivos de ser parte íntegra de la Estación, compartiendo recursos con los otros participantes en el proceso, en lugar de alquilándoles espacio cada vez que vamos", señaló Bernardo Pati, responsable de la misión Columbus.

El laboratorio, de 6,5 metros de largo por 4,5 metros de ancho y forma cilíndrica, permitirá que hasta tres astronautas puedan trabajar en mangas de camisa en agradables condiciones. En sus paredes se instalarán 16 estantes con experimentos, compartimentos y otros equipos.

Dentro del laboratorio habrá una zona para experimentos de carácter biológico, el Biolab, donde se podrán hacer pruebas con tejidos celulares, pequeñas plantas y animales; un laboratorio de física de fluidos para estudiar el comportamiento de los líquidos en condiciones de ingravidez, equipos para analizar las propiedades de los metales y módulos para ver los efectos de la microgravedad en el cuerpo humano.
 

Fuente: elmundo.es,  18 de Julio de 2007

 

 

-Earth attack: los terrícolas hacia la invasión de Marte

Dentro de dos meses viajarán al espacio unos ejemplares 'selectos' de líquenes de las montañas españolas para participar en 'Lithopanspermia', un experimento con el que la Agencia Espacial Europea (ESA) quiere probar si los organismos vivos pueden viajar de un planeta a otro 'a bordo' de meteoritos.

Según explicó la investigadora del Instituto Nacional de Técnica Aeroespacial (INTA) y coordinadora del proyecto, Rosa de la Torre, el objetivo es testar experimentalmente la hipótesis de la 'Lithopanspermia', que defiende que los organismos vivos podrían transferirse de un planeta a otro a bordo de meteoritos.

Para ello se han diseñado dos experimentos a desarrollar, junto a los de otros investigadores europeos, en el satélite Foton-M3, una nave de la ESA que será lanzada desde la base rusa de Baikonur el próximo 14 de septiembre.

El primer experimento se hará en la cápsula Biopan-6, una especie de 'sartén' que expondrá durante 10 días a las muestras al ambiente espacial, para luego poder estudiar su resistencia a la radiación y a otras condiciones extremas del espacio.       Líquenes que viajarán al espacio

El segundo ensayo se localizará en el dispositivo 'Stone', donde los líquenes están protegidos por un 'pequeño escudo' para simular las condiciones en las que podrían viajar los seres vivos dentro de un meteorito, y comprobar cómo sería su captura y aterrizaje sobre otro planeta.

Sistemas biológicos resistentes

Los líquenes, una asociación entre un alga y un hongo, se han seleccionado como modelo de sistema biológico por su gran resistencia, y las muestras se han recogido en la Sierra de Gredos y otras partes del Sistema Central, en Sierra Nevada, en los Alpes Suizos, en el Reino Unido y en el Desierto de Atacama (Chile).

De la Torre indicó que este proyecto es la continuación de otros estudios anteriores en el que vienen participando numerosos investigadores, formando un equipo "auténticamente multidisciplinar".

Así, por ejemplo, el profesor Leopoldo García Sancho, de la Universidad Complutense de Madrid (UCM), realizará las medidas fisiológicas; la doctora Carmen Ascaso, del CSIC, y Jacek Wierzchos, de la Universidad de Lleida, los estudios de microscopía electrónica; y las simulaciones 'post-vuelo' correrán a cargo de Gerda Horneck, del Instituto de Medicina Aeroespacial Alemán.

También participan científicos del Centro de Astrobiología de Madrid, de la Facultad de Geología de la UCM, de la Universidad de Düsseldorf, en Alemania, y de la Open University, en Inglaterra.

El proyecto 'Lithopanspermia' implica un relativo corto periodo de exposición de las muestras, pero según indicó De la Torre ya se ha empezado a preparar otro experimento complementario donde los líquenes permanecerán año y medio expuestos sobre la Estación Espacial Internacional.

Se trata del proyecto 'Life', para el que ya se han recogido las muestras también en el Sistema Central, y se espera que sean lanzadas a finales de este año desde Cabo Cañaveral, en Estados Unidos, para permanecer sobre la plataforma Expose en la zona americana de la estación.

Parte de las muestras se expondrán directamente a la intemperie espacial y otra parte, mediante unos filtros, se instalarán en condiciones semejantes a las del planeta Marte.

Fuente: elmundo.es, 17 de Julio de 2007

 

 

-Hallan la dentadura completa de un Austrolopithecus anterior a "Lucy"

La región de Afar, en Etiopia, sigue proporcionando pequeños tesoros. El último es una dentadura de Autrolopithecus.

El interés del descubrimiento estriba en que podría ser el "eslabón" entre dos especies: el Austrolopithecus afarensis, al que pertenecía la famosa 'Lucy', y su posible predecesor el anamensis.

La dentadura de los Austrolopitheci anamensis, que vivieron entre 4,2 y 3,9 millones de años, era estrecha y con caninos grandes. En cambio, los afarensis, que vivieron entre 3,6 y 3 millones de años, tendrían dientes más planos y adecuados para moler comida. La dentadura hallada, que se ha encontrado completa, podría pertenecer a una especie que enlazara las dos anteriores.

Fuente: elmundo.es, 17 de Julio de 2007

 

 

-Una nueva tecnología permite navegar en internet a una velocidad 40000 veces más rápida que la velocidad media en España

En España el común de los ciudadanos navega con una velocidad de 1 mega por segundo, pero ya hay quien cuenta con una conexión de 40 Gbps, 40.000 veces más rápida. La afortunada es una anciana de 75 años que en Suecia disfruta de la que es la conexión doméstica más rápida de la tierra y con la que se puede bajar los contenidos que caben en un DVD en apenas dos segundos.
 

Sigbritt Lthberg, natural de Karlstad, en el centro de Suecia, no es una anciana atípica que se mueva entre microchips y CPUs, más bien todo lo contrario porque utilizó su primer ordenador con 75 años para ser la primera y afortunada persona que navega a 40 Gbps con una red instalada en una casa. La ha convertido en pionera del ciberespacio su hijo Peter, un gurú de Internet que instaló la conexión para dar a conocer una nueva tecnología de su compañía.

Dicha tecnología trabaja con cable de fibra óptica y emplea una nueva técnica de modulación que permite transferir datos directamente entre dos routers distanciados hasta por 2 mil kilómetros, sin el uso de transpondedores intermedios. El superior del original informático de Cisco Systems en Suecia, Hafsteinn Jonsson consideró que la iniciativa de Peter "es más que una demostración". "Como trabajadores de la red estamos tratando de persuadir a los operadores de Internet de que inviertan en conexiones más rápidas y Peter Lthberg deseaba mostrar cómo puede construirse una red de bajo costo y alta capacidad", indicó en declaraciones a la publicación sueca The Local, recogidas por OTR/Press.

LO MÁS COMPLICADO, INSTALAR WINDOWS

Sin duda al empleado de Cisco le salió bien la jugada de querer darle un buen escaparate porque su iniciativa ha conseguido que la noticia de una anciana con 40 Gbps de ancho de banda, que la han hecho ganarse el título de "anciana más rápida del mundo", den la vuelta al mundo. "Quiero mostrar que hay métodos más allá de las formas anticuadas como los cables de cobre o las ondas de radio, que no tienen las posibilidades que sí tiene la fibra", apuntó él a The Local.

En cuanto a lo complicado de la tecnología, Jonsson todavía tuvo tiempo para bromear en sus palabras al rotativo. "La parte más difícil de todo el proyecto fue instalar Windows en la PC de Sigbritt", dijo. Con esta conexión, una persona podría ver a la vez 1. 500 canales vía IPTV (televisión por Internet) o descargar el contenido de un DVD en apenas 2 segundos.

Fuente: ABC Periódico Electrónico S.A., 16 de Julio de 2007

 

-La primera reserva marina de Galicia

Hace ocho años Juan Manuel Gómez accedió a la presidencia del pósito de Lira y propuso un reserva marina para recuperar varias especies. Muchos se rieron o manifestaron abierto rechazo. Entonces la bajura aún defendía bien el oficio con algunos pescados y mariscos. Cuatro años después, marineros que se habían opuesto, pidieron impulsar el proyecto de inmediato. Empezaba a fallar el pulpo, el centollo, el bogavante, y hasta las abundantes maragotas y pintos bajaron en tamaño y número.

Ahora, a punto de entrar en funcionamiento la primera reserva marina de interés pesquero del litoral atlántico peninsular, en Os Miñarzos, un trozo de costa carnotana con dos lugares de reserva integral, ya no se puede navegar, fondear o pescar. Sus fondos guardan mariscos, moluscos y peces que, de crecer mucho y reproducirse bien, aumentarán sus poblaciones y devolverán la esperanza a la pesca artesanal.

Reserva gallega

«Aos meus 58 anos, eu xa non coñecín a langosta nos nosos mares ?explica el patrón mayor?, e resulta urxente coidar o que aínda temos nunha costa moi rica na que o centolo, a nécora, o polbo ou o lumbrigante están indo a menos, temos que mentalizar á xente e poñer os medios».

Se impone vigilar la contaminación y reconducir prácticas del pescar hoy «todo o que veña», para no poder hacerlo mañana. En Lira señalan que «estamos ben asesorados pola Universidade da Coruña e pensamos que vai dar resultado». Juan Freire Botana es uno de los científicos implicados. En su opinión un punto clave es que la de Lira es la primera de España promovida por los propios pescadores, hasta ahora fueron la Administración o los ecologistas quienes las impulsaron, integrando después a los marineros.

La conservación de los recursos es una necesidad para todos y en Lira unas diez personas de la zona vigilarán permanentemente por tierra y a flote unas 1.200 hectáreas. Otras reservas del Mediterráneo contrataron dicho servicio con Tragsa y aquí el pósito intentará que sea la Xunta quien lo organice.

Los impulsores de Os Miñarzos visitaron antes reservas como la de la isla de Tabarca, en Alicante, puesta en marcha en 1986. En ocho años, según Juan Manuel Gómez, los marineros consiguieron incrementar sus capturas un 85%, porcentaje que lograron en cuatro años los mallorquines de Forners. También en la reserva de la isla de Lundy, en Gran Bretaña, donde acotaron por dos años un área marina para centollo y lubrigante, recuperaron los stocks en cantidades similares. Representantes del condado de Devon, en aquel lugar, conocieron recientemente en Lira el proceso legal de la iniciativa. Los buenos resultados de capturas en lugares distintos son un importante estímulo para demostrar que el mar, si se cuida, es el lugar ideal para criar los peces, tan bueno al menos como los tanques de tierra.

En Lira soltaron 3.000 ejemplares de bogavante y van repoblar con otros tantos en breve. La colaboración para el control de capturas de los mismos, al igual que ocurre con los rodaballos marcados que se van a otros arenales, es fundamental para gestionar los recursos. Eso y poner coto a los incontrolados de la pesca submarina. Y no seguir pescando nécora o pulpo sin topes. «De pouco vale vedar o polbo dous meses se logo pescamos sen control ?argumenta el patrón mayor carnotano?; igual que acordaron os arrastreiros cos topes de lirio e xurelo, nós temos que respectar os 40 quilos por tripulante e día para non tirar os prezos do polbo, que vendemos agora en lonxa a 5,50 euros e está a dez na praza».

Una buena gestión ?no inundar el mercado de centolla en Navidad, en lugar de vender en más épocas ? puede revalorizar y hacer sostenible la pesca de bajura. En Lira son 31 barcos artesanales y sólo seis alcanzan los 15 metros de eslora. Destaca la rapidez de puesta en marcha de su proyecto pues la propuesta del británico de Lundy data de 1971 y no se aprobó hasta 1986. Sortear las reticencias del numeroso y a menudo cauteloso sector pesquero también es un hito. Es la primera reserva del norte peninsular cuando ya hay otras nueve en el Mediterráneo y Canarias: la reserva Marina Masía Blanca (1999), islas Columbretes en la comunidad Valenciana (1990), la referida de Tabarca, Cabo de Palos e islas Hormigas en Murcia (1995), isla de Alborán en Andalucía (1997), isla de la Graciosa e islote del Norte de Lanzarote (1995), Mar de las Calmas y Marina del entorno de Punta (1996) y la de la isla de La Palma (2001).

Fuente: La Voz de Galicia, 15 de Julio de 2007

 

 

-Otra pista genética para la diabetes de tipo 1

Un estudio publicado en 'Nature' ha desvelado una nueva pista genética de la diabetes tipo 1, también llamada insulino-dependiente o juvenil (sobreviene en su mayoría antes de los 30 años) y que afecta al 10 y 15% de las personas que han diagnosticado la enfermedad.
 

Científicos estadounidenses y canadienses han identificado un gen implicado en el desarrollo de la diabetes de tipo 1, lo que puede allanar el camino para prevenir esa dolencia que afecta sobre todo a niños y adolescentes.

El descubrimiento se realizó durante un estudio genético llevado a cabo a más de 500 pacientes que padecían esa dolencia, según relatan en el último número de la revista británica
'Nature Genetics'.

Durante el estudio, el doctor Hakon Hakonarson, del
Hospital Infantil de Filadelfia (EE.UU.) y sus colegas, confirmaron el papel de varios genes ya identificados como desencadenantes del riesgo de sufrir diabetes de tipo 1.

Pero además observaron un vínculo entre esa dolencia y un gen llamado KIAA0350, cuya función se desconoce, por lo que un conocimiento mayor del mismo y de otros factores genéticos puede permitir a los médicos predecir los niños que van a sufrir la enfermedad.

EXCESO DE GLUCOSA EN LA SANGRE

La diabetes tipo 1 es una enfermedad autoinmune, es decir que es el propio organismo en el que ataca, en esta ocasión, a la células que fabrican insulina. Si ésta los tejidos del cuerpo no pueden asimilar corectamente el azúcar y se acumula en la sangre en una cantidad excesiva.

La insulina es una hormona que se genera en el páncreas cuya función primordial es permitir que las células de nuestro organismo obtengan la glucosa que circula junto a otros nutrientes por la sangre. Cuando aumenta la presencia de glucosa en la sangre, el páncreas incrementa su actividad para producir más insulina y favorecer así la captación de la glucosa por parte de las células.

Sin embargo, en algunas ocasiones, este proceso no se realiza adecuadamente y, o bien nuestro organismo no segrega la suficiente insulina, o bien esta hormona no es identificada correctamente por nuestras células, por lo que su acción no es efectiva.

En estos casos el nivel de glucosa en la sangre aumenta y aparece la enfermedad que conocemos como diabetes. El tipo 1 suele tener un origen genético y normalmente se desarrolla en la infancia o en la adolescencia. Se produce como resultado de una lesión del páncreas que provoca la destrucción de las células que producen insulina. La generación de esta hormona en estas personas es, por tanto, nula y se hace necesario su administración externa para evitar un exceso de glucosa en la sangre.

Fuente: elmundo.es, 16 de Julio de 2007

 

 

-El Gran Telescopio Canarias ve su primera luz

La Palma/ El Gran Telescopio CANARIAS (GTC) está listo para su Primera Luz, que tendrá lugar esta noche a las 23:00 h (hora canaria, las doce en la Península). Será la primera vez que este telescopio óptico-infrarrojo reciba la radiación de los objetos astronómicos. El acto será presidido por el Príncipe de Asturias, Astrofísico de Honor del Instituto Astrofísico de Canarias (IAC), y contará con la presencia del Presidente del Gobierno de Canarias, don Paulino Rivero, la Ministra de Educación y Ciencia, Mercedes Cabrera, y con el Secretario de Estado, Miguel Ángel Quintanilla. Podrá seguirse en directo por Internet en la dirección www.telefonica.es/gtcprimeraluz.
 
En su primera ojeada al Universo, el GTC apuntará a la Estrella Polar con 12 de los 36 segmentos que conformarán un espejo primario con una superficie equivalente a la de un único espejo circular de 10,4 m de diámetro, lo que lo convierte en el mayor del mundo. El Dr. Pedro Álvarez, director de GRANTECAN, la empresa encargada del proyecto, explica que "la superficie reflectante del telescopio son 100 g de aluminio que requieren una estructura de 400 toneladas para que los espejos se mantengan en la forma y posición correctas".

En palabras del Prof. Francisco Sánchez, director del IAC, “tres eran las metas perseguidas: la primera, dotar a la comunidad astronómica española de un instrumento propio muy competitivo; la segunda, mantener los observatorios de Canarias entre los primeros del mundo; y la tercera, estimular a la industria española hacia la tecnología avanzada.”

A la Primera Luz asistirán personalidades del mundo científico, políticos y representantes de las instituciones de Estados Unidos y México que participan en el GTC. Entre ellos se encontrará Brian May, el legendario guitarrista y compositor del grupo Queen, que realizó parte de su doctorado en Astrofísica en el IAC.

Llegar a los confines del Universo

Los objetos celestes más distantes y débiles del Universo estarán al alcance del GTC gracias a sus observaciones en luz visible e infrarroja. Con él será posible captar el nacimiento de nuevas estrellas, estudiar más a fondo las características de los agujeros negros o descifrar los componentes químicos generados tras el Big Bang. Uno de sus objetivos es hallar planetas similares al nuestro en otros sistemas estelares.

El GTC no se diferencia de los demás telescopios sólo por su gran abertura, sino también por los instrumentos científicos con los que está equipado. Los primeros en funcionar serán OSIRIS y CanariCam y, más adelante, se instalarán los instrumentos de segunda generación: EMIR, FRIDA y CIRCE.

Tras la Primera Luz, la fase de ajustes y calibraciones, tanto del telescopio como de sus instrumentos científicos, se prolongará aproximadamente un año. A partir de este momento estará abierto a la comunidad científica, que comenzará a hacer ciencia de vanguardia mediante el uso regular del telescopio.

El GTC supone un paso más en el afán del IAC por facilitar a nuestra comunidad astrofísica las herramientas para realizar ciencia competitiva y, paralelamente, impulsar el desarrollo tecnológico e industrial del país. Forma parte del Mapa de Infraestructuras Científicas y Tecnológicas Singulares (ICTS) y en su diseño, construcción y montaje han intervenido más de mil personas y un centenar de empresas. España, México y los Estados Unidos han colaborado para que el telescopio sea una realidad.
Video 1, 2
Entrevista a Brian May sobre el GTC
 
Datos:
Estructura del telescopio: acero de carbono
Diámetro: 13,59 metros
Altura: 25,5 metros
Masa móvil: 350 toneladas
Superficie: 5000 m2
Funcionamiento: tres espejos concentran la luz incidente
 

 
Fuente: Canarias24horas.com, 13 de Julio de 2007

 

 

-Descubren como suprimir la memoria

Investigadores de la Universidad de Colorado en Boulder (Estados Unidos) han descubierto un mecanismo de supresión de la memoria activo en el cerebro humano que funciona en dos fases. Las conclusiones de su trabajo se publican esta semana en la revista 'Science'.

Los investigadores, dirigidos por E. Depue, utilizaron imágenes de resonancia magnética funcional (IRMf) para analizar la actividad de las regiones cerebrales encargadas del procesamiento de la memoria.

Durante el trabajo de investigación se solicitó a los participantes que de forma intencional recordaran un recuerdo o que lo suprimieran de su memoria. Tras ello, los investigadores examinaron las imágenes de IRMf de la parte implicada en la memoria del cerebro, la corteza prefrontal.

Los investigadores descubrieron que en primer lugar una porción de la corteza prefrontal suprime regiones que participan en los aspectos sensoriales de la memoria. Después, una parte diferente de la corteza prefrontal suprime las regiones cerebrales que apoyan los procesos de memoria y aquellas áreas del cerebro que apoyan las asociaciones emocionales con la memoria.

Según los científicos, los resultados ayudan a una mejor comprensión de los mecanismos cerebrales implicados en el control de la memoria y especialmente aquellos que están asociados con la falta de control sobre los recuerdos emocionales y los pensamientos como los que padecen las personas con estrés postraumático y trastornos obsesivo-compulsivos.

Fuente: Science


 

-Desmienten que la mayor actividad del sol afecte al clima

El cambio climático que está experimentando el planeta no tiene que ver con los efectos de una mayor actividad solar sobre los rayos cósmicos que llegan del espacio.

Así lo aseguran los científicos del Laboratorio británico Rutherford-Appleton y del Centro Mundial de Radiaciones, ubicado en Suiza, que han echado por tierra una teoría en la que se desvinculaba el aumento de las temperturas de la actividad humana.

Nuevos análisis realizados por Micke Lockwood y sus colegas han demostrado que la intensidad de la actividad solar ha disminuido durante los últimos 20 años, pero sin embargo las temperaturas globales han aumentado 0,4 grados centígrados en las últimas tres o cuatro décadas, una tendencia que aún continúa.

Los científicos recuerdan que la actividad del Sol tiene ciclos de más o menos intensidad cada 11 años, pero que se engloban en otro más general que durante el siglo XX ha originado un leve aumento de las temperaturas. Sin embargo, a partir de 1985 la situación ha revertido, por lo que, siguiendo esta lógica, deberían haber bajado las temperaturas, cuando lo que han hecho es aumentar más que en los cien años anteriores.

La teoría de los rayos cósmicos fue lanzada hace unos meses por científicos del
Centro Nacional Espacial de Dinamarca, quienes aseguraron que las emisiones de CO2 no afectaban al clima terrestre, sino que se trataba de un fenómeno natural: los rayos cósmicos procedentes de las estrellas llegan a la Tierra con más o menos intensidad en función del campo magnético del Sol. Señalaron que mediciones de 20 años demostraban un vínculo directo entre la formación de de nubes (que vuelven el clima más o menos frío) y la incidencia de estos rayos cósmicos.

Loockwood acusa ahora a estos expertos de manipular los datos y vuelve a descargar la responsabilidad sobre la especie humana.

Fuente: elmundo.es, 12 de Julio de 2007

 

 

-Ignasi Ribas habla para ABC sobre un exoplaneta con agua

Un exoplaneta con agua, es decir, un planeta ajeno a nuestro sistema solar en el que el agua forma parte mayoritaria de su composición. Esta es la primicia descubierta por un equipo internacional de científicos adscritos a la Agencia Espacial Europea (ESA), con participación española del Consejo Superior de Investigaciones Científicas (CSIC). Pero no hablamos de agua como la que sale del grifo o la que llena los mares. Se trata de vapor de agua.
 

Ignasi Ribas, experto en astrofísica estelar del Instituto de Ciencias del Espacio y coautor del hallazgo, explicó ayer a ABC que «el planeta extrasolar HD 189733b, conocido como el «Júpiter caliente», que orbita en torno a la estrella del mismo nombre, la HD 189733, se halla a 63 años luz de la Tierra, en la constelación Vulpecula». De entre los algo más de doscientos planetas extrasolares descubiertos hasta la fecha, se sospecha que en algunos de ellos el agua puede estar presente, pero esta es la primera vez que se comprueba científicamente.

OBSERVADO POR EL «SPITZER»

Las conclusiones de la investigación, publicadas en el último número de
«Nature», explican que el hallazgo ha sido posible mediante la observación por el telescopio espacial «Spitzer», de la ESA, del tránsito del planeta por delante de su estrella mediante mediciones en longitudes de onda infrarrojas.

Ribas puntualizó a este diario que las mediciones se hicieron «por fotometría de infrarrojos en diferentes longitudes de onda, a una bajísima resolución y en tres distintas bandas... el tamaño relativo entre planeta y estrella, dependiendo de las longitudes de onda, muestra variaciones que responden a la absorción de la atmósfera planetaria durante su tránsito que, en este caso, corresponden plenamente al espectro del vapor de agua».

El agua en su estado gaseoso, pues, forma la parte mayoritaria de la atmósfera del «Júpiter caliente». No quiere esto decir que la vida sea posible en el planeta HD 189733b, al menos tal como la concebimos. «Rotundamente no -aseguró Ribas-, una temperatura superior a los 700 grados hace imposible la vida... este planeta es esencialmente gaseoso y muy caliente; es posible que su núcleo sea metálico debido a la inmensa presión, pero no guarda otro parecido con la Tierra.

EN BUSCA DE LA VIDA

La búsqueda de vida, en cualquier caso, ya es posible más allá de nuestro Sistema Solar. No necesitamos posar un robot, como los que actualmente se pasean por Marte, para rastrear la posibilidad de vida en exoplanetas a años luz de la Tierra. Ribas afirmó a este diario que «las misiones Darwin, de la ESA, y TPF, de la NASA, concebidas como programas de detección remota de la vida, rastrearán a partir de 2020 en los exoplanetas buscando agua, ozono, metano, CO2... en sus atmósferas». El interés de este análisis de las atmósferas reside en que «cualquier atmósfera fuera del equilibrio natural, como es el caso de la terrestre -puntualizó Ribas-, en la que el oxígeno sólo está presente porque hay vida, y no a la inversa, porque hace 3.000 millones de años unas bacterias empezaron a producir oxígeno, es susceptible de albergar vida».

La respuesta a la gran pregunta, ¿estamos solos en el Universo?, poco a poco deja de ser una utopía. Será difícil encontrar a Alien... pero un día no muy lejano hallaremos algún rastro de vida en alguna parte.

Fuente: ABC Periódico Electrónico S.A., 12 de Julio de 2007

 

 

-España amplía su flota científica con un nuevo buque puntero, el "Miguel Oliver"

El astillero M.Cíes entregó la flamante embarcación a la ministra de Pesca, Elena Espinosa, que se mostró más que complacida por el resultado del proyecto en el que su departamento ha invertido 24 millones de euros. «Esta embarcación es una demostración de la apuesta hecha por la tecnología española y una demostración de la confianza en la industria naval de Vigo», dijo.

COOPERACIÓN INTERNACIONAL

Espinosa añadió a las funciones que desempeñará el nuevo laboratorio flotante la misión de potenciar la cooperación pesquera internacional con terceros países. «Gracias a esta embarcación, se aportarán datos que muy valiosos para las Administraciones pesqueras de los Estados», afirmó.
 

Buque oceanográfico Miguel Oliver

Nuevo buque oceanográfico Miguel Oliver

-Nombre del barco pertenece al primer secretario general de Pesca Marítima

-70 metros de eslora, 12 metros de manga

-Calado: 5 metros

-Potencia 2000 KW

-Velocidad máxima: 15 nudos

-Arqueo: 2490 GT

-Tres radares, tres ecosondas, y seis laboratorios, además de un sofisticado sistema de posicionamiento y dos pequeños robots para hacer estudios submarinos

-Capacidad: 45 personas (30 camarotes)

-Cumple normativa ICES 209 sobre emisión de ruidos y vibraciones transmitidas al agua.

-Principal función: investigación de caladeros, cartografía, meteorología

-Presupuesto: 21-24 millones de euros

 


El secretario general de Pesca Marítima, Juan Carlos Martín Fragueiro, bautizó al Miguel Oliver como «el buque que convierte a España en una de las fuerzas de investigación pesquera punteras en el mundo». Martín destacó, entre las características tecnológicas del navío, los dos tipos de robots subacuáticos que van a bordo. Uno de ellos es el Rov Swordfish, un vehículo de operación remota para fotografiar reservas marinas, localizar pecios y examinar el impacto de las artes de pesca en los fondos marinos, que opera hasta 650 metros de profundidad. El otro robot es el denominado Videoray, y se trata de un vehículo de pequeñas dimensiones (4 kilos de peso), que filmará el estado de las reservas marinas arrecifes y recursos pesqueros.

El equipamiento científico del navío consta de seis laboratorios (química, acústica, húmedo, biología, física e informática). Está dotado de sistemas de comunicación vía satélite, estación meteorológica, dos radares de navegación con alcance de 50 millas para la detección de objetos. El interior del buque está habilitado con 30 camarotes (15 dobles y 15 individuales).

El Miguel Oliver, que recibe el nombre del biólogo marino y oceanógrafo, salió del puerto de Vigo en su primera campaña científica rumbo a Hatton Bank, en el Atlántico nororiental, donde faena la flota gallega. Posteriormente operará en los caladeros de Perú, Panamá y Argentina.

Fuente: La Voz de Galicia, 11 de Julio de 2007

 

 

-¿Qué hay detrás de un Nobel?

Timothy Hunt, premio Nobel de Medicina 2001 por descubrir proteínas esenciales para el ciclo celular, compitió en su día por un puesto en Harvard... que no obtuvo. Craig Mello, Nobel también de Medicina en 2006, recibió a las 4.30 la llamada que le anunciaba el premio, y su mujer pensó que era una broma y colgó. Son algunas de las anécdotas que 18 premios Nobel compartieron la semana pasada con más de 500 jóvenes investigadores de 64 países, durante el encuentro que se celebra anualmente, desde 1951, en la ciudad alemana de Lindau.

El objetivo es colocar a las jóvenes promesas de la ciencia mundial cara a cara con sus ídolos.

¿Qué sintieron en ese momento eureka de descubrimiento que todo investigador persigue como una droga? ¿Tuvieron que enfrentarse alguna vez al bloqueo del investigador? ¿Cómo eligieron su tema de investigación? Los premiados explicaron la trastienda de su ciencia, debatieron y dieron consejos. El telón de fondo de la reunión fueron las desiguales perspectivas que tienen los jóvenes investigadores según su lugar de procedencia.

"¿Podemos invitarle a nuestro instituto? ¿Si le enviamos un correo electrónico lo leerá?", preguntaba a un Tim Hunt asediado un estudiante de Bangladesh desde la tercera línea de un corrillo. Las miradas de admiración, las preguntas e incluso las fotos con Nobel fueron habituales en Lindau. La estrella indiscutible fue Mello, y no sólo porque el área en que trabaja, y por la que obtuvo el Nobel -el ARN de interferencia, descubierto por él y su colega Andrew Fire- está en ebullición. Mello fue generoso al describir sus emociones -"lo mejor de la ciencia es que cuando crees que no puede haber nada más bonito, entonces aparece algo que te demuestra que sí que puede; para nosotros fue descubrir el mecanismo de silenciamiento del ARN"-, y arrancó aplausos cuando pidió una ciencia en la que los investigadores "no tengan miedo a discutir los resultados por temor a que se los pisen".

También fue expansivo en sus comentarios políticos -"gracias al presidente actual en mi país [EE UU], la gente entiende mejor nuestro parentesco con los demás primates"- y sociales: "Cuando se habla de las aplicaciones médicas del ARN de interferencia nos estamos refiriendo a una medicina muy cara, que podrá pagarse apenas el 2% de la población y que los sistemas de seguridad social no cubrirán; y no hay que olvidar que la inmensa mayoría de la mortalidad en el planeta se debe a enfermedades que ya son perfectamente curables", dijo Mello.

Hunt siguió la misma línea, con una visión más bien pesimista de lo logrado hasta ahora en tratamientos contra el cáncer: "Salvo excepciones, no estamos más cerca que hace dos décadas de curar un cáncer que ya ha aparecido". Y arremetiendo contra las patentes, que "fomentan el secretismo", especialmente en el ámbito farmacéutico, y frenan así el avance de la investigación.

En esta ocasión, la tradicional reunión de Lindau estuvo dedicada a la biomedicina. Mello, Hunt, Günter Blobel (Nobel 1999), Edmond Fischer (Nobel 1992) y Leland Hartwell (copremiado con Hunt) dieron entre todos los siguientes consejos para todo joven investigador. Colaborar en vez de competir -muy alabado, pero, según comentarios de pasillo posteriores, también muy difícil de poner en práctica-. No avergonzarse de fallar, porque "hasta que no haces el experimento no lo sabes". Ser muy críticos con el propio trabajo. Elegir un tema "que realmente despierte tu curiosidad", dijo Blobel, pero que, además, "sea factible" -Hunt, por ejemplo, cataloga el reto de entender la conciencia dentro de lo no factible-. Y, desde luego, no trabajar para conseguir el Nobel, sino por simple pasión.

Es obvio que seguir esos consejos no garantiza las mismas posibilidades de éxito para todos. Los participantes en Lindau, seleccionados a escala nacional en países que colaboran con la Fundación del Encuentro con premios Nobel, provenían sobre todo de Europa y EE UU, pero también de China e India, Bangladesh, Corea del Norte, Vietnam, Burkina Faso, Camerún, Ghana o Nigeria.

Si son, como los cataloga la organización de Lindau, "los mejores talentos en su país", puede que algunos hayan concursado al codiciado programa de ayudas del Consejo Europeo de Investigación (ERC), cuya primera convocatoria para investigadores jóvenes se cerró el pasado abril con 9.167 solicitudes, muchas más de las previstas.

El ERC tiene 290 millones de euros a repartir entre 200 y 250 ayudas y se ha diseñado con la idea de paliar uno de los problemas del sistema de investigación europeo: "Europa no consigue mantener en casa a sus jóvenes científicos. Durante más de una generación ése ha sido un obstáculo crucial: producimos a nuestros jóvenes científicos y dejamos que se vayan. Mucha gente que no puede seguir con su trabajo por falta de infraestructuras y apoyo acaba yendo a EE UU", comentó en Lindau Fotis Kafatos, presidente del ERC.

¿Cómo ven el futuro la veintena de investigadores españoles que asistieron a Lindau? En general, sus respuestas no casan bien con las estimaciones de que hacen falta decenas de miles de investigadores en España para igualar a Europa. Muchos resaltan que los españoles lo tienen ya difícil para salir fuera, porque las becas posdoctorales son de dotación escasa y se asignan con criterios "raros" -se considera común que investigadores sin beca posdoctoral del
Ministerio de Educación y Ciencia (MEC) obtengan ayudas europeas muy prestigiosas, de los programas Marie Curie o Human Frontiers, o de la Organización Europea de Biología Molecular (EMBO)-. Y una vez fuera, la dificultad está en volver. Irene Díaz Moreno, ahora en Londres con una beca de EMBO, cree que "en esto, la diferencia respecto a los países de nuestro entorno es abismal". Para otros, en cambio, algo ha empezado a moverse: "Se han abierto muchos centros nuevos, creo que cada vez es más fácil volver", opina Javier López, con un contrato Marie Curie en la Universidad de Basilea.

LA REVOLUCIÓN DEL ARN

Craig Mello dedicó su charla en Lindau al organismo con que investiga, el gusano C.elegans. Su trabajo con él ha contribuido a lo que algunos biólogos llaman la "revolución del ARN": el ARN, hasta hace poco considerado apenas un mensajero que transporta la información de un lado a otro, parece ser además un elemento muy activo en el cifrado del genoma, regulando su expresión y también protegiéndola. Cuando se secuenció el genoma humano y se hallaron apenas 23.000 genes cuando se esperaban 100.000, muchos dijeron que debía haber algo más; la información no debía de estar sólo en los genes. Las múltiples funciones hasta ahora ocultas del ARN podrían ser al menos parte de ese algo más.

Fue un hallazgo relativamente casual. Mello trataba de bloquear la expresión de genes específicos en el embrión para estudiar su función. Inyectó unas pocas moléculas de ARN de doble cadena en los gusanos y observó que se inhibía completamente la expresión de un determinado gen, sugiriendo un mecanismo biológico desconocido implicado en la expresión génica. Además, el efecto se contagiaba de célula a célula en el organismo y también a la siguiente generación. En 1998, junto con Andrew Fire, Mello publicó en
Nature un trabajo explicando el trabajo. Desde entonces este mecanismo se ha convertido en una de las técnicas estrella con que estudiar la función de genes específicos.

En Lindau, Mello estuvo de acuerdo en considerar su hallazgo "si no revolucionario, al menos sí muy importante". "El ARN de interferencia tiene un papel regulador del genoma y también defensivo", señaló.

Fuente: El País, 11 de Julio de 2007

 

 

-Simulador quirúrgico con sentido del tacto

Un cirujano se dispone a usar una técnica nada sencilla para operar una patología de hombro muy común, un síndrome de compromiso subacromial. Es lo que se denomina una artroscopia, un método de mínima invasión que consiste en realizar unas pequeñas incisiones en la articulación del paciente e introducir por ellas unas varillas con instrumental quirúrgico y una microcámara para efectuar la intervención con ayuda de la imagen que reciba en una pantalla. En este caso, introduce una pequeña fresa para limar el pico de hueso acromion que roza con el tendón del supraespinoso. No resulta nada fácil, pues sin ver directamente qué hacen sus manos, debe quitar sólo la parte justa de hueso que molesta para no producir una grave lesión al paciente.
 

Sin embargo, esta vez no pasa nada por equivocarse: el médico realiza la intervención en un simulador de realidad virtual, un equipo bautizado como insightMIST y desarrollado con tecnología cien por cien española. Uno de los pocos simuladores en este campo existentes en todo el mundo. "Antes había que abrir y levantar el músculo deltoides, ahora la artroscopia evita todo esto, pero requiere de un aprendizaje previo", detalla Antonio Fernández Fernández-Arroyo, traumatólogo del hospital de Getafe (Madrid), en un reciente curso de artroscopia con este simulador en el Colegio Oficial de Médicos de Madrid. "Este aparato permite no tener que practicar esta técnica con enfermos reales por lo que disminuye el riesgo de la operación", señala el especialista, que asegura que se nota ya la destreza con las videoconsolas en las nuevas generaciones de médicos.

Como si se tratase de un videojuego, la pantalla del simulador de operaciones de artroscopia muestra el hueso acromion rodeado de bolitas de diferentes colores, las verdes son las que deben ser limadas, las amarillas las que resulta mejor no tocar y las rojas las que no deben quitarse nunca.

El monitor reproduce en tiempo real las reacciones que tendría un paciente verdadero ante cada movimiento del médico, que sostiene dos varillas metidas en una carcasa vacía que imita una articulación humana. La gran diferencia con un videojuego es que las manos del traumatólogo perciben las mismas sensaciones que si sujetasen las varillas insertadas en un enfermo de carne y hueso. Pueden sentir cuando topan con un hueso, comprobar la textura de un cartílago por si estuviera lesionado o incluso tirar del tendón del bíceps para verificar su elasticidad.

"La generación sintética del tacto es muy difícil", detalla Carlos Illana, director técnico de Alta Tecnología para Sanidad de GMV, la empresa que ha desarrollado el simulador. "En general, todo el sistema de realidad virtual ha requerido de muchos más algoritmos que un simple videojuego para conseguir una buena geometría y una simulación física muy realista, pero la sensación de tacto ha resultado todavía más complicada, ya que intervienen incluso aspectos psicológicos aún por investigar", dice. Para comprender la dificultad de reproducir el tacto basta compararlo con el sentido de la vista. Como incide Illana, si para engañar a un ojo para que vea moverse un personaje en una pantalla de cine hay que pasar unas 30 imágenes por segundo, para que el médico crea sentir en el extremo de su instrumental quirúrgico el interior de un cuerpo humano se precisan mil muestras por segundo.

Buena parte de la actividad de GMV se centra en la aeronáutica, lo que le ha permitido aprovechar su experiencia en simuladores de vuelos para el desarrollo de este equipo de entrenamiento de técnicas de artroscopia. Convertido ya en un producto comercial con un precio de unos 30.000 euros en su versión más básica, el insightMIST comenzó siendo un proyecto de I+D de GMV en colaboración con la
Universidad Rey Juan Carlos, la Politécnica y el hospital Severo Ochoa, las tres de Madrid. "Al igual que los pilotos deben completar de forma obligatoria una serie de horas de vuelos virtuales como parte de su adiestramiento, parece que la tendencia en el campo de la medicina también va por aquí, lo que revierte en la seguridad del paciente", comenta Almudena Sánchez, responsable del Desarrollo de Negocio de Alta Tecnología para la Sanidad de la empresa, e incide en la complejidad de operar sin ver directamente el espacio en el que se trabaja, con dos varillas que se introducen en el cuerpo por pequeños orificios.

"Algunos médicos en formación tienen acceso a cursos de cadáver para practicar, pero aún así los tejidos de una persona muerta no tienen la misma textura, y si no es de esta forma, no queda más remedio que acompañar entonces a un cirujano experto en el quirófano para aprender", añade Sánchez.

El aparato se compone de una estructura de metacrilato sobre la que se apoya una carcasa de plástico que imita la articulación a operar (ya sea un hombro o una rodilla) y dos brazos robóticos que sujetan las varillas con el instrumental artroscópico. El equipo se completa con un monitor táctil y un ordenador con el software que contiene los distintos programas de entrenamiento y los modelos tridimensionales que reproducen con gran fidelidad el interior del cuerpo humano, elaborados con ayuda de anatomistas y artroscopistas.

"Nos están reclamando instituciones formativas de especialistas en el Reino Unido, India o EE UU", asegura Sánchez, "y aparte de las articulaciones de hombro y rodilla, empezamos a estudiar la posibilidad de desarrollar también programas para la cadera, pues hemos constatado que tiene mucho interés entre la comunidad internacional de la especialidad".

Fuente: El País Futuro, 11 de Julio de 2007

 

 

-La Coopetición clave de la evolución

Competir y cooperar a la vez parece algo difícil e improbable, pero unos investigadores de las universidades Carlos III y Complutense de Madrid han publicado un estudio científico que analiza estas interacciones, muy frecuentes y beneficiosas entre especies animales o en el mundo de los negocios. De esta forma, se puede observar que un depredador superior, como un tiburón, no sólo devora y compite por los alimentos, sino que también coopera a mantener el ecosistema en el que vive. Esta doble acción, denominada ?coopetición?, constituye uno de los principales mecanismos reguladores de la vida de nuestro planeta, según los investigadores.
 

"El objetivo principal de nuestro estudio es establecer los principios reguladores generales de las interacciones de carácter competitivo y cooperativo que ocurran en la biosfera terrestre, a cualquier nivel", explica Marcela Molina Meyer, del departamento de Matemáticas de la Universidad Carlos III de Madrid, que ha publicado recientemente este artículo junto con Julián López Gómez, de la Universidad Complutense de Madrid, en la revista científica 'Discrete and Continuous Dynamical Systems'. Para ello, los investigadores han desarrollado una teoría matemática de la 'coopetición', que es el término que designa una interacción entre partes que pueden ser, simultáneamente, competitivas y cooperativas, ya sea por su posición geográfica o su edad. Por ejemplo, dos multinacionales podrían cooperar en la Unión Europea pero competir en Estados Unidos; o dos especies vegetales podrían ayudarse cuando una de ellas está creciendo, porque la mayor puede retener más nutrientes a cambio de ofrecer sombra a la menor, y enfrentarse cuando las raíces de la más joven comiencen a competir por el territorio.

El paradigma imperante en la actualidad tiende a considerar a los depredadores únicamente como devoradores, más que como cooperantes en el mantenimiento de los ecosistemas. "Si no cambia radicalmente esa percepción, los daños que ocasionaremos a nuestra biosfera serán irreparables", afirma Julián López Gómez. "Según los modelos que hemos desarrollado -continúa- la principal función de la competición es la generación de diversidad". De esta forma, en un contexto aparentemente competitivo, los mecanismos de cooperación locales, en ocasiones prácticamente imperceptibles, disminuyen la susceptibilidad del sistema a las invasiones e incrementan su productividad. "La existencia de mecanismos cooperativos muy localizados de difícil detección explica, por ejemplo, que la extinción de un depredador superior en un ecosistema pueda provocar el hundimiento completo del ecosistema", añade Julián López Gómez.

Las aplicaciones prácticas de este modelo podrían facilitar la comprensión del comportamiento de multitud de ecosistemas y mercados financieros, según los investigadores, desde su utilización para la estimación del rango y fortaleza que debe tener una alianza empresarial para conseguir beneficios hasta el diseño de corredores de vida para recuperar especies amenazadas en un ecosistema determinado. "Nuestro estudio es bastante novedoso y, muy posiblemente, revolucionario, tanto desde el punto de vista de las aplicaciones de su teoría abstracta a la biología, ecología, sociología, gestión empresarial y economía, como desde el punto de vista matemático", concluye Marcela Molina Meyer. No obstante, algunos de los últimos resultados de sus investigaciones han sido publicados y tratados en revistas científicas muy importantes, como el célebre 'Journal of Differential Equations', la mejor publicación del mundo sobre ecuaciones diferenciales; o la revista 'Theoretical Population Biology', una de las importantes del campo de la Ecología y las Ciencias Medioambientales.

"De acuerdo con nuestros estudios, la coopetición es uno de los principales mecanismos reguladores de la vida de nuestro planeta", señala Julián López Gómez. Parece lógico, porque es un mecanismo de beneficio mutuo para las partes implicadas. "El débil consigue la permanencia y se beneficia del incremento de productividad del fuerte", indica. Salvando las distancias, es algo similar a lo que ocurre en la popular metáfora del león y el ratón, sostienen los investigadores. Un león atrapado en una red de un cazador captura un ratón, pero en lugar de comérselo decide soltarlo, porque no iba a saciar su hambre. Entonces el ratón, en agradecimiento, empieza a roer la red y consigue liberar al león. Si éste si hubiera comido al ratón, ambos habrían desaparecido. En el otro caso sólo pierde el cazador, pero esa ya es otra historia.

Fuente: UCIIIM, 10 de Julio de 2007

 

 

-La NASA lista para mandar la sonda "Phoenix" a Marte

La agencia espacial estadounidense (NASA) ha anunciado que lanzará en agosto la cápsula 'Phoenix' para la primera misión de exploración y estudio del agua, así como de posibles trazas de vida, en el polo norte de Marte.

Phoenix

Barry Goldstein, gerente del proyecto 'Phoenix', ha declarado que el período propicio para el lanzamiento comienza el 3 de agosto y continuará hasta el 24 de ese mes, y que la cápsula viajará durante 10 meses, para descender en Marte a finales de mayo de 2008.

"Será la primera vez que un aparato que haga un descenso suave en Marte explore el polo norte", ha asegurado durante una conferencia de prensa Doug McCuiston, director del Programa de Exploración de Marte en la agencia espacial NASA.

El lanzamiento se efectuará desde la Estación de la Fuerza Aérea en Cabo Cañaveral, Florida, con un cohete Delta II, y la cápsula viajará a una velocidad promedio de 20.277 kilómetros por hora.

Al aproximarse a la superficie de Marte, 'Phoenix' usará cohetes que frenarán su descenso y luego extenderá un brazo robótico para excavar el suelo marciano.

Mñas información aquí

Fuente: EFE, 10 de Julio de 2007

 

 

-El clima de la Tierra ha variado en los últimos 800000 años

El estudio del hielo de las capas profundas de la Antártida revela que el clima en La Tierra ha tenido notables variaciones.

En 2004 un equipo de científicos europeos dirigido por Jean Jouzel llevó a cabo uno de los más difíciles y fascinantes experimentos de los últimos años: la extracción de una muestra de 3.260 metros de hielo en el Este de la Antártida. El nombre del proyecto era EPICA, acrónimo de European Project for Ice Coring in Antarctica. El último número de la revista 'Science' publica algunos de los resultados de la investigación.

Ha transcurrido mucho tiempo desde la realización del experimento porque las muestras requerían un tratamiento cuidadoso. La temperatura, por ejemplo, se estima a partir de precisas mediciones del deuterio, uno de los isótopos de hidrógeno. Además se han tomado muchas otras mediciones como las de gases de efecto invernadero o la concentración de polvo.

A lo largo de los 800.000 años que cubre el testigo, la temperatura del planeta habría experimentado cambios considerables. Con relación a pasadas edades, el clima actual es más bien cálido. Hoy la temperatura es 4,5 grados más baja que en otras épocas; pero también es 10 grados más elevada que durante las glaciaciones. Curiosamente, los períodos más extremos son relativamente cercanos; tan "sólo" 20.000 y 130.000 años para el más frío y cálido, respectivamente.

El próximo paso es realizar catas más hondas, que permitan conocer las características del aire, y del clima más allá del millón de años. Pero, como ha señalado para National Geographic Martin Siergert, uno de los miembros del equipo de investigación, es posible que "ya estemos llegando al límite de lo que un testigo de hielo puede ofrecer".

Fuente: El Mundo Digital, 9 de Julio de 2007

 

 

-Las condiciones para fijar dióxido de carbono oceánico se fijarán en noviembre

Las tecnologías para la captura y almacenamiento de dióxido de carbono ya están aquí y empresas e instituciones de investigación están formando consorcios para poder llevar estas tecnologías a la práctica comercial.

Si bien la captura del gas en las plantas de producción no plantea problema alguno, el almacenamiento en formaciones geológicas profundas oceánicas plantea reservas por motivos de seguridad y por el impacto sobre el medio marino. El Convenio de Londres de prevención de la contaminación marina por el vertido de desechos y otras materias es, por tanto, el órgano máximo para establecer en qué condiciones debe hacerse.

En la reunión del grupo científico de este convenio internacional, del que son parte 82 países, que tuvo lugar hace unas semanas en Santiago de Compostela se acordaron unas directrices para la inyección de CO2 en el subsuelo marino. El documento, al que ha accedido este diario, deberá discutirse en la reunión de las Partes del Convenio que se celebrará en Londres el próximo mes de noviembre, si bien «la unanimidad alcanzada a nivel científico hace previsible su aprobación», confirmó a ABC el presidente de este convenio, el español Víctor Escobar.

RIESGOS ASOCIADOS

El documento aprobado por el grupo científico reconoce que «los riesgos asociados con el secuestro de dióxido de carbono en formaciones geológicas del subsuelo marino incluyen aquellos derivados de un escape al medio marino de CO2 y de otras sustancias que contenga ese flujo o sean movilizadas por él». Por este motivo, una de las condiciones es que el CO2 no contenga impurezas, salvo las trazas de algunas sustancias químicas que se le añaden para inyectarlo. Para ello se exige un análisis del flujo a inyectar que incluya origen, cantidad, forma y composición; propiedades físicas y químicas; toxicidad, persistencia y potencial de bioacumulación.

El estudio geológico de la zona donde se pretenda inyectar, además de aspectos como el emplazamiento tectónico, la capacidad de almacenamiento y la permeabilidad de la formación geológica, debe incluir una modelización de la estructura de al menos 10.000 años para asegurar la estanqueidad. Asimismo, se exigen un sistema de vigilancia de la zona para el caso hipotético de que se produjera una fisura y un programa de mitigación y remedio de esos posibles daños. Si se cumplen estos requisitos se expedirá el permiso, que será revisado periódicamente.

«Los permisos los da el país donde está localizada la estructura desde donde se va a inyectar. O sea, en aguas territoriales de Noruega sería Noruega. Al ser una actividad recogida por el Convenio, el país que dé el permiso tendrá que informar al Convenio mediante un formato, que todavía no está acordado, para que se incluya en las bases de datos sobre vertimiento», explica Escobar.

Éstas son en líneas generales las directrices que marca el convenio de Londres para la seguridad de la inyección de dióxido de carbono en el subsuelo oceánico. Ahora bien, lo primero que advierte el grupo científico en su informe es que para realizar esta actividad antes deben quedar descartadas otras opciones, como el almacenamiento geológico terrestre.

EN EL MAR DEL NORTE

En este sentido, Escobar explica que la inyección en el subsuelo oceánico «sólo se ha hecho a nivel experimental en el mar del Norte, mientras que en tierra sí hay experiencias más consolidadas, por ejemplo en Argelia, EE.UU, Australia o Canadá». Eso sí, matiza el presidente del Convenio de Londres, «siempre sin olvidar que el petróleo y el gas se han mantenido secuestrados en esas estructuras geológicas oceánicas durante millones de años».

También se advierte de que estas directrices deben ser consideradas «dentro del contexto de la necesidad de reducir las emisiones de gases de efecto invernadero». Por tanto, no pueden servir de salvoconducto para no tomar medidas de mitigación del cambio climático.

No obstante, para que un país pueda descontarse emisiones utilizando esta tecnología es necesario que sea aceptada como Mecanismo de Desarrollo Limpio dentro del Protocolo de Kioto. Para Teresa Ribera, directora de la Oficina Española de Cambio Climático, «la captura y almacenamiento de CO2 puede contribuir a reducir los costes de estabilización de las concentraciones de dióxido de carbono en un 30% o más». El almacenamiento en formaciones ecológicas puede llegar a suponer del 15 al 55% del total de la reducción de emisiones requeridas hasta el año 2100 para poder estabilizar las concentraciones de gases de efecto invernadero en la atmósfera.

Países como Noruega, Canadá, Australia y Japón -«pioneros en esta tecnología», dice Ribera- así como países africanos receptores de la misma, como Nigeria y Argelia, defienden la importancia de aceptar estos proyectos dentro del Mecanismo de Desarrollo Limpio.

Ribera explica que «ante la falta de consenso, la Junta Ejecutiva del Mecanismo de Desarrollo Limpio ha establecido una moratoria», para analizar el asunto y llegar a un acuerdo en la próxima Conferencia de las Partes del Protocolo de Kioto, a celebrar en diciembre en Bali. El almacenamiento de CO2 es uno de los asuntos más trascendentes en la agenda de negociación internacional.

Fuente: ABC Periódico Electrónico S.A., 9 de Julio de 2007

 

 

-En Marte se podrían cultivar algas "mutantes"

Un grupo de la Universidad Complutense de Madrid explica un mecanismo por el que algunas algas podrían adaptarse "instantáneamente" a sobrevivir en los ambientes más extremos.

El Río Tinto (llamado Río de Fuego por los Fenicios) representa un gran reto para la vida: sus aguas, de un color rojo intenso, son extremadamente ácidas (pH<2) y contienen enormes cantidades (>20g l-1) de metales tóxicos en disolución (Fe, Cu, Zn, As). Pese a estas condiciones tan adversas, una rica vida microbiana prolifera en el Tinto y numerosos grupos de investigación se dedican a estudiarla pues se trata de uno de los mejores modelos en exobiología (especialmente de cómo pudo haber sido la vida en Marte).

La vida en el Río Tinto siempre ha sorprendido a sus estudiosos: en principio se asumía que en los ambientes tan extremos solo podían proliferar unas cuantas especies de bacterias extremófilas muy especializadas. Contrariamente a lo esperado en el Tinto existen numerosas especies tanto bacterianas como de microorganismos eucariotas. Lo más sorprendente es que una gran parte de la biomasa del Tinto está constituida por microalgas. Las microalgas son ya organismos de gran complejidad no asociados a ambientes tan difíciles.

Siempre se asumió que la vida se adaptaba a los ambientes extremos como el del Río Tinto "poco a poco" y que necesitaba grandes períodos de tiempo para lograrlo. Pero recientes estudios de secuenciación (en los que participaban científicos españoles como el Dr. Amils) demostraron que las microalgas presentes en el Tinto son muy similares a especies de microalgas que viven en ambientes normales. Esto sugiere que la adaptación de estas algas al Río Tinto ocurrió muy rápidamente. Pero ¿cómo ocurrió?

Recientemente un grupo de investigación de la Facultad de Veterinaria de la UCM ha demostrado que algunas especies de microalgas pueden adaptarse "instantáneamente" a las aguas extremadamente ácidas y tóxicas del Río Tinto por un mecanismo inesperado: en sus poblaciones (inmensamente grandes) se producen en muy raras ocasiones mutaciones espontáneas que ocurren "por casualidad" antes de que el alga esté en contacto con el agua del Tinto. Esas mutaciones las capacitan para sobrevivir en el ambiente extremo del Tinto (aunque nunca hayan estado en él). Si alguno de estos mutantes llega al Tinto sobrevive sin problemas. La probabilidad de que ocurra esto es muy baja, pero como las poblaciones de estas algas son tan numerosas, el fenómeno puede ocurrir en cualquier momento. Probablemente las algas que pueblan hoy el Tinto sean descendientes de alguno de estos mutantes "afortunados" que se adaptaron por casualidad al Tinto mucho antes de llegar a él: Alga previsoras valen por dos. ¿Ya habrá algas pre-adaptadas para sobrevivir en Marte?


Fuente: UCM-mi + d, 9 de Julio de 2007

 

 

-La anémona no es tan diferente al ser humano

El genoma de la anémona marina es mucho más complejo y parecido al de los seres humanos que, por ejemplo, los de la mosca de la fruta o los nematodos.

Así lo sugiere una investigación realizada por la Universidad de Berkeley y el Energy Joint Genome Institute (JGI), que próximamente aparecerá en 'Science'. La cercanía genética con la anémona sugiere que el último ancestro que compartieron los seres vivos ya poseía un genoma relativamente complejo, de entre 18.000 y 20.000 genes.

Los científicos de los dos centros de investigación han descubierto que la anémona marina 'Nematostella' contiene alrededor de 450 millones de pares de bases, con unos 18.000 genes codificadores de proteínas. Su identidad, estructura y organización dentro del genoma muestra notables similitudes con la secuencia del genoma humano, que sólo es un poco más larga que la de la anémona.

Una de las principales conclusiones que se derivan de esta investigación es que la evolución no necesariamente implica un aumento del número de genes o de su complejidad. Así, los genomas de la mosca de la fruta y de los nematodos habrían sido simplificados y reducidos con relación al de aquel antepasado común.

Fuente: El Mundo Digital, 6 de Julio de 2007

 

 

-Recuperado en Groelandia el ADN más antiguo conocido

En unas muestras de hielo extraídas a dos kilómetros de profundidad en glaciares de Groenlandia, unos científicos daneses han encontrado ADN. Se trata del material genético de plantas y de insectos de hace, al menos, 450.000 años, por lo que los investigadores afirman que se trata del ADN más antiguo que se ha recuperado. Hasta ahora el material genético más antiguo tenía entre 300.000 y 400.000 años y se aisló en unas muestras tomadas en Siberia y conservadas en permafrost (tierra helada).

El ADN identificado ahora en Groenlandia es de árboles como pinos, píceas y alisos, e insectos como escarabajos, moscas, arañas, mariposas y polillas.

Los daneses analizaron los residuos conservados en cilindros de hielo sacados de unas perforaciones científicas realizadas en el hielo en varios lugares de Groenlandia (en regiones del norte, sur y centro), más en un lugar de Canadá para realizar análisis de control. Cada perforación extrajo toda la columna de hielo del glaciar, hasta el fondo, en cilindros de hielo. Como el hielo se forma capa a capa, cada año, por acumulación de nieve, el glaciar se convierte en un registro helado del clima.

El ADN encontrado por los daneses estaba en cilindros sacados del fondo de las perforaciones realizadas en el Sur. Su datación medida por métodos mineralógicos, de desintegración radiactiva y de tasa de mutación genética en las mismas muestras biológicas, indican que tienen al menos 450.000 años, pero no se descarta que pueda ser muy anterior, de hasta hace 900.000 años.

Los análisis minuciosos realizados por un grupo de científicos bajo la dirección de Eske Willerslev (
Universidad de Copenhague), se presentan en la revista Science. Willerslev fue también quién encontró en Siberia el ADN considerado hasta ahora más antiguo; en aquel caso se trataba de material genético de mamut, bisonte, musgos, etcétera.

PAISAJE DE CLIMA TEMPLADO

El paisaje del sur de Groenlandia que emerge a partir de la información del ADN conservado es muy diferente del actual. Ese territorio sería verde y cubierto de bosques de coníferas, en lugar de hielos. El clima sería mucho más suave que el actual.

Lo que más sorprende a los científicos es que si ese hielo tiene más de 450.000 años, se mantuvo incluso en el período interglacial posterior, hace entre 116.000 y 130.000 años, cuando la temperatura media de la Tierra era cinco grados centígrados superior a la actual y el nivel del mar subió entre cinco y seis metros. La capa helada en esa zona meridional de Groenlandia sería más delgada, pero no desapareció completamente, lo que significa que es mucho más estable de lo que se pensaba.

"Esto puede tener implicaciones acerca de la respuesta de esos glaciares al calentamiento global", comenta Willerslev, recordando que el calentamiento del planeta inducido por la acción humana se añade a los efectos de la variabilidad natural del clima.

Fuente: El País Digital, 6 de Julio de 2007

 


 

-Science asegura que los hombres y mujeres usamos el mismo número de palabras

Investigadores de la Universidad de Arizona en Tucson (Estados Unidos) han analizado de forma científica el estereotipo popular de que las mujeres hablan más que los hombres y han descubierto que mujeres y hombres utilizan una media de 16.000 palabras al día. El estudio, que se publica esta semana en la revista 'Science', echa por tierra el mito popular que afirma que las mujeres hablan mucho más que los hombres.
 

Según los investigadores, las cifras que se han barajado sobre la "verborrea" femenina en un libro de reciente aparición de la neuropsiquiatra Louann Brizendine ('The female brain') asumen que las mujeres utilizan en su discurso 20.000 palabras al día y los hombres sólo 7.000, cifras que han tenido una amplia difusión en los medios de comunicación estadounidenses.

El trabajo supone el primer estudio sistemático que registra conversaciones naturales de cientos de personas durante varios días y revela que las mujeres utilizan alrededor de 16.215 palabras al día y que los hombres emplean 15.669, una diferencia que en términos estadísticos no es significativa.

"Aunque mucha gente cree en los estereotipos de las mujeres habladoras y los hombres poco comunicativos no existen estudios a gran escala que hallan registrado de forma sistemática las conversaciones naturales de grandes grupos de personas en periodos de tiempo amplios", explica James W. Pennebaker, coautor del estudio.

Durante ocho años, los investigadores han desarrollado un método para registrar el lenguaje natural utilizando un grabador activado electrónicamente, un grabador digital de la voz que pasa desapercibido y que sigue las interacciones entre personas, incluyendo sus conversaciones.

Los investigadores muestran en su estudio el uso de palabras diario de 400 estudiantes universitarios de ambos sexos procedentes de los Estados Unidos y México. Los psicólogos midieron seis grupos en periodos que iban desde dos a diez días y las grabaciones se realizaron entre 1998 y 2004.

Los participantes de la investigación no podían controlar el dispositivo de grabación, que de forma automática registraba 30 segundos cada 12,5 minutos, y no sabían cuando el dispositivo estaba en marcha.

"Qué significan 500 palabras de diferencia en comparación con 45.000 palabras de margen entre la persona más habladora y la más reservada", señala Mathias R. Mehl, coautor del trabajo junto a Pennebaker. Para ilustrar la magnitud de la diferencia, entre los tres hombres más habladores del estudio, uno utilizó hasta 47.000 palabras. El hombre menos hablador utilizó algo más de 500 palabras al día.
 

Fuente: ABC Periódico Electrónico S.A, 6 de Julio de 2007

 

 

-Una nueva molécula podría ser efectiva contra el SIDA

Un medicamento experimental, la etravina, podría resultar efectivo para los enfermos infectados con el virus del sida (VIH) que ya no responden a los tratamientos más incisivos, según el resultado de ensayos clínicos publicado por la revista médica The Lancet.

La molécula, bautizada etravirina (TMC 125, de la firma Tibotec), fue clasificada en la familia de los inhibidores no nucleosídicos de la transcriptasa inversa (NNRTI, en sus siglas en inglés), de la cual forman parte la nevapirina o el efavirenz. La etravirina fue concebida como una alternativa para los pacientes que se han vuelto resistentes a esta clase de medicamentos anti VIH. Los resultados intermediarios de dos ensayos son "alentadores", según la revista.

Los voluntarios fueron divididos en dos grupos: uno de ellos recibió un 'coctel' de antiretrovirales, incluido la nueva molécula asociada con el inhibidor darunavir; al otro se le administraron varios medicamentos placebo, sin ningún efecto terapéutico, además del darunavir. El objetivo de los medicamentos anti VIH es reducir la "carga viral" -cantidad de virus en la sangre- por debajo de 50 copias por mililitro de sangre, es decir, por debajo del umbral detectable, con el fin de restaurar las defensas inmunitarias.

Se trata de controlar la infección, no de eliminarla, puesto que los medicamentos actuales no permiten deshacerse del todo del virus. En la semana 24 del tratamiento, el 56% y el 62% de los pacientes de los dos ensayos que tomaron etravirina habían logrado el objetivo, frente al 39% y 44% de los que recibieron el placebo.

Los efectos secundarios de la etravirina son descritos como débiles o moderados y, a excepción de las erupciones cutáneas, son similares a los del grupo placebo. Los pacientes ya habían sido tratados con una docena de antiretrovirales cuya eficacia había desaparecido y sufrían por añadidura otro tipo de enfermedades debido al debilitamiento del organismo, como la tuberculosis.

Fuente: ABC Periódico Electrónico S.A., 6 de Julio de 2007

 

 

-La televisión personal en internet es una industria emergente

La generalización de la banda ancha ha provocado la irrupción de un negocio en torno a las nuevas formas de ver televisión a través de Internet. Según un estudio de la consultora iSuppli, los ingresos de la televisión por Internet (IPTV) aumentarán este año un 177% hasta 3.260 millones de dólares. Y el uso que se hace de la web no para de crecer. Un informe realizado por Motorola indica que un 45% de los televidentes europeos sigue este servicio a través de Internet.
 

Esta tendencia de crecimiento en el uso de Internet ha impulsado la aparición de la llamada televisión personal, en la que los usuarios pueden elegir los contenidos que quieren ver. El fenómeno no ha surgido de la nada sino que ha venido acompañado de la aparición de una industria con un número creciente de empresas. Junto al fulgurante Youtube se ha configurado una larga lista integrada por nombres, que empiezan a ser conocidos, como Kewego, Vpod.tv, Scroon, TuTV, ADNStream o Dalealplay.

'Hay una demanda creciente por parte de los usuarios que buscan dar a conocer los contenidos que generan, así como de empresas y organizaciones dispuestas a usar el vídeo como fórmula para difundir información a través de Internet', asegura Emmanuel Biscay, responsable en España de la francesa Kewego. La compañía, apoyada por el grupo de capital riesgo Banexi Venture Partners, está desplegando en España su modelo de negocio desarrollado en Francia basado en la implantación de una plataforma de integración y difusión de contenidos audiovisuales destinada a la publicidad en televisión local y la creación de televisiones corporativas.

Además, Kewego ha creado la denominada plataforma de vídeo participativo a través de la cual los canales de televisión pueden crear su propia página web en la que difundir sus programas de éxito y así teledirigir hacia ellas al público y aumentar la rentabilización de la publicidad contratada. Esta fórmula está siendo usada ya en Francia por M6, el segundo canal del país por audiencias, y los directivos de Kewego buscan exportarla al mercado español. De hecho están manteniendo contactos con la mayor parte de los canales en España.

Entre los rivales de Kewego figura Vpod.TV, compañía fundada en Francia que cuenta con el respaldo de grupos como Orange o del inversor Martin Varsavsky. La empresa, que cuenta con una de sus principales sedes en España, ha creado un software que facilita la creación de canales personales por la red.

Otros competidores son Scroon, Dalealplay, lanzada por Vocento; TuTV, creada por Hispavista, y Youlike.TV, propiedad de la gallega Lambdastream. Esta firma ha constituido una plataforma de distribución de servicios de televisión por Internet que permite a los proveedores difundir sus contenidos sin la necesidad de tener una infraestructura propia a gran escala. También el Grupo Conzentra va a lanzar en España un servicio de WebTV que permite la gestión (desde la filmación a la publicación pasando por la edición) de los vídeos de los clientes.

A su vez, VivoCOM, una de las principales agencias de producción de contenidos para televisión en la Web ha ganado relevancia con el diseño del canal online del PSOE. VivoCOM ha firmado una alianza con la estadounidense Narrowstep para lanzar nuevos proyectos. También el portal de contenidos audiovisuales británico VolTV ha lanzado su versión española, en un intento de hacerse sitio en un segmento cada vez más complejo. Al navegar por la Red, los internautas pueden encontrarse con una auténtica sopa de letras con los nombres de webs que ofrecen vídeos, canales televisivos o software para la distribución de contenidos propios: Orb, In2Streams, Streamick, Nuvu.TV, WWITV, ManiaTV, Roja Directa, Medinalia, JumpTV...

Junto a todas estas webs han surgido firmas que han lanzado actividades complementarias a la televisión personal online. Esta semana se ha presentado en España Zattoo, una empresa que ha desarrollado un sistema de distribución de señal de televisión que lleva los canales al ordenador personal del usuario. Su responsable en España, Daniel Ilar, explicó ayer que el servicio es gratuito y sólo requiere descargar el software desde el portal. 'Nuestro sistema es completamente legal puesto que adquirimos los derechos directamente de los propios titulares y firmamos acuerdos con las entidades de derechos como la SGAE o Egeda', asegura el directivo, quien añade que las fuentes de ingresos de Zattoo provienen de la publicidad y del lanzamiento próximamente de canales premium. En al ámbito publicitario, Ilar explica que Zattoo, que ya tiene cerca de 100.000 usuarios en España, incluye anuncios en los siete segundos que tarda el proceso de cambiar de un canal a otro.

En cualquier caso, todos los proyectos van a enfrentarse a una dura competencia internacional. Youtube se ha convertido en el rival a batir por parte de todas las nuevas empresas de televisión personal. Según algunos expertos, la web ha contado con la ventaja de su gratuidad si bien han carecido hasta ahora de ofertas personalizadas. Youtube parece querer dar la vuelta a esta situación con el reciente lanzamiento de la web en diversos idiomas, incluido el español. Además, la filial de Google, que en mercados como EE.UU. mantiene una cuota superior al 60%, ha firmado acuerdos con canales de televisión para la difusión de contenidos.

Pero la presión puede ser mayor ahora de sus rivales. MySpace, la gran comunidad social controlada por News Corp, ha lanzado MySpace TV; la propia News Corp y NBC Universal han impulsado 'MeTooTube'; los fundadores de Skype y Kazaa han creado el portal de vídeos Joost; mientras Michael Eisner se ha convertido en el alma de Veoh. Muchos nombres para una televisión personal que acaba de aparecer pero a la que el desarrollo de Internet puede otorgar una larga vida.

A la moda online se han sumado canales como MTV que ha lanzado en España Overdrive, un servicio de vídeo online para comercializar sus contenidos. Al mismo tiempo, diversas productoras y videoclubes han creado FilmStar, un portal de alquiler de películas.

Los fabricantes de 'telecos' viven bajo la presión de las fusiones y con la obsesión de encontrar su hueco tecnológico en medio de la locura de cambios y competencias, y les evite quedarse fuera del mercado. Alcatel-Lucent se ha especializado como ninguna en el universo de la televisión IP convirtiéndose en el principal soporte de experiencias como la oferta audiovisual interactiva de Telefónica, que se comercializa con la marca Imagenio.

La multinacional francoamericana ha dado una vuelta de tuerca a este estándar y presenta en estos días nuevos desarrollos y aplicaciones de los que podríamos denominar la nueva TV digital 2.0. El soporte es una plataforma tecnológica cuya principal aportación consiste en dar los instrumentos precisos a los usuarios individuales y a los colectivos sociales para que puedan incorporar contenidos de elaboración propia a las programaciones temáticas de la nueva televisión. El responsable de la división de la multinacional que se ocupa de este desarrollo es un ingeniero español, Luis Martínez Amago, que dirige siete centros de desarrollo en todo el mundo, incluidos los dos españoles (uno en Madrid y otro en Barcelona) y a 3.000 personas.

Fuente: Cinco Días, 6 de Julio de 2007

 

 

-Hiperión: una esponja en medio del espacio

Hiperión

En su viaje desde La Tierra, la sonda "Cassini" ha enviado imágenes de gran calidad del satélite saturnino Hiperión que aparecen en 'Nature'.

Las fotografías tomadas a pocos kilómetros de distancia confirman lo que los telescopios venían mostrando con menos detalle: Hiperión es un cuerpo amorfo, cavernoso y de extrañas tonalidades.

Por su distancia a Saturno, y también por su tamaño, Hiperión es la séptima luna del planeta anillado. En la mitología griega su nombre era el de uno de los hijos de Urano y Gea; por tanto, un titán. Pero en las inmediaciones de Saturno -el Viejo Cronos, también hijo de Urano- Hiperión sólo es un "titanito". El gran satélite de Saturno es Titán, helado satélite en cuyo interior -se especula- puede haberse desarrollado la vida. Las órbitas de Titán e Hiperión tienen una curiosa característica: están en "resonancia". Cuando Hiperión cubre tres vueltas alrededor de Saturno, Titán recorre casi exactamente cuatro.

Pero lo que hace singular a Hiperión no es esa coincidencia, sino su aspecto. Visto de cerca es como una esponja en medio del espacio. Y, en realidad, esto es algo más que una metáfora. El séptimo satélite de Saturno es el cuerpo del sistema solar con mayor porosidad: un 40% de su interior está vacío. Lo que, por supuesto, también explica su baja densidad. Al igual que las esponjas marinas no tiene un aspecto regular. Mide 360 kilómetros en su parte más larga y sólo 225 en la más estrecha. Con semejante forma no es extraño que su eje y período de rotación sea variable. Vivir en Hiperión, si es que fuera posible, rompería los ciclos circadianos.

La superficie del satélite está cubierta por los cráteres de los objetos que han ido chocando contra él. Se supone que el mismo Hiperión es un fragmento de otro satélite que fue parcialmente destruido por un gran impacto, lo que explicaría su forma irregular. La luna está formada por agua helada y rocas, de modo que refleja una gran parte de la luz que recibe. No obstante, la luminosidad -como todo lo demás- es irregular. El borde de los cráteres, donde se encuentra el hielo más puro, brilla intensamente. En cambio, los cráteres son zonas oscuras.

Fuente: El Mundo Digital, 5 de Julio de 2007

 

 

-Queman bosques para producir biodiesel

Amigos de la Tierra denuncia que la multinacional Wilmar, dedicada a la distribución de aceite de palma, está destruyendo las selvas de Indonesia.

La organización ecologista Amigos de la Tierra ha dado a conocer una investigación de su sección holandesa en la que denuncia que la multinacional Wilmar, la mayor empresa dedicada a la distribución de aceite de palma, está destruyendo selvas enteras de Indonesia.

Las actividades de esta empresa incluyen «la tala de forma ilegal y la quema de bosques, violando los derechos de las comunidades locales en Indonesia», afirman.

El aceite de palma es una de las principales materias primas utilizadas para producir biocombustible para su uso en el transporte. Otras materias primas son el maíz y el girasol.

Amigos de la Tierra ha reclamado a la Comisión Europea que se replantee los objetivos obligatorios para incrementar el uso de biocombustibles y que éstos no se subvencionen con dinero público.

Otras ONG ambientales se han mostrado también reticentes a la normativa que obligará a que el 10% de los combustibles de automoción sean de origen agrícola antes de 2020, y piden una moratoria. El biocombustible producido a partir de aceite de palma, puede también ser la puntilla para los orangutanes de las selvas de Borneo y Sumatra, donde los bosques tropicales en los que viven unos pocos miles de ejemplares de estos amenazados primates están siendo talados para estos cultivos.

Europa es el mayor importador de aceite de palma, -Holanda a la cabeza- que también se utiliza como materia prima en muchos productos de alimentación y cosmética. Wilmar distribuye a compañías multinacionales como Unilever, Nestlé y Cargill.

La
Organización para la Cooperación y el Desarrollo Económico (OCDE) estima que, para sustituir el 10% de la demanda actual de combustibles de la UE, habría que dedicar el 70% de la superficie agrícola europea. La mayor parte de la producción de Indonesia viene a los mercados de Europa.

La ONU ha señalado recientemente en un informe que la demanda de tierra para biocombustibles podría suponer un peligro para el medio ambiente. También ha mostrado su inquietud ante la presión ejercida sobre los cultivos de alimentos, lo que llevaría a un aumento de los precios.

Investigaciones llevadas a cabo por David Pimentel y Tad Patzek, de
Natural Resources Research, ponen en duda la validez del uso de los biocombustibles como herramienta contra el cambio climático. La producción de etanol a partir del aceite de girasol, requiere un 118% más de energía fósil que la de un combustible normal.

Por otra parte, talar bosques que cumple la función natural de absorción de dióxido de carbono (CO2), para plantar palma, es un contrasentido, según señalan los expertos.

José Carlos Puentes, responsable de Cambio Climático de Amigos de la Tierra considera que «existen opciones seguras a corto plazo para reducir las emisiones, como el fomento del ahorro y de la eficiencia energética, junto con una decidida apuesta por energías como la solar».

Fuente: El Mundo Digital, 5 de Junio de 2007

 

 

-"Science" y "Nature"  "Principe de Asturias de la Comunicación" 2007

Las revistas 'Science' y 'Nature', consideradas dos de las publicaciones científicas más importantes del mundo, se han alzado con el premio Príncipe de Asturias de Comunicación por su tarea de divulgación de la ciencia en todo el mundo. La candidatura conjunta se ha impuesto a la agencia fotográfica Magnum y a la cadena de televisión británica BBC, que también fueron finalistas en la última edición del galardón.
 

La revista 'Science' se fundó en 1880 gracias a una donación de 10.000 dólares que hizo el inventor Thomas Edison. Poco después se unió financieramente al proyecto Graham Bell, y el primer director fue el periodista científico John Michaels. Pero no fue hasta el año 1900, cuando la revista atravesaba serios problemas económicos, cuando la publicación pasó a formar parte de la Sociedad Americana para el Avance del Conocimiento, que sigue editándola hoy en día.

Hoy en día, la revista es de carácter semanal, sale a los kioscos los jueves y tiene una tirada de un millón de lectores en todo el mundo, aunque sus lectores a través de los diferentes webs de información científica son muchos más.

Tanto 'Science' como 'Nature' basan su prestigio científico en el panel de expertos que revisan todos y cada uno de los textos antes de publicarse, siguiendo unas estrictas reglas para garantizar la seriedad, documentación y responsabilidad de todos y cada uno de los artículos.

Algo similar ocurre en el caso de 'Nature', una revista dirigida a un público eminentemente científico y que publica artículos de investigación cuidadosamente revisados y supervisados.

El primer número de 'Nature' salió a la venta el 4 de noviembre de 1869 en el Reino Unido y desde el primer momento nació con carácter semanal, que mantiene hoy en día, saliendo al mercado todos los miércoles.

El director de la revista, el doctor Philip Campbell, expresó su sorpresa porque se la hubiese considerado y finalmente elegido para ese galardón. La concesión del premio a ambas publicaciones "significa que la ciencia le importa al mundo. La comunicación de la ciencia no sólo entre científicos, sino también a una audiencia más amplia es valorada cada vez más y nosotros ('Nature') y 'Science' tenemos esa misión", afirmó.

La publicación, dirigida por sir Norman Lockyer, ha publicado los trabajos de renombrados científicos, como Isaac Newton, Michael Faraday o Charles Darwin.

En el caso de la revista estadounidense, en sus páginas fue donde por primera vez se habló de los proyectos de misiones de la Luna, donde se advirtió del peligro de un virus denominado VIH o donde Celera Genomics dio a conocer al mundo la secuenciación del ADN humano.

ASPIRANTES DE 36 PAÍSES

A esta edición del Premio en la categoría de Comunicación concurrían candidaturas de 36 países, entre las que se encontraban las del periodista estadounidense Bob Woodward, la del buscador de Internet Google, la de la periodista de la CNN Christiane Amanpour, la del semiólogo búlgaro Tzvetan Todorov, la de la Organización Meteorológica Mundial, y la del sociólogo británico Ralph Dahrendorf.

También optaban al premio el escritor brasileño Paulo Cohelo y el dibujante Antonio Mingote, así como RTVE, el ex secretario general de la ONU Kofi Annan y el actor y director Robert Redford, en su calidad de promotor del festival de cine independiente de Sundance.

El jurado destacó de los semanarios 'Science' y 'Nature' su labor "durante más de un siglo" impulsando y difundiendo "las grandes conquistas científicas de la Humanidad acercando de este modo la ciencia a la vida".

La candidatura fue propuesta por el presidente de la Real Sociedad Española de Física, Antonio Fernández-Rañada, y por el periodista Pedro Páramo, ambos miembros del jurado. En el acta, que fue leída por Manuel Olivencia en calidad de presidente del jurado, se hace constar que ambas revistas constituyen el canal de comunicación "más solvente que tiene hoy la comunidad científica internacional" para dar a conocer, tras "el filtro de una irreprochable y minuciosa selección" los más importantes descubrimientos e investigaciones.

En las últimas ediciones de este galardón fueron premiados Ryszard Kapuscinski, Gustavo Gutiérrez Merino, Hans Magnus Enzensberger, George Steiner, Umberto Eco, el Instituto Caro y Cuervo de Colombia, el periodista Jean Daniel, los grandes centros culturales europeos y la National Geographic Society, que lo obtuvo el pasado año.

El galardón, dotado con 50.000 euros y la reproducción de una estatuilla diseñada por Joan Miró, es el quinto que se falla este año después de los de Cooperación Internacional (Al Gore), Artes (Bob Dylan), Investigación Científica y Técnica (Ginés Morata y Peter Lawrence) y Letras (Amos Oz).

Entrevista al director de Nature sobre la concesión del Príncipe de Asturias

Pregunta. ¿Qué supone para su publicación el galardón?
Respuesta. Es un gran reconocimiento para todos los que contribuimos a hacer Nature. En realidad nos ha cogido completamente por sorpresa. Recibimos el premio como una manera de reconocer la importancia de comunicar ciencia sobresaliente a muchos tipos diferentes de audiencias. Creo que sobre todo viene a reflejar el valor que en sí mismo tiene el impacto de investigaciones fundamentales.

P. Nature es una revista decana en su género y más que centenaria.
R. Se lanzó en 1869 y desde entonces ha estado ahí para mostrar las importantes novedades de la investigación científica. Hoy tenemos 85 personas en la parte redaccional, con oficinas en Londres, EE.UU., varios países de Europa y Asia. La circulación del producto impreso es de 65.000 ejemplares y «on line» tenemos 3 millones de usuarios únicos al mes.

P. ¿Cómo ha logrado Nature convertirse en un punto de referencia global en la comunicación de la ciencia al público?
R. Probablemente porque somos independientes y por eso tenemos capacidad para movernos por nuestra propia iniciativa siempre que queremos, tanto en términos de contenidos como de gestión. También porque en las últimas pocas décadas la ciencia misma se ha convertido en algo de gran impacto en un sentido mediático. En este tiempo, muchos países han descubierto esto y están invirtiendo cada vez más en ciencia, especialmente en la región del Asia-Pacífico. Allí también han aparecido publicaciones importantes que han venido a sumarse a las que ya aparecen en países donde la apuesta por la ciencia ha sido más tradicional.

P. El galardón es compartido con la revista
Science. ¿Existe rivalidad entre las dos publicaciones?
R. La rivalidad es fuerte en el sentido de que las dos publicaciones competimos muy vigorosamente una con otra para intentar publicar los mejores estudios, hacer el mejor periodismo científico y aportar la mejor opinión. Esta competencia, que es muy beneficiosa para los lectores, se desarrolla en términos amigables, pues mutuamente nos reconocemos las excelencias de cada cual. Science está más centrada en los Estados Unidos, tanto en contenido como en circulación, mientras que Nature es la más internacional de las dos. Francamente, estoy encantado de que ambas hayan alcanzado este reconocimiento otorgado en España.
 

Fuente: El Mundo Digital, ABC Periódico electrónico S.A,  5 de Julio de 2007
 

 

-Una plataforma tecnológica sobre las plantas establece sus prioridades de investigación

Los europeos pueden prepararse para ver, en los próximos veinte años, plantas con propiedades curativas que combatan la diabetes y las cardiopatías; plantas más sabrosas con mejor contenido nutricional; medicamentos más económicos gracias a la producción de fármacos a partir de plantas; y plantas que se transformen con facilidad en biocombustibles.

Este es el panorama que predijo Wilhelm Gruissem para el futuro, presidente de la European Plant Science Organisation ("Organización Europea de Ciencias Vegetales"), en la presentación de la agenda estratégica de investigación elaborada por la plataforma tecnológica Plants for the Future ("Plantas para el futuro"). Sin embargo, para que se haga realidad este panorama, Europa necesita una investigación sobre plantas que sea fuerte y competitiva a nivel internacional.

La agenda estratégica de investigación expone cómo puede contribuir la comunidad científica que realiza investigación vegetal a solucionar cinco retos mundiales clave, a saber:

1. alimentos y piensos sanos, seguros y en cantidad suficiente;
2. productos de origen vegetal (sustancias químicas y energía);
3. agricultura, silvicultura y paisajes sostenibles;
4. investigación fundamental dinámica y competitiva;
5. variedad de opciones para el consumidor y gobernanza.

"Estos cinco pilares sostienen por completo el desarrollo de una bioeconomía basada en el conocimiento que permita mantener la competitividad económica europea y proporcione los medios para garantizar el suministro futuro de combustible y alimentos de manera sostenible para el medio ambiente", se afirma en el documento. En relación con cada uno de los retos, se especifican prioridades a corto, medio y largo plazo (hasta 2025).

La nueva agenda de investigación es motivo de optimismo especialmente para los agricultores de Europa. "Para incrementar su competitividad futura, los agricultores europeos deberán contar con cultivos diversificados y más ecológicos y producir más productos alimentarios y no alimentarios de mayor calidad", señaló Ricardo Serra Arias, del
COPA, el Comité de las Organizaciones Profesionales Agrícolas de la Unión Europea. "Se trata de un verdadero reto que se podrá superar mediante innovaciones punteras, especialmente en el campo de las biotecnologías vegetales".

La agenda estratégica de investigación se elaboró tras dos años de amplias consultas tanto a nivel comunitario como en cada Estado miembro. En este proceso se contó con diversas partes interesadas del mundo académico, la industria, la agricultura, la silvicultura, los gobiernos, asociaciones de consumidores y organizaciones medioambientales, así como expertos en educación, comunicación y asuntos jurídicos y financieros.

Los socios del proyecto ya están trabajando en la puesta en práctica de esta ambiciosa agenda. Como dijo Kurt Vandenberghe, vicedirector del gabinete de Janez Potocnik, Comisario de Investigación de la UE, ya han logrado que las ciencias vegetales hayan recibido una alta prioridad dentro del Séptimo Programa Marco (7PM). Un porcentaje considerable del presupuesto para la bioeconomía basada en el conocimiento se destinará a proyectos relacionados con plantas, apuntó.

"Esto muestra que la plataforma tecnológica Plants for the Future ha logrado transmitir sus argumentos con solidez a nivel europeo", afirmó, y agregó que constituye un buen ejemplo de lo que la Comisión espera de las plataformas tecnológicas.

Los socios del proyecto están buscando fuentes complementarias de financiación comunitaria, entre ellas los fondos sociales y el propuesto Instituto Europeo de Tecnología (IET). Al mismo tiempo, están tratando de convencer a los gobiernos y las agencias de financiación nacionales para que incorporen las prioridades de esta agenda a sus propios planes. Este proceso se ve facilitado por el hecho de que muchas de dichas agencias participaron en el proceso de consulta.

"En los últimos años el apoyo a la pujante investigación vegetal no ha sido una gran prioridad política para Europa", sostuvo el Sr. Gruissem. "Estamos convencidos de que la perspectiva estratégica de la plataforma tecnológica europea hará que las plantas vuelvan a ocupar un lugar de importancia entre las prioridades de los políticos de Europa, al centrarse en cuestiones claves de la investigación agrícola y vegetal que deben abordar los europeos".

Fuente: CORDIS, 4 de Julio de 2007

 

 

-De la enfermedad animal a la humana

El número del 15 de junio de la revista Science incluye un artículo firmado por Martin Enserink cuyo concepto es extremadamente sencillo: las barreras entre enfermedades animales y humanas son ficticias. Considerando la salud desde una perspectiva más ambiental y global que en una interpretación estrictamente clínica o asistencial, humanos y animales compartimos demasiadas cosas, y especialmente enfermedades, como para enfrentarlas por separado. Es la denominada one health, basada en las propuestas de Calvin Schwabe y que se corresponde perfectamente con el clásico lema veterinario Higia pecoris, salus populi (que viene a significar "la salud del ganado, la salud del pueblo").
 

Casi dos tercios del total de las enfermedades transmisibles humanas son zoonósicas (61%), es decir, adquiridas a partir de un animal vertebrado. Y, además, aproximadamente tres de cada cuatro (77%) enfermedades emergentes humanas son también zoonosis. Conviene no olvidar por último que las zoonosis alimentarias son las que reciben más atención, y que son la razón de ser de muchos de los contenidos y actividades de la seguridad alimentaria. Salmonelosis, encefalopatías espongiformes, triquinelosis, son nombres que todos asociamos a alimentos de origen animal. En distinta medida y por distintos mecanismos de transmisión, los animales actúan como reservorios o vectores de enfermedades para la especie humana y comparten muchas de ellas.

Así pues, la sanidad de todos ellos es una de las llaves de la salud pública como eslabón primario en la cadena de transmisión de las zoonosis, en particular los destinados a consumo humano y los que comparten su hábitat con nosotros. Controlando la enfermedad en los animales, evitamos la enfermedad humana. Recuerden la brucelosis -principal zoonosis en nuestro país- y su marcada disminución teniendo como único origen el control de la misma en el ganado, no como consecuencia de nuevos fármacos, vacunas u otras tecnologías aplicadas al enfermo.

Las tasas por 100.000 habitantes pasaron de aproximadamente siete a mediados de los años noventa a menos de tres en diez años, cifras coincidentes con la disminución de la prevalencia en ganado ovino y caprino del 2,5% a un 0,5%, aproximadamente, en el mismo periodo. (Fuente: MAPA).

En todo caso, la iniciativa americana de que veterinarios y médicos establezcan planes conjuntos en relación con estrategias de investigación y lucha contra las enfermedades no es la primera. En septiembre de 2004 comenzó su andadura la red
MED-VET-NET, cuyo acrónimo lo dice todo (European Network of Excellence for prevention and control of zoonoses).

El principal objetivo de esta red europea es la vigilancia sanitaria de las zoonosis. Consiste, pues, en la mejora de la investigación, prevención y control de las zoonosis, especialmente de aquellas de origen alimentario, teniendo en cuenta el concepto de salud pública, la opinión de los consumidores y de otros sectores implicados a lo largo de la cadena alimentaria, mediante la integración de especialistas veterinarios, médicos y expertos en seguridad de los alimentos.

No obstante todo lo anterior, si adoptamos el término de "sanidad global", las facetas de necesaria colaboración entre estas profesiones son aún más: toxicología ambiental, contaminación biótica de recursos hídricos, cambio climático como motor de cambios en la distribución de vectores de enfermedad, ocio y transporte como diseminadores mundiales de patógenos, etcétera.

La lista es interminable y requiere no sólo de médicos y veterinarios, sino de otros profesionales con competencias específicas en multitud de campos: sociología, entomología, toxicología, biología, edafología, etcétera. Un ejemplo magnífico ha sido la influenza aviar, paradigma del concepto de one health: biólogos, meteorólogos, veterinarios, ecólogos, médicos y alguna otra profesión confluyendo para estudiar una misma situación.

Así pues, parece evidente que la sanidad inmediata -no futura- estará integrada por varias profesiones estrechamente vinculadas. Formación es la palabra clave. Es necesario ampliar el currículo de nuestros estudiantes de Medicina, Veterinaria y otras ciencias de la salud con nuevas materias que escapen un tanto a nuestra visión umbilical y nos permitan aprender de otros campos del saber complementarios a los nuestros.
 

 

-Teología cibernética

¿Sueñan los androides con Dios? "Quizá lo hagan algún día", dice Anne Foerst, profesora de Informática y Teología en la universidad franciscana de Saint Bonaventure en Olean, Nueva York (Estados Unidos).

Foerst, también pastora luterana, fue consejera teológica para el grupo de Inteligencia Artificial que construyó los robots humanoides Cog y Kismet, en el Massachusetts Institute of Technology de Boston (MIT). Cog se parece a un torso humano e interacciona con el ambiente; Kismet es un robot social, una cara que reacciona ante una persona mostrando todo tipo de emociones. Si el Comandante Data, el humanoide de la serie Star Trek, se llegó a preguntar si las creaciones de los hombres tenían alma, Foerst piensa que el robot Cog podría tener alma.

"¿Por qué no puede tener alma un robot? Si es suficientemente inteligente, ¿por qué Dios no puede establecer una relación con él?", declaró un día Anne Foerst". De acuerdo con el concepto bíblico, dice esta tecnoteóloga, el alma no es sólo algo individual, sino también social, "y me pertenece por participar en comunidad", dice Foerst, quien recientemente impartió una conferencia en Barcelona.

La autora del controvertido libro God in the machina: what robots teach us about humanity and God ('Dios en la máquina: lo que los robots pueden enseñarnos sobre la humanidad y Dios'), considera que si somos capaces de construir humanoides con suficiente inteligencia social, "entonces sí podrán participar en sociedad". Será entonces cuando, vaticina, tengamos los verdaderos problemas éticos: "Cuando existan robots que tengan emociones, que interactúen con nosotros, ¿cómo los trataremos?". Son cuestiones que tienen numerosas ramificaciones sociales, dice, "aunque aún falta mucho para que veamos aparecer este tipo de robots".

LA ROBÓTICA

Entonces, si los humanoides salen de los laboratorios a la calle, habrá que ver qué normas de urbanidad se establecen, la robotética. Corea del Sur plantea adoptar un código para robots, pero Anne Foerst no cree que sean necesarias normas como una Ley Cero de la robótica, que el escritor y científico Isaac Asimov puso por encima de las tres leyes robóticas que también enunciara. La Ley Cero decía que "un robot no puede hacer daño a la humanidad o, por inacción, permitir que la humanidad sufra daño".

No hace falta ninguna ley adicional porque, dice la teóloga, ya existe una ética construida a partir de los Diez Mandamientos y otros códigos religiosos semejantes, que dicen: "Ama a tus vecinos, respeta, no mates, no robes...". Foerst asegura "que no los seguimos ciegamente para saber qué tenemos que hacer, sino porque pensamos que es lo correcto".

Por ello, cuando un humanoide tenga características que hagan posible su participación en nuestra comunidad, automáticamente deberá participar en esas leyes, que son una fusión de interacciones sociales, afirma. Del mismo modo, Foerst descarta programar los humanoides para un comportamiento ético, "no podríamos tener empatía con ellos".

Mientras, Cynthia Breazeal, la creadora del robot Kismet, trabaja ahora en Leonardo, un robot social con forma de animal. "Es incluso más inteligente que Kismet; tiene un nivel de conocimiento ligero, pero como tiene forma de animal no produce la misma interacción con los humanos", dice Foerst. Esta especialista en analizar la espiritualidad de las máquinas y su interacción con los humanos, considera que mientras que los propietarios de una mascota, ya sea un perro o un gato, piensan que se comunican con ellos, los humanoides, "los robots que están siendo construidos a nuestra imagen y semejanza, sí serán capaces de comunicarse con los humanos; tendremos más empatía con ellos y formarán parte de nuestra comunidad. Será fascinante ver cómo nos relacionaremos con los robots, porque pueden enseñarnos mucho".

LA HORA DE LA MUERTE

¿Por qué a una informática le dio por estudiar teología? "Siempre me había fascinado conocer cómo funcionan los humanos, como interactúan, pero soy mejor investigadora de la tecnología". La cuestión es, dice Anne Foerst, "¿podemos reconstruir cómo son los humanos mediante inteligencia artificial? La inteligencia artificial clásica", añade, "ha intentado construir mentes que resuelvan problemas matemáticos o jugar al ajedrez, pero de repente intentamos crear inteligencia artificial basada en la idea del cuerpo que ha evolucionado y de que nuestra inteligencia social es producto de esa evolución".

Foerst cree que el sentido humano de la muerte marcará una de las diferencias con los futuros humanoides. "La muerte nos hace humanos, sabemos que un día moriremos y nos preguntamos: ¿cuál es el sentido de la vida? Los animales saben cuándo está próximo el momento de morir, pero somos el único animal que entiende que va a morir un día, incluso en nuestros primeros momentos de vida. ¿Y cómo podemos introducir eso en un robot?, porque un robot por definición puede ser reparado".

Fuente: El País Digital, 4 de Julio de 2007

 

 

-El universo desde una idea alternativa

"¿Qué pasó antes del principio de todo, antes del Big Bang? Sí, es una pregunta perfectamente científica; de momento no podemos contestarla, pero es una de esas preguntas que antes era religiosa y que ahora es ciencia", comentaba el físico teórico y premio Nobel David Gross en Madrid, el pasado sábado, poco después de impartir una charla sobre La revolución que se avecina en física fundamental.
 

Él es uno de los máximos expertos en la denominada Teoría de Cuerdas, un atrevido e influyente desarrollo científico que, al menos en el papel, permite profundizar en el conocimiento del universo tanto a la escala cósmica como a la de sus componentes más minúsculos, y avanzar ahí donde la física más convencional -y comprobada- choca con recalcitrantes barreras.

Para muchos investigadores, ese antes del principio sería una pregunta científicamente imposible, una especulación fuera del alcance de cualquier experimento que verifique o descartar una respuesta. Para otros, la ciencia tiene que ser osada, al menos intelectualmente, para ser fructífera. De ideas atrevidas, razonamientos que parecen perturbar el sentido común y soluciones imprevisibles ha estado bien nutrido el congreso Strings 07, que reunió la semana pasada en la
Universidad Autónoma de Madrid (UAM) a 500 físicos teóricos expertos en la denominada Teoría de Cuerdas, Gross entre ellos.

"El Big Bang, la explosión inicial, es algo que no entendemos, porque al extrapolar todo hasta ese punto, hasta el mismo inicio, se pierde el control, la teoría de Einstein se rompe, y las cosas se hacen infinitas", explicó Gross. "Muchas veces en la historia de la física ha habido que cambiar nuestras ideas básicas para abordar preguntas que parecían imposibles. Uno de esos problemas ahora es el origen del universo, y sospecho que vamos a tener que cambiar nuestra comprensión del espacio-tiempo; a lo mejor resulta que el antes del principio tiene así una respuesta simple".

Tal vez muchas ideas de física van a cambiar en este siglo XXI, tal vez hayan empezado ya a cambiar. Al menos algo así se intuía en las sesiones de Strings 07, la edición de este año de la cita mundial de los especialistas en esa Teoría de Cuerdas, definida como la alternativa más desarrollada a las teorías establecidas y comprobadas que describen el universo a gran escala y sus componentes más pequeños. Un mayor énfasis en la cosmología por parte de estos especialistas que hasta hace pocos años parecían volcados más que nada en el ámbito de los componentes más minúsculos de la materia, y un creciente interés por los próximos resultados experimentales que ofrecerá el nuevo acelerador de partículas LHC, han sido rasgos distintivos de este congreso respecto a ediciones de otros años.

No es que las cuerdas tiren por tierra lo que ahora se sabe -casi ninguna buena propuesta científica lo ha hecho en la historia-, sino que se pretende dar paso más lejos, o varios pasos, para profundizar y explicar lo inexplicable. Para unos es un formidable y atractivo desafío; para otros, esos pasos se alejan más de lo deseable de la comprobación experimental, del funcionamiento de la propia naturaleza.

El punto de arranque es simple: las partículas fundamentales no serían puntos, como en la teoría de partículas convencional, sino objetos extensos, literalmente cuerdas. "La Teoría de Cuerdas no sólo hace compatible la mecánica cuántica con la gravitación de Einstein, sino que de forma automática tiene todos los ingredientes necesarios para entender el resto de las interacciones fundamentales de la naturaleza. Partículas familiares como el electrón o la radiación electromagnética corresponden a las vibraciones de menor energía de las cuerdas", explica Luis Ibáñez, catedrático de física teórica de la UAM y coordinador de Strings 07 a través del
Instituto de Física Teórica UAM-CSIC.

Gross, en su charla de divulgación impartida en la
Fundación BBVA, resumió el estado de cosas actual en la física fundamental. "El avance en el conocimiento ha sido extraordinario en el siglo XX: ahora sabemos que hay átomos, que están hechos de núcleos y electrones a su alrededor, y que el núcleo es una estructura compleja formada por protones y neutrones, a su vez formados por diferentes quarks", explicó. Todo lo que nos rodea está hecho de esas partículas.

La teoría vigente basada en la mecánica cuántica, el modelo estándar, que describe las partículas y las tres fuerzas de interacción entre ellas (el electromagnetismo, la fuerza débil y la fuerza nuclear fuerte), "se ha comprobado experimentalmente con una precisión extraordinaria, y con el modelo estándar más la relatividad general de Einstein, que describe la gravedad, abarcamos todas las fuerzas observadas en la naturaleza, así que... hemos terminado, los físicos podemos irnos a casa... Es evidente que no", exclamó Gross.

El problema que todos los físicos reconocen es que la mecánica cuántica y la relatividad no encajan, y eso de tener dos modelos conceptuales incompatibles para describir y entender la naturaleza es incongruente. Sin embargo, la Teoría de Cuerdas combina de modo natural esos dos colosos teóricos de la ciencia, unificando la gravedad y la mecánica cuántica.

Pero si parece simple esta idea básica de las partículas convertidas en cuerdas con efectos asombrosos de combinar lo que de otro modo resulta irreconciliable, la verdad es que la complejidad de la teoría está resultando enorme. Los mismos especialistas creen que esto se debe a que no es aún una teoría terminada. Por ejemplo, de las diferentes soluciones que encuentran a sus ecuaciones no saben cómo elegir la que realmente corresponde a nuestro universo.

Una de sus características menos intuitivas es el hecho de que para que las cuerdas funcionen hace falta pensar y calcular en diez dimensiones, como mínimo, mientras que el universo a nuestro alrededor sólo muestra cuatro: las tres espaciales y el tiempo. ¿Dónde están las demás? El escenario teórico indica que están escondidas, y la estadounidense Lisa Randall, de Harvard, puso en su charla un ejemplo de cómo es posible tratar esas otras dimensiones. Si uno se pone en el lugar de un hipotético individuo bidimensional (plano) que intenta comprender qué es una esfera, la respuesta sería una pila de discos de tamaño creciente hasta el centro de la esfera y decreciente después.

Las dimensiones extra, afirmó Randall, ofrecen muchas respuestas a preguntas que hasta ahora han resultado intratables para la física, y a la vez que se vislumbran con ellas efectos que de otro modo pasarían inadvertidos. "Las extradimensiones podrían ser el gran descubrimiento en los próximos cinco años", dijo Randall. "¿Cómo vamos a evitar explorar sus posibilidades?".

Puede que el universo efectivamente tenga más dimensiones de las que se observan, y que estén como enrolladas, escondidas para nuestros sentidos. Pero los físicos de cuerdas han valorado cómo una aportación destacada en Strings 07, un estudio que hace justo lo contrario. Ha sido un trabajo desarrollado por el gran especialista en cuerdas estadounidense Edward Witten, sobre sólo tres dimensiones, dos espaciales y el tiempo, entendido como laboratorio para profundizar en el análisis de la gravitación.

El atractivo de la idea y las soluciones que se encuentran en el contexto de las cuerdas han atraído a centenares de físicos en todo el mundo hacia esta teoría, que, por otro lado, no ha podido despegarse de la principal crítica: la falta de experimentos en perspectiva que verifiquen si es correcta. El problema es que las cuerdas y sus efectos serían sólo apreciables en condiciones de energía altísimas, fuera del alcance de los laboratorios y aceleradores de partículas con los que se puede contar de modo realista.

"La Teoría de Cuerdas es muy ambiciosa, pero es difícil comprobar si es correcta", comentó Antonio González Arroyo, director del IFT. "El componente especulativo es importante", dijo este físico, que no se dedica al desarrollo de esta teoría, pero que no por ello deja de reconocer su interés. "La verdad es que no conocemos otra teoría capaz de unir la mecánica cuántica y la gravedad, ambas muy bien establecidas por separado". Para otros muchos, la ausencia de predicciones experimentales de una teoría física después de 20 años de desarrollo, es un inconveniente que no se puede pasar por alto en modo alguno.

También hay posturas diferentes entre quienes dedican todo su esfuerzo científico al desarrollo de la Teoría de Cuerdas. Para unos, los avances matemáticos que implica justifican por sí solos el interés. Otros especialistas reconocen que se sienten algo incómodos. "La mayoría de nosotros estamos deseando que haya experimentos [capaces de verificar la Teoría de Cuerdas], pero es muy difícil que haya una evidencia directa a corto plazo", dijo Enrique Álvarez, catedrático de Física Teórica de la UAM.

Para un congreso de física teórica, fue chocante la charla inaugural de Strings07, impartida por un físico experimental: Gigi Rolandi, del
Laboratorio Europeo de Física de Partículas (CERN). Él resumió la marcha del nuevo acelerador de partículas LHC, que debe empezar a funcionar en 2008. No es que nadie sueñe siquiera con la posibilidad de que en este acelerador se generen cuerdas, pero sí podrían descubrirse nuevas familias de partículas elementales, llamadas supersimétricas, con las que cuenta la Teoría de Cuerdas. "Tanto la línea de cuantizar la gravedad, como la de unificar las interacciones fundamentales, apuntan directamente en la dirección de la supersimetría", señalaba Álvarez.

PALMADA EN LA ESPALDA

Desde luego, no será nada definitivo como prueba porque, además, las partículas supersimétricas encajan en otros enfoques teóricos de partículas, sin tener que recurrir al marco de las cuerdas. Pero, desde luego, la posibilidad de que surja el rastro de la supersimetría en LHC aglutinó gran interés en el congreso de Madrid. La opinión unánime es que ese descubrimiento sería una buena palmada en la espalda a la Teoría de Cuerdas.

"Strings 07 ha cubierto temas muy variados dentro del campo, desde la cosmología en la Teoría de Cuerdas, hasta posibles pistas experimentales en el LHC, pasando por la física de agujeros negros y el estudio de la Correspondencia de Maldacena. Quizá se ha notado menos énfasis matemático que en las dos últimas ediciones", resumió Ibáñez. "Otros temas importantes tratados incluyen aplicaciones de la Teoría de Cuerdas en otras áreas, como la física de iones pesados estudiada experimentalmente en el laboratorio de Brookhaven (EE.UU.). Ha sido una conferencia muy interesante".

Fuente: El País, 4 de Julio de 2007

 



 

-Hallan un neurotransmisor que actúa como "interruptor biológico" de la grasa

De acuerdo a sus conclusiones, publicadas en la edición electrónica de «Nature Medicine», este neurotransmisor es activado sobre todo por el estrés crónico. Una llave que ayudaría a explicar la paradoja de cómo hay personas que durante sus vacaciones, a pesar de los casi inevitables excesos veraniegos, pueden llegar a perder algo de peso al alejarse temporalmente de sus presiones y preocupaciones cotidianas.

Pese a la cautela obligada -hasta realizar las pruebas oportunas- sobre la seguridad y viabilidad de este posible tratamiento contra la obesidad, la directora del trabajo, Zofia Zukowska, de la
Universidad de Georgetown, no ha dudado en utilizar el adjetivo «revolucionario» al hablar de la investigación realizada por científicos de Australia, Eslovenia y Estados Unidos. Hasta el punto de haber solicitado ya una patente y negociar con compañías farmacéuticas interesadas, barajando la posibilidad de iniciar estudios con seres humanos dentro de dos años.

DIETA DE "COMIDA BASURA"

Estos científicos han expuesto a ratones a situaciones de estrés crónico, como colocarles en agua fría durante una hora al día o enjaularlos con ejemplares agresivos. Además de administrarles una dieta normal y otra con altos niveles de grasa y azúcar, similares a los que se encuentran en la «comida basura» cada vez más consumida en países industrializados. Según ha explicado la profesora Zurkowska, «al tratar a los ratones de la forma en que los seres humanos son tratados, con la introducción de un estrés crónico del que no pueden escapar y una abundancia de comida, hemos reproducido lo que pasa en sociedades como la estadounidense».

Tras dos semanas de esta rutina de nervios y «junk food», los ratones sometidos a estrés y mala alimentación engordaron significativamente. Acumularon hasta el doble de grasa en sus panzas que los ratones sin estrés a los que se les administró la misma dieta hipercalórica. Según la doctora Zukowska, «esto nos dice que el problema se encuentra en la combinación del estrés y una dieta rica en grasas y azúcar».

RIESGOS ASOCIADOS

Además, los análisis realizados han demostrado que los ratones estresados y mal alimentados han desarrollado la peor de las gorduras, en torno al abdomen y repleta de hormonas y productos químicos que pueden promover enfermedades. En el plazo de tres meses, este grupo de animales pasó el listón de la obesidad con los problemas típicos de alta presión sanguínea, diabetes temprana y peligrosos niveles de colesterol.

Con todo, lo más interesante de este estudio internacional es que los análisis del tejido graso acumulado por estos ratones «humanizados» presentan elevadas concentraciones de una sustancia conocida como neuropéptido Y (NPY), un mensajero químico producido por el sistema nervioso -neurotransmisor-, y su receptor Y2R, vinculados al apetito y el almacenamiento de grasa. Investigaciones anteriores habían demostrado que los seres humanos con defectos en estos receptores son resistentes a la obesidad, mientras que los que presentan un exceso tienen tendencia al sobrepeso.

INYECCIONES BLOQUEANTES

Estos trabajos han logrado demostrar también que al inyectarse una sustancia bloqueante del neuropéptido NPY se evita que los ratones engorden, incluso aquellos estresados y sobrealimentados. Con la posibilidad de reducir depósitos de grasa entre un 40 y un 50 por ciento en cuestión de dos semanas. Lo que podría llegar a servir de alternativa a los actuales procedimientos quirúrgicos de liposucción.

A juicio de la profesora Zukowska, «creemos que hemos encontrado el mecanismo natural que los mamíferos utilizan para acumular grasa, y revertir ese proceso puede llegar a ser la cosa más natural».

Fuente: ABC Periódico Electrónico S.A., 3 de Julio de 2007
 


 

-Juan Maldacena: un día el universo colapsará y surgirá una realidad distinta

Juan Maldacena, profesor en el Instituto de Estudios Avanzados de Princeton (Nueva Jersey), está considerado como uno de los físicos teóricos más prometedores. Dedica la mitad de cada día a investigar la teoría de cuerdas con el Santo Grial de la Física en mente: formular la teoría única capaz de explicar el comportamiento de todas las fuerzas que actúan en el Universo. Ha pasado por Madrid, invitado por la Fundación BBVA a su ciclo de conferencias sobre «La Física fundamental en el siglo XXI».

Pregunta. Einstein no lo logró... ¿La teoría de la Unificación es una frontera próxima en la Física?
Respuesta. Tratamos de hallar una formulación común que explique todas las fuerzas que actúan en el Universo de una forma coherente. No es una cuestión estética, sino de consistencia matemática. La unificación no tendría importancia práctica en lo inmediato, pero sería fundamental para entender el origen y la mecánica del Universo... y, francamente, no sé cuán cerca o lejos estamos de lograrlo.

P. Los físicos teóricos perseveran y surgen nuevas fuerzas, nuevas partículas, nuevas dimensiones... la Física se aleja de la realidad palpable, ¿no la estarán convirtiendo en un fin en sí misma más que en una herramienta?
R. El conocimiento del Universo es un fin en sí mismo. La Física teórica no generará aplicaciones tecnológicas inmediatas, pero sí a largo plazo. La humanidad se hace preguntas y nos gusta responderlas.

P. ¿Son la Física y las Matemáticas dos formas de explicar el Universo, o se trata de la misma vía?
R. La Matemática explora estructuras lógicas, relaciones que no resultan obvias al primer golpe de vista. Es una extensión de nuestra capacidad de razonar. La Física describe la naturaleza y para ello emplea el lenguaje de la Matemática, nuestro trabajo es encontrar las estructuras matemáticas que reflejen la naturaleza.

P. Usted afirma que el Big Bang, el nacimiento del Universo, le fascina. Todo lo que ha seguido a ese momento germinal ¿es una concatenación de desórdenes aleatorios o sigue un modelo lógico?
R. Nuestra comprensión actual de la teoría de cuerdas sugiere que hay muchos posibles universos, muchos pero finitos, y todavía no sabemos por qué este universo es así. Sí sabemos que se trata de un todo bastante uniforme y que parece responder a un modelo lógico más que a la teoría del desorden.

P. Algunos consideran que la teoría de las cuerdas ofrece demasiadas soluciones a cada problema...
R. Sí, encontramos muchas soluciones y el debate gira en torno a cómo integrarlas.

P. Todas las demás fuerzas han sido integradas, pero ¿van a encontrarle acomodo a la teoría de la gravedad en un universo multidimensional de cuerdas vibrando?
R. Ese es el objetivo, integrar la teoría general de la relatividad con la mecánica cuántica. Pero la teoría de cuerdas está aún en construcción. Hay cosas que ya podemos describir con ella, pero otros aspectos todavía no.

P. Ustedes hablan de los agujeros negros como de una predicción. ¿Es algo que han inventado para explicar lo inexplicable?
R. Los agujeros negros son objetos que ya predijo la teoría de Einstein, una teoría ya clásica y verificada. Sólo en nuestra galaxia hay millones de ellos, Tenemos la suerte de que algunos de los que están a nuestro alcance están absorbiendo materia, y emiten radiación que nos proporciona información precisa sobre el propio agujero. Son objetos físicos no más misteriosos que una estrella. Su interés es que se trata de objetos en los que el espacio-tiempo se comporta de una manera muy rara. Los que se forman a partir del colapso de estrellas tienen un tamaño muy grande, como mínimo de diez kilómetros, pero los que de verdad nos interesan son los microagujeros negros, en los que la mecánica cuántica es fundamental. Si la unimos a la teoría de la relatividad, la gravitación cuántica tiene que bastar para explicar su comportamiento.

P. ¿Explican los agujeros negros la materia oscura?
R. No. La materia oscura está constituida fundamentalmente por nuevas partículas.

P. Volviendo al Big Bang... el Universo sigue expandiéndose, ¿lo hará eternamente?
R. La Física establece que el resultado de cualquier proceso depende de sus condiciones iniciales. No sabemos lo que determinó los primeros instantes del Big Bang, pero sí sabemos lo suficiente para pensar que el Universo se expandirá aún durante mucho tiempo, las galaxias se van a diluir... pero eso no ocurrirá eternamente, ni se alcanzará un punto de equilibrio. No, el Universo desandará el camino en un proceso de implosión y, un día, colapsará y entonces el espacio-tiempo dejará de ser válido y surgirá una realidad distinta.
 

Fuente: ABC Periódico electrónico S.A, 2 de Julio de 2007


 

 

-Descubren una estructura bajo la tumba que vigilan los guerreros de Xian

Tras cinco años de investigación, arqueólogos chinos han confirmado la existencia de una misteriosa construcción de 30 metros de altura sepultada en el vasto mausoleo del primer emperador chino, escoltado por los célebres guerreros de terracota.

La edificación está rodeada por muros escalonados y podría haber servido para que "el alma del emperador pasara a mejor vida", según informa la agencia estatal, Xinhua.

Desde el año 2000, los arqueólogos han utilizado tecnología sensorial remota para estudiar la estructura interna del mausoleo, cuya excavación está suspendida desde hace años debido a que los medios utilizados en China no garantizan la conservación de lo que se descubra.

La recién hallada construcción está sepultada sobre la tumba principal y cada muro cuenta con nueve escalones, explicó Duan Qingbo, investigador del Instituto de Arqueología de Shaanxi, provincia norteña donde está ubicada Xian, la ciudad que acoge el mausoleo del primer emperador.

Qin Shihuang (221-206 a.C.) comenzó a reinar con sólo 13 años, fue el primer emperador que consiguió unificar el país y estableció su capital cerca de Xian, donde en 1974 un campesino descubrió los guerreros de terracota. Hasta ahora se han desenterrado sólo un millar de los 8.000 guerreros que, según los expertos, escoltaban la tumba.

Las investigaciones realizadas hasta ahora estiman que el mausoleo tiene 2,13 kilómetros cuadrados de superficie y, junto a otras 181 tumbas extendidas por la zona, cubre una superficie total de 60 kilómetros cuadrados.

Unos 720.000 obreros trabajaron durante 38 años para construir esta monumento funerario que, según la leyenda, esconde un vasto palacio subterráneo con ríos de mercurio y techos de perlas y diamantes que representan las estrellas y el cielo.

Fuente: EFE, 2 de Julio de 2007

 

 

-El mapa español del secuestro del dióxido de carbono

El futuro en la mitigación del calentamiento global está en la captura y almacenamiento de dióxido de carbono (CO2), principal gas de efecto invernadero. Así lo dijo el Informe del Panel Intergubernamental del Cambio Climático (IPCC) presentado en mayo en Bangkok, aunque la realidad es que las tecnologías para ello ya están aquí. En España ya se está trabajando en varias plantas piloto de captura de dióxido de carbono, pero cuando se pase de la fase de demostración a la comercial, ¿dónde se almacenará ese CO2 capturado?

En esto trabaja desde hace un año y medio, en el marco del proyecto europeo Geocapacity, un equipo del Instituto Geológico y Minero de España (IGME). Miguel Ángel Zapatero, coordinador general de almacenamiento de CO2 del IGME, explicó a ABC que están elaborando un mapa del potencial teórico de almacenamiento geológico que podría haber en nuestro país. Las primeras estimaciones se refieren a que la España peninsular podría almacenar al menos entre 45-50 gigatoneladas de CO2. Esto sin contar la plataforma continental, «algo que se estudiará más adelante», dijo Zapatero.

El CO2 puede almacenarse en yacimientos ya agotados de petróleo y gas -formaciones geológicas gigantes y selladas pues han contenido esos fluidos durante millones de años-, en capas de carbón inexplotables y en formaciones salinas profundas, con una capacidad de almacenamiento muy grande. Éstas están en todas las cuencas sedimentarias terrestres y marítimas, y no sólo en algunos lugares, como los yacimientos, y es precisamente donde nuestro país tiene ese gran potencial. «España tiene posibilidades de contar con almacenamientos propios sin tener que recurrir a los yacimientos agotados del Mar del Norte», asegura este doctor ingeniero de Minas.

SUELOS SIN POROSIDAD

Así, Zapatero avanza que hay un tercio de la Península Ibérica que queda descartado por tratarse de suelos graníticos y metamórficos que no tienen porosidad para poder almacenar este gas. Se trata de un área que iría desde Galicia hasta el Macizo Ibérico y bordeando el Duero llegaría hasta Salamanca y Extremadura. El resto de la Península tiene mayor potencial de almacenamiento, si bien hay cuencas geológicas más favorables que otras. Sin querer entrar en emplazamientos concretos, «pues eso dependerá también de la proximidad de los focos emisores de CO2», Zapatero explica que las más favorables son «las cuencas, en su contexto geológico, del Ebro, el Duero, el Tajo y el Guadalquivir».

Se trata de «grandes áreas geológicas» y su idoneidad radica en que «tienen un gran recubrimiento de arcillas, un sello impermeable que impide cualquier fuga», dice el investigador. Bajo ese recubrimiento lo que hay son formaciones areniscosas y calcáreas con porosidad y permeabilidad.

El dióxido de carbono, una vez capturado en la chimenea de la planta en cuestión, se inyectaría a partir de los 800 metros de profundidad y hasta 2.500 metros. Si bien «lo ideal es hacerlo lo más cerca posible de los 1.000 metros para no encarecer el proceso». El CO2, una vez comprimido y llevado a unas condiciones de casi puro, se introduce a través de unos pozos de inyección. A una profundidad de más de 800 a 1.000 m, el CO2 se vuelve hipercrítico y adquiere una densidad de líquido. Isabel Suárez, técnico del IGME, explica que una tonelada de CO2 en condiciones naturales de 0 grados y 1 bar de presión ocupa 503 m3, mientras que en el subsuelo, en condiciones de 35 grados y 100 bares, ocupa 1,39 m3. Por tanto, dice Zapatero, esta densidad «brinda la posibilidad de utilizar de forma eficiente el espacio de almacenamiento subterráneo, pues ocupa 500 veces menos en el subsuelo que en superficie, además de mejorar la seguridad del almacenamiento». Una cuestión, la de la seguridad, en la que Zapatero insiste mucho.

Así, se ponen pozos de monitorización, de control, que detectan si hay una fuga. No obstante, matiza, se trata de «buscar simplemente formaciones y estructuras iguales que las que la naturaleza ha desarrollado y que durante millones de años han mantenido secuestrado el petróleo o, en el caso de nuestro país, estructuras llenas de agua salina -no apta para la agricultura o para el consumo humano- que no se ha escapado en todo este tiempo.

Por tanto la tecnología de inyección está conseguida y la seguridad es total, dicen desde el Instituto Geológico y Minero. Aunque hubiera una hipotética e improbable fuga, dice Zapatero, el CO2 no es combustible. Es más peligroso el almacenamiento de gas en el subsuelo porque si hay una fuga sí que es combustible. Lo que pasaría con el CO2 es que al ser más pesado que el aire, lo desplazaría, pero eso sólo sería dañino en un lugar cerrado.

INVERTIR EN INVESTIGACIÓN

Lo único que falta ahora es inversión en investigación y que se formen consorcios entre las empresas eléctricas y petroleras y organismos de investigación para llevar esta tecnología adelante y, por ejemplo, comenzar con los test de inyección como ya se está haciendo en Ketzin (Alemania) en una formación permeable con agua salada. Bajo el patrocinio de la UE, se ha creado un consorcio de empresas y del Gobierno alemán para inyectar de forma piloto y a pequeña escala CO2 en este acuífero salino. Un paso que hay que dar en nuestro país si queremos que la tecnología sea una realidad comercial a partir de 2020, dice Zapatero.
 

Fuente: ABC Periódico Electrónico, 2 de Julio de 2007

 


 

-Una "tijera molecular" logra extirpar el virus del sida de células infectadas

Científicos de sendos laboratorios en Hamburgo y Dresde han conseguido «recortar» los genes del virus del sida de células humanas infectadas por medio de una llamada «tijera molecular». A seguido del corte y separación, han logrado que las células enfermas sanaran, en lo que parece aventurar un avance fundamental en el tratamiento del virus que causa la inmunodeficiencia. A la postre, «la célula infectada logra ser curada», asegura Joachim Hauber, responsable del proyecto en el Instituto Heinrich Pette de virología e inmunología experimental en Hamburgo.
 

«Hemos logrado deshacernos del virus en las células, algo que no había sido logrado nunca antes», lo que califica como un «hito biotecnológico» en la revista «Science», pues por primera vez no se trata de frenarlo sino de eliminarlo. La operación, en la que participaba asimismo el Instituto Max Planck de biología molecular y genética en Dresde, ha requerido el desarrollo de una enzima especial según el esquema de las recombinasas, unas proteínas capaces de cortar como una tijera y volver a pegar las secuencias de ADN.

Hauber es optimista con respecto a la esperanza de desarrollar en un plazo de 10 años una terapia acorde para humanos e indica que durante tres años se llevarán a cabo experimentos con ratones, antes de abordar un amplio estudio sobre pacientes en Hamburgo. «Esto es medicina de alta tecnología, que no se puede administrar en forma de píldora», explica Frank Buchholz, responsable del equipo en Dresde.

Hasta ahora, la infección con el virus de inmunodeficiencia humana (VIH) era considerada irreversible, dado que el retrovirus inserta su ADN en el genoma de las células humanas. Pero la línea de investigación ha aprovechado por primera vez las características de las enzimas naturales recombinasas, capaces de reconocer una secuencia de bases de ADN y cortar y pegar exactamente sobre la misma.

DOS SECUENCIAS IDÉNTICAS

Al parecer, el genoma del virus del sida tiene en ambos extremos dos secuencias idénticas, perfectamente conocidas, que apenas sufren modificaciones aun en el caso de mutación del VIH, y aquí es donde el equipo de Dresde empleó la llamada tijera molecular. Hauber matiza que, en el proceso, «deben obtenerse células madre de la sangre del paciente y limpiarlas luego de virus en laboratorio». Las células así tratadas serían reintroducidas en el paciente y deberían regenerar el sistema inmune. Es probable que así no pudiesen ser eliminados del organismo todos los virus, pero la teoría contempla que se produjese un retroceso de la carga viral tal que la infección resultase controlada.

Fuente: ABC Periódico Electrónico S.A,  2 de Julio de 2007