Las islas
Canarias han sido arrasadas por varios incendios que han provocado la
evacuación de más de 12.000 personas y han quemado unas 35.000 hectáreas.
A vista de satélite así se ve el incendio
Zonas afectadas en Canarias por los incendios
forestales
Gran Canaria
La cifra de evacuados en Gran Canaria
por el fuego declarado el pasado viernes asciende a más de 5.000 personas y han
quedado arrasadas unas 20.000 hectáreas de monte, informó el presidente del
Cabildo, José Miguel Pérez, que anunció unas
ayudas de 300.000 euros
para los damnificados.
Incendio propagándose en las cercanías de San
Bartolomé
Pérez explicó que persisten focos muy
"latentes" en la zona del Sequero, la zona más alta de San
Bartolomé de Tirajana, para evitar ascienda al Pozo de las Nieves,
donde se encuentra el nudo de comunicaciones más importante, situado en pleno
corazón de la isla y su zona más elevada.
Ayagaure
El viento ayuda parcialmente a contener
el avance de este frente, pues no sopla en contra. No obstante,
las altas temperaturas persisten por encima de 40 grados y la
humedad es muy baja, un índice "inédito" en la isla.
Así se veía el incendio desde Tejeda
El frente situado en la zona de
Fataga empieza a ser controlado por aire y por tierra. Asimismo, la
fuente manifestó que se teme por el frente de la zona de la presa de
Siberio, porque podría afectar al municipio de Artenara
y al pinar de Tamadaba. Mientras, la situación en la zona de
La Aldea de San Nicolás y Mogán ha mejorado.
El humo del incendio llegando a las instalaciones
hoteleras de Mogán
Pérez pidió prudencia a la población y
que no se desplacen al interior de la isla, y reiteró que la
seguridad de las personas es la prioridad. El desalojo de las poblaciones
iniciado en la madrugada del pasado lunes obligó a elevar el nivel de
emergencia a 2, por lo que las competencias de coordinación recaen
desde el lunes en el Gobierno canario.
Helicópteros de gran capacidad de carga colaboran
en la extinción del incendio
El presidente del Gobierno canario,
Paulino Rivero, reconoció el lunes que la situación es "compleja,
difícil, dramática", por lo cual la única
prioridad es evitar la eventual pérdida de vidas humanas y, con ese fin, atajar
las llamas.
La policía intenta poner orden en la situación
evitando que llegue gente a las zonas afectadas
La ministra de Medio Ambiente,
Cristina Narbona, viajó a Gran Canaria para evaluar, con las
autoridades regionales e insulares, el alcance del incendio.
Un trabajador forestal, detenido como
presunto autor del
incendio,
ingresó en prisión por
orden de la juez del Juzgado de Primera Instancia e Instrucción de Arucas.
Juan Antonio Navarro presunto autor del incendio
Tenerife
El incendio forestal que afecta a la
isla ha provocado la evacuación de 7.500 personas. El presidente del Cabildo de
Tenerife, Ricardo Melchior, dijo que se encuentra prácticamente controlado el
frente este del fuego, mientras que el más activo es que el que afecta a los
municipios de Garachico, El Tanque,
Santiago del Teide y una parte de Icod de los Vinos.
El perímetro del fuego abarca 15.000
hectáreas. La fuerza de viento ha oscilado entre 45 y 65
kilómetros por hora, lo que ha permitido la rápida extensión del incendio.
Melchior destacó que en la zona norte,
el contrafuego realizado evitó que las llamas llegaran hasta el Valle de
La Orotava y afirmó que en esa zona hay un dispositivo de control para
la extinción total del fuego.
La misma fuente dijo que unas 300
personas trabajan en la extinción del fuego así como 34 vehículos, cinco
helicópteros y un hidroavión del Ministerio de Medio Ambiente. Además, Defensa
ha enviado desde Valencia y Zaragoza 150 efectivos de la Unidad Militar
de Emergencias (UME) con equipos y herramientas individuales de lucha
contra el fuego.
La Gomera
El incendio forestal declarado esta
madrugada en el municipio gomero de Alajeró, que quemó 60
hectáreas, ha quedado controlado y los 100 vecinos desalojados han podido volver
a sus casas, informó el Cabildo Insular.
El incendio comenzó sobre las 02.45
horas en la zona de Targa, al parecer por un cortocircuito en
una de las torres de media tensión ubicada en el pueblo.
El consejero de Política Territorial y
Medio Ambiente, Javier Trujillo, indicó que, salvo una pequeña vivienda de
madera, no se produjeron grandes pérdidas materiales. Recordó también que este
es el segundo incendio forestal que se declara en la isla en los últimos días,
ya que el pasado viernes se originó uno en la zona de Chipude,
controlado pero aún sin extinguir.
Un tercio de la masa forestal de
Gran Canaria ha sido quemada
La Fundación Foresta que trabaja por la
reforestación en el Archipiélago estima que Gran Canaria ha perdido un tercio de
su masa forestal en el incendio que la castiga desde el viernes. Además,
denuncia que el daño que sufre esta isla amenaza seriamente la supervivencia de
más de treinta especies de fauna y flora endémica de las Islas. Sostiene que la
precariedad de fondos en los presupuestos públicos para limpieza y mantenimiento
del bosque canario tiene mucho que ver con la tragedia.
El fuego ha consumido ya una parte
importante del triángulo que forman los pinares de Inagua, Pajonales y Ojeda, la
superficie de pinar de mayor continuidad de la Isla. El entorno de la Presa de
las Niñas y de Chira, el pinar de Pilancones y las proximidades al Barranco de
Fataga son otras zonas también afectadas por el incendio. Aún sin datos
definitivos, la Fundación Foresta estima en un comunicado remitido a ACN que la
superficie de bosque quemada supone más de un tercio de la masa forestal en la
Isla. Además, la supervivencia de más de treinta especies de fauna y flora
endémicas está seriamente amenazada.
La precariedad de fondos en las partidas presupuestarias para limpieza y
mantenimiento del bosque canario, una normativa que impide a los propietarios
realizar las actividades tradicionales de aprovechamiento forestal y la falta de
un objetivo claro para la conservación del medioambiente constituyen los puntos
básicos que, según la Fundación Foresta, confluyen en la propagación de los
fuegos y el agravamiento de los focos.
Desde finales de 2006 la Fundación Foresta ha denunciado la falta de recursos
destinados por el Gobierno de Canarias a tareas tan básicas en la prevención de
incendios y mantenimiento de los ecosistemas como la limpieza y el
aprovechamiento forestal. Este hecho ha multiplicado el impacto del fuego
iniciado en Gran Canaria el pasado viernes favoreciendo su expansión y
convirtiéndolo en el mayor incendio de la historia del Archipiélago.
Además, la Fundación Foresta afirma sumarse a las protestas de propietarios de
fincas agrícolas y vecinos de las zonas afectadas ante las prohibiciones
impuestas por la Ley de Espacios Naturales Protegidos, en relación a los
aprovechamientos forestales que se vienen haciendo de forma tradicional y que
desempeñan una función clave en la prevención de incendios y otros desastres
naturales. Como parte de la solución la Fundación Foresta demanda al Gobierno de
Canarias la aprobación definitiva de las Directrices Generales de Ordenación
Forestal, que vendrían a regular de forma global la actividad forestal del
Archipiélago y que podrían dinamizar la acción de conservación y protección de
los bosques canarios.
De cara al futuro, añaden, varias son las líneas de actuación que a criterio de
la Fundación Canaria para la Reforestación resultan vitales para garantizar la
recuperación de las zonas afectadas y la conservación del resto del bosque
grancanario.
En primer lugar las instituciones gubernamentales "deben invertir más y mejor en
acciones de estudio, reforestación, mantenimiento y conservación del Patrimonio
Natural Canario". En segundo lugar se hace necesario que el medio ambiente se
convierta en uno de los objetivos primordiales del ejecutivo canario, a fin de
evitar que desastres como el que acontece no se repita. Y finalmente, para la
Fundación Foresta, es crucial "la dinamización de las políticas forestales
poniendo en marcha acciones como el Plan de Desarrollo Rural, pendiente de
aprobación, la concesión y tramitación de las subvenciones sectoriales, y la
valoración urgente de las pérdidas ocasionadas por los incendios y la puesta en
marcha de ayudas específicas y de compensación a los propietarios".
Desde su nacimiento en 1999 la Fundación Foresta ha repoblado un total de 238
hectáreas de monte, incluyendo fincas agrícolas privadas y terrenos municipales
extendidos por toda la geografía insular. En estos momentos la Fundación
continúa haciendo balance de las pérdidas ocasionadas por el fuego en estos
trabajos y en la repercusión del mismo en proyectos a medio plazo.
Los incendios de Gran Canaria y Tenerife suman 34000
hectáreas afectadas, 12000 evacuados y 2 heridos leves
Dos incendios de dimensiones históricas sacuden con
brutalidad las islas de Gran Canaria y Tenerife. En Gran Canaria, son ya cerca
de 20.000 las hectáreas que han sido afectadas tras 94 horas de incendio, que
han forzado la evacuación de aproximadamente 5.000 personas. En Tenerife, el
incendio ya va por las 14.000 hectáreas y los evacuados alcanzan ya las 7.000
personas. En ambas islas el viento ha bajado un poco, con lo que todos los
medios aéreos disponibles trabajan en estos momentos en la extinción. El fuego
en Tenerife es por ahora el más descontrolado, con dos frentes activos muy
peligrosos, mientras que en Gran Canaria preocupa la reactivación de tres focos
en la zona de Tunte.
Incendio visto desde el Guirete (Gran Canaria)
Según los últimos datos de que dispone
el Gobierno de Canarias, la situación es preocupante en ambas islas, pero en
Gran Canaria ya empieza a haber un poco más de optimismo. En estos momentos,
preocupa la reactivación de tres focos en la zona de Tunte, uno en la zona del
mirador, otro a los lados de la carretera de Tunte para Villagarcía y un tercero
en el frente de la Presa del Mulato.
Se sigue trabajando intensamente en el Frente de Monteleón, al igual que en el
foco de Fatiga. La noticia positiva es que están estabilizados los focos de
Sequeros (aunque tiene el riesgo de reavivarse) y el incendio de Siberio y todo
el flanco del oeste, el más próximo a La Aldea de San Nicolás.
En Gran Canaria, ya están actuando todos los medios aéreos disponibles después
de que le viento haya remitido un poco. En total, hay 8 helicópteros en Gran
Canaria, de los que tres son Kamov del Ministerio de Medio Ambiente, 2
helicópteros Sopor para el traslado de los agentes en primera línea de fuego y
tres helicópteros más, dos del Cabildo y uno del Gobierno de Canarias.
La única incidencia relativa a la salud de las personas en Gran Canaria ha sido
el vuelco de uno de los camiones de la UME, que dejó dos heridos en el frente de
Ayacata. Uno de los militares se consideraba en estado grave con un dolor
cérvico dorsal y otro ha sido herido leve con erosiones.
En Tenerife, mientras, la situación se considera aún más descontrolada y
peligrosa, en un incendio que empezó inicialmente en Los Realejos y ha ido
creciendo a velocidades vertiginosas, hasta el punto de que ya hay entre 13.000
y 14.000 hectáreas afectadas. En Tenerife, los problemas están en dos frentes
muy activos, uno entre Los Realejos e Icod de los Vinos y otro entre Santiago
del Teide y Guía de Isora. En este segundo caso, la principal preocupación
consiste en evitar que el fuego salte a Monte del Agua, lo que afectaría a un
importante bosque de laurisilva.
En Tenerife, están actuando en estos momentos también todos los medios aéreos
disponibles (4 helicópteros del Gobierno canario, uno del Cabildo y un avión de
carga en tierra). Tras la evacuación de 7.000 personas, los servicios sanitarios
han tenido que realizar un total de 10 intervenciones, todas ellas a las
personas que estaban siendo desalojadas. Las crisis nerviosas y ataques de
ansiedad han sido lo más tratado.
Fuente: elmundo.es, La Provincia, 31 de Julio de
2007
-¿Por qué practicar el
sexo?
¿Por qué practicar
el sexo? A muchos les parecerá una pregunta peregrina. Y, sin embargo, no
existe una sola respuesta. Por lo menos hay 237. Eso es lo que se desprende
de una investigación dirigida por dos investigadores del departamento de
Psicología de la Universidad de Texas. El estudio será publicado en 'Archives of
Sexual Behavior', pero ya se puede encontrar en el sitio de internet de esa
revista.
Según Cindy Meston y David Buss,
directores de la investigación, junto a razones obvias como "para tener hijos",
"por placer" o "para aliviar la tensión sexual", las personas entrevistadas
dieron otras menos esperadas, como "para acercarme a Dios" o
"para quemar calorías".
No siempre las respuestas dejan en buen
lugar a quien las da. Hubo personas que dijeron desear sexo para "para vengarme
de mi pareja porque me engañó" o "porque estaba borracho". En el otro extremo,
también hubo respuestas altruistas del tipo de "quería que se sintiera bien
consigo misma". También hubo respuestas como "para pagar un favor", "para
mantenerme caliente", "para cambiar el tema de conversación", o "alguien me
desafió a ver si me animaba". Quizás la más sorprendente sea "para
quitarme el dolor de cabeza".
Según los autores, la principal
conclusión que se desprende de su estudio es que las personas tienen
motivaciones sexuales muy complejas. Practican sexo, o no lo hacen,
dependiendo de circunstancias muy diversas como, por ejemplo, el género, el
atractivo físico, la emotividad, el estatus social o las presiones externas.
Fuente: elmundo.es, 31 de Julio de 2007
-Cambio climático, más
huracanes
Según un estudio llevado a cabo por un
equipo de científicos estadounidenses, el número de huracanes en el Océano
Atlántico se duplicó en el último siglo debido al cambio climático.
Para los responsables del estudio, el
aumento en el número de huracanes se debe al incremento de la temperatura de la
superficie de los océanos y a cambios en el comportamiento de los vientos, ambos
causados por el cambio climático.
Pero otros científicos consideran que
los huracanes son cíclicos y que el aumento registrado es un reflejo de una
pauta natural.
2007 será abundante en huracanes
En el estudio, realizado por el Centro
Nacional de Investigaciones Atmosféricas de Colorado y el Instituto Tecnológico
de Georgia, ambos en EE.UU., se analizó la frecuencia de este fenómeno
meteorológico desde el año 1900 hasta nuestros días.
Así, llegaron a la conclusión de que
hoy en día se producen el doble de huracanes que hace 100 años.
Los científicos identificaron tres
periodos diferentes desde 1900 en los que la frecuencia de los huracanes y las
tormentas tropicales aumentó de forma drástica, manteniéndose a un nivel
elevado.
Durante el primer periodo, entre 1900 y
1930, hubo una media de seis tormentas tropicales, cuatro de las cuales fueron
huracanes.
En el segundo, entre 1930 y 1940, hubo
diez tormentas tropicales, de las cuales cinco fueron huracanes.
Por último, entre 1995 y 2005 se
produjeron 15 tormentas tropicales, de las que ocho fueron huracanes.
Según los autores del estudio, el
aumento de la temperatura de la superficie de los océanos provocada por el
cambio climático es la causa principal para este incremento.
Temporada muy activa
"En el periodo estudiado hubo
variabilidad natural en la frecuencia de los huracanes, pese a que, en nuestra
opinión, ésta contribuyó en menos de un 50% al incremento detectado".
"Aproximadamente el 60% o 70% del
aumento de la pasada década puede ser atribuido directamente al calentamiento
causado por los gases con efecto invernadero", concluyeron los investigadores.
Según los expertos, en 2007 la temporada de huracanes
será muy activa, con nueve huracanes previstos, de los que se espera que cinco
sean de fuerte intensidad.
-Una expedición rusa se prepara para llegar al
fondo marino en el Polo Norte
Una expedición polar
rusa ha llegado a la Tierra de Francisco José, archipiélago ártico donde
efectuará las primeras inmersiones submarinas en batiscafos previas al descenso
al fondo marino que planea realizar el domingo en el Polo Norte.
Los científicos se encuentran en el
buque laboratorio 'Académico Fiódorov' que, conducido por el rompehielos atómico
'Rossía', lleva a bordo los batiscafos tripulados Mir-1 y Mir-2, que en el Polo
Norte efectuarán inmersiones de hasta 4.300 metros de profundidad.
Son los mismos batiscafos que el
director de cine James Cameron utilizó en 1995 para el rodaje de su famoso 'Titanic',
galardonado con 11 premios Oscar, y que participaron, aunque
infructuosamente, en los intentos de rescatar el submarino nuclear ruso 'Kursk',
hundido en el Ártico con sus 118 tripulantes en agosto de 2000.
En la Tierra de Francisco José
(Archipiélago de Fritjof Nansen), los batiscafos descenderán a profundidades de
hasta 1.500 metros, dijo a Itar-Tass a bordo del buque laboratorio Vladímir
Strugatski, vicepresidente de la Asociación de Exploradores Polares.
El jefe de la expedición, Artur
Chilingárov, explicó a su vez que estos descensos inicialmente no estaban
programados, pero se decidió realizarlos para poner a prueba todos los equipos
técnicos antes de la "complicada y arriesgada misión" prevista
para el domingo.
"Tocar el fondo del Océano Glacial
Ártico, el más severo de todos, en el punto donde convergen los meridianos en el
hemisferio norte, es un viejo sueño de la Humanidad", dijo
Chilingárov, conocido explorador polar y vicepresidente de la Duma rusa.
Chilingárov confirmó que durante una de
las inmersiones en el Polo Norte se depositará en el fondo marino una
cápsula de titanio con la bandera rusa y un mensaje conmemorativo de la
expedición.
Mientras, el rompehielos realiza una
misión colateral, al desembarcar en la isla de Kheysa, donde se encuentra la
estación polar más septentrional, Krenkel, a un equipo de ornitólogos
que durante una semana observará a las gaviotas blancas, incluidas en el Libro
Rojo de especies en extinción.
La Tierra de Francisco José,
perteneciente a Rusia y ubicada entre los 80 y 81,9 grados de latitud norte,
está compuesta por 191 desérticas islas cubiertas de hielo, a una distancia de
aproximadamente mil kilómetros del Polo Norte.
Tras completar las misiones previstas,
la expedición bordeará el archipiélago por el este y se dirigirá hacia la cima
del planeta, con la previsión de encontrarse con los primeros témpanos de hielo
tras los 82 grados de la latitud norte.
Fuente: elmundo.es, 29 de Julio de 2007
-Llega la eco-moda
El cambio climático ha llegado también a la pasarela.
Ejecutivos de la moda y responsables de compras de ropa están almacenando trajes
de telas más finas y ligeras para la próxima primavera fabricados con tejidos
que repelen el agua y no se arrugan, según explicaron durante los desfiles
celebrados en la última semana de junio. Algunos tienen incluso capacidad de
generar la energía necesaria para recargar el iPod. El gris es el color estrella
de estas nuevas prendas.
"En el mundo hace más calor, por lo que se necesita
comprar un traje que se pueda llevar durante 10 meses al año", señala Colby
McWilliams, director de moda para la empresa Neiman Marcus Group, con sede en
Dallas. "Lo que estamos viendo es la tecnología aplicada a los tejidos para
hacer trajes más cómodos y de bajo mantenimiento".
Para los que tienen auténtica conciencia verde,
Ermenegildo Zegna, conocido por sus lujosos trajes de hombre, ha presentado una
chaqueta con paneles solares en el cuello que permite recargar un teléfono móvil
o un iPod. La chaqueta, de la que James Bond podría sentirse orgulloso, cuesta
750 dólares (550 euros) y estará en las tiendas en noviembre.
"No hemos resuelto el problema del calentamiento
global, pero la chaqueta solar muestra que hay pasos que uno puede tomar en la
dirección correcta", asegura Gildo Zegna, responsable ejecutivo de Ermenegildo
Zegna.
Los paneles solares pueden separarse y utilizarse
independientemente. Cinco horas de luz solar sirven para recargar cualquier
aparato electrónico, según Zegna. Disponible en cazadora o con un estilo más
largo, la prenda fue desarrollada junto con la firma alemana Interactive Wear AG,
un fabricante de prendas electrónicas. Además, viene dotada de adaptadores para
diferentes aparatos.
Es una verdadera solución para la gente con prisa, que
gusta de artilugios y puede siempre conseguir un valor añadido, especialmente si
es verde, subraya Tom Kalenderian, director general de la cadena de Nueva York
Barney's, propiedad de Jones Apparel Group.
Una nota más convencional es la chaqueta para asistir a
cócteles vespertinos de Brioni Roman Style, en seda pespunteada con hilo de
plata auténtica y que puede combinarse tanto con unos pantalones de esmoquin
como con unos vaqueros. Brioni también presentó un abrigo tres cuartos de lana
repelente al agua que se puede enrollar formando una pelota y no se arruga y una
chaqueta sin forro que se guarda como una camisa.
"Brioni fue uno de los primeros en hacer chaquetas
ligeras de seda, que son fáciles de llevar en el verano", apunta McWilliams. "Es
la nueva chaqueta de esmoquin, pero no tan formal".
Tonos grises claros y tejidos de calidad han sido los
elementos clave de la colección de Tom Ford, con la que debutará en febrero en
cinco tiendas de Neiman Marcus, en Estados Unidos, y en los grandes almacenes
londinenses Harrod's. Por primera vez sus trajes de 3.400 dólares (2.494 euros)
y sus versiones a la medida estarán disponibles fuera de la tienda de Nueva York
de Gucci, donde fue diseñador.
Las grandes superficies están comprando más la marca
británica Bamford & Sons, incluida su línea de ropa orgánica hecha de algodón
cultivado de forma natural y pieles ecológicas, que se tiñen con tintes
vegetales, sin componentes químicos. "Regresar a la naturaleza es grande", opina
Tommy Fazio, el director de moda de Bergdorf Goodman, filial de Neiman Marcus
Group. "Estamos viendo un gran cambio hacia tejidos ecológicos".
Para hombres, se llevan los trajes de dos botones y
pantalones sin pinzas, según los jefes de compras, evitando el estilo de tres
botones, elemento básico de los armarios durante años. Las tiendas también
venden modelos de tres botones en que sólo se utilizan dos, dejando el de arriba
suelto. "Los dos botones son sexy", cree Kalenderian. "Hacen a los
hombres más delgados y altos". "El largo de las chaquetas disminuye y se
estrechan las solapas", añade Gold.
Fuente: El
País, 29 de Julio de 2007
-94
millones de dólares de la NASA en paradero desconocido
Valioso material informático
regalado a amigos o familiares y rocambolescas denuncias de portátiles
«perdidos en el espacio». Son sólo algunas de las prácticas de los empleados
de la NASA y que durante los últimos diez años han costado a la agencia 94
millones de dólares, según un informe elaborado por el Congreso
norteamericano.
La propia NASA, en una de sus
auditorías internas, había detectado el problema hace ya cinco años, pero su
cultura «de no pedir explicaciones» -dice el informe- ha hecho que éste se
generalice.
«Este ordenador -aseguró una vez
uno de los trabajadores- a pesar de haberme sido asignado, fue usado a bordo
de la ISS. Fui informado de que, al fallar, fue lanzado por la borda y se
quemó en la atmósfera». Sin comentarios.
Fuente:
abc.es, 29 de Julio de 2007
-La NASA dejó que
astronautas borrachos viajaran al espacio
La agencia espacial estadounidense
autorizó por lo menos en dos ocasiones que participaran en misiones astronautas
ebrios -cuyas identidades no se han facilitado-, según un informe divulgado por
la NASA.
"Las entrevistas con médicos de misión y astronautas
identificaron algunos episodios de uso fuerte de alcohol por parte de
astronautas en el período inmediatamente previo a los vuelos, lo que había
causado preocupaciones sobre la seguridad de la misión", indicó
el informe.
El estudio fue elaborado por una comisión independiente
establecida en febrero pasado por el director de la NASA, Michael Griffin,
después del caso de arresto y despido de la astronauta
Lisa Nowak.
Nowak comparecerá ante un tribunal el 24 de septiembre
acusada de intento de secuestro, allanamiento y
agresión a otra oficial de la Fuerza Aérea, a quien al parecer consideraba
su rival por el amor de un astronauta.
"El alcohol se consume en los alojamientos de la
tripulación. Se describieron dos instancias específicas en las cuales
los astronautas estaban tan intoxicados antes del vuelo que los médicos y sus
colegas astronautas expresaron su preocupación a los responsables en el lugar
acerca de la seguridad", según el informe. "Sin embargo se permitió que los
individuos volaran", agregó.
El informe indica que, cuatro décadas y media después de su
fundación, la NASA no cuenta con un procedimiento de evaluaciones psicológicas
rutinarias a su personal. Aunque la agencia espacial usa rigurosos exámenes
psicológicos para aceptar candidatos a astronautas, después de su contratación
"no hay evaluaciones psicológicas periódicas".
Dos escándalos en pocas horas
Este es el segundo escándalo que se hace público de la NASA
en las últimas horas. También se ha sabido que una pieza no crucial de la
Estación Espacial Internacional (ISS) fue objeto de un aparente sabotaje, según
denunciaron ingenieros de la agencia espacial.
Las autoridades de la NASA indicaron que la pieza, integrada
en uno de los ordenadores y que iba a ser enviada al espacio con el
transbordador Endeavour en la próxima misión, fue encontrada con los cables
cortados.
El comienzo de esa misión de 11 días está previsto para el
próximo 7 de agosto y su objetivo central es llevar hasta la Estación Espacial
Internacional (ISS) una nueva viga que se agregará a su estructura.
Según Mike Leinbach, director de lanzamientos de la agencia
espacial, la pieza es una unidad de control que iba a ser instalada en el
laboratorio estadounidense de la Estación Espacial. "No queremos especular
acerca de las motivaciones, pero hemos abierto una activa investigación",
manifestó.
Leinbach indicó que el aparente sabotaje fue detectado hace
una semana y media y fue la propia empresa que fabricó la unidad la que avisó
del daño sufrido por la pieza.
Fuente: elmundo.es, 28 de Julio
de 2007
-El Hubble busca minerales lunares
Los geólogos han usado el Telescopio
Espacial Hubble para estudiar los minerales de la Luna. Esto puede ser un
pequeño paso para ellos, pero es un salto gigantesco hacia la construcción de un
puesto lunar avanzado.
Los científicos espaciales están muy
interesados en trazar un mapa de la concentración de
Ilmenita un mineral rico en dióxido de titanio
sobre la superficie de la luna comentó Jim Garvin del Centro de Vuelo Espacial
Goddard de la NASA en Greenbelt, Maryland. "La producción de oxígeno en suelos
lunares ricos en dióxido de titanio (TiO2)
podría hacer potencialmente respirable el oxígeno e incluso oxidante para
combustible de cohete".
Las imágenes en ultravioleta de la
superficie lunar muestran modelos que tienen correlación con la concentración de
dióxido de titanio medido en muestras lunares recogidas por las misiones Apollo,
y de este modo un mapa de las variaciones ultravioleta puede ser usado para
crear un mapa de abundancia de dióxido de titanio. Sin embargo, la atmósfera de
la Tierra interfiere en las lecturas del ultravioleta, por eso el equipo usó el
Hubble para tomar las imágenes ultravioleta de una pequeña área de la superficie
lunar que incluyó los lugares de aterrizaje de las naves espaciales Apollo 15 y
17.
Cuando el equipo comparó los datos
ultravioleta con los niveles de dióxido de titanio de las muestras de los Apollo,
encontraron que el suelo basáltico a baja altura tiene un 6 a un 8 por ciento de
dióxido de titanio por medida, mientras que los suelos montañosos contienen sólo
el 2 por ciento. "Nuestras imágenes en ultravioleta bien calibradas actuarán
como un pionero para trazar un mapa por la Lunar Reconnaissance Orbiter de la
NASA en 2008" explicó Garvin.
Fuente: sondasespaciales.com- newscientist.com,
27 de Julio de 2007
-Cuando el león bebe (inundaciones en
Londres)
Por suerte, las últimas inundaciones no han afectado a
Londres, y eso que algunas imágenes virtuales ya anticipaban de modo alarmista
la catástrofe.
La Thames Barrier, situada río abajo, después de
la Millennium Dome, estaba preparada para regular el caudal del Támesis, pero su
actuación no ha sido necesaria.
Thames Barrier
“When the lion drinks, London sinks” (cuando el león
bebe, Londres se hunde), afirma un dicho. Esa función de dar la alerta la
cumplen los bajorrelieves de leones que adornan parte de las orillas del Támesis.
Cuando el agua supera el nivel de 4,87 metros al atravesar el centro de la
capital, el peligro de desbordamiento es inminente.
Pero eso
ocurre de modo muy ocasional. Los anales históricos registran una gran
inundación en 1236, momento en que “en el gran Palacio de Westminster los
hombres remaban en botes en medio de los salones”. Y en 1663, el famoso cronista
Samuel Pepys indicaba que “la última noche, la mayor marea en este río que se
recuerda en Inglaterra anegó todo el Whitehall”. El agua, no obstante, nunca han
sido tan debastadora en Londres como el fuego, como el mismo Pepys constataría
tres años después en el gran incendio que sepultó para siempre la ciudad
medieval.
El peligro, más que del curso superior del Támesis,
viene de las mareas de su estuario. Fuertes tormentas en el Mar del Norte pueden
elevar seriamente el caudal del río, lo que se añade al progresivo aumento del
nivel océano debido al deshielo, en una crecida que se estima de unos veinte
centímetros cada cien años.
Para no quedar a la intemperie de imprevistas fuerzas
naturales, en 1984 entró en servicio la Thames Barrier, una compleja obra de
ingeniería que tardó diez años en completarse. Se trata de siete grandes
estructuras distribuidas secuencialmente entre una orilla y otra, que desplazan
compuertas para barrar el paso del agua. Su gran volumen y las planchas de acero
que las recubren las asemejan más a una apuesta arquitectónica de Frank O. Gehry
que a una construcción hidráulica. Los claros y nubes que conforman siempre el
cielo de Londres aportan vistosos reflejos en la brillante y plomiza superficie
de los pilares de la Barrera del Támesis. Un buen lugar desde el que tomar fotos
es el parque que existe en la ribera norte.
Aquí el río no puede cruzarse de una parte a otra.
Aunque no lo parezca, las compuertas están tan separadas entre sí como los dos
extremos del puente de la Torre de Londres, con el propósito de permitir la
navegación a través del río. De todos modos, grandes buques ya no avanzan hacia
el interior de la ciudad, después de que la ocupación portuaria se desplazara a
terrenos más próximos al estuario.
La Thames Barrier se cierra rutinariamente una vez al
mes para asegurar el mantenimiento de sus mecanismos, y sólo en un par de
ocasiones al año se tienden las compuertas ante un aumento excesivo del caudal,
anticipándose siempre a cualquier situación de singular riesgo.
Fuente: abc.es, 26 de Julio de 2007
-Tener un amigo obeso aumenta la
probabilidad de ser obeso
Si usted tiene un amigo, amiga, hermanos o pareja con
sobrepeso, tendrá más riesgos de ser también obeso.
Y entre más cercana sea esa relación con la persona obesa,
aún cuando viva a kilómetros de distancia de ella, más alto será el riesgo de
desarrollar la obesidad.
Esa es la conclusión de un estudio llevado a cabo en la
Escuela de Medicina de Harvard y la Universidad de California, en San Diego,
Estados Unidos.
"Este estudio revela que los factores sociales juegan un
papel muy importante en el desarrollo de la obesidad", dijo a BBC Ciencia el
doctor Pedro Kaufmann, de la Sociedad Uruguaya para el Estudio de la Obesidad.
"Y sin duda hay muchos factores involucrados en ello",
agrega.
Propagación
Los científicos analizaron datos recogidos durante 32 años
para un estudio sobre el corazón en el que participaron más de 12.000 personas.
Descubrieron que los riesgos de ser obeso aumentan 57% si se
tiene un amigo obeso, 40% si el hermano es obeso y 37% cuando la pareja es
obesa.
Y cuando la persona obesa es un amigo cercano del mismo sexo,
el riesgo de desarrollar el trastorno aumenta a 71%, dice el estudio publicado
en la Revista de Medicina de Nueva Inglaterra.
Los participantes, cuya edad variaba entre 21 y 70 años,
dieron información personal como su índice de masa corporal y los nombres de
amigos a quienes podría contactarse.
Posteriormente los investigadores localizaron los contactos
sociales que incluían tanto a amigos como familiares de los participantes.
Descubrieron que cuando un miembro de ese círculo social
aumentaba de peso, aquéllos que lo rodeaban también desarrollaban obesidad.
"Esto demuestra -afirma el doctor Pedro Kaufmann- que el
desarrollo del sobrepeso y obesidad no puede solamente atribuirse al estilo de
vida y el medio ambiente".
Tal como señalan los autores "lo que vimos es que no se trata
simplemente de que los obesos busquen gente similar para relacionarse o formar
vínculos".
"Sino más bien se trata de una propagación de la obesidad y
de las probabilidades de que una persona se vuelva obesa dependiendo de la gente
que la rodea".
Es decir, cuando una persona se vuelve obesa, es probable que
provoque un cambio en las normas de su grupo sobre lo que cuenta como una talla
corporal apropiada.
"La persona puede llegar a creer que está bien ser obeso o
tener sobrepeso ya que quienes la rodean también son obesos y grandes", afirman
los autores.
Y los efectos fueron más grandes entre la gente del mismo
sexo.
"Esto sin duda puede deberse a muchos factores" dice Pedro
Kaufmann.
"Como el disfrutar la comida juntos o encontrarse entre pares
que no se preocupan por el exceso de peso", agrega.
Implicaciones
Los expertos afirman que los resultados del estudio pueden
tener implicaciones importantes.
Con el dramático aumento de la obesidad en el mundo, dicen
los expertos, es importante analizar cómo los factores sociales amplifican otros
factores que están causando el trastorno.
"Esto demuestra que no es suficiente con que la industria o
gobiernos tomen medidas como la reducción de grasas trans o la introducción de
ensaladas en las comidas rápidas", afirma el doctor Kaufmann.
"Mientras siga existiendo la posibilidad de acceder a comidas
grasas e hiperhidrocarbonadas entre amigos, lamentablemente la epidemia de
obesidad seguirá aumentando".
"Y esto significa que es difícil actuar con educación
solamente, sino habrá que tomar otro tipo de medidas", agrega.
El experto señala además que "es muy interesante el hecho de
que el vínculo sea más fuerte entre los amigos que los hermanos de la persona".
"Esto podría significar que los factores sociales son aun más
importantes que los factores genéticos en la obesidad".
Sin embargo, tal como señala el doctor Kaufmann, el trastorno
es mucho más complejo y no debemos olvidar los factores clave como la dieta y la
falta de ejercicio.
"Todavía habrá que estudiar mucho más la relación entre estos
factores y los aspectos sociales en el desarrollo de la obesidad" dice el
experto.
Fuente: BBC Mundo, 26 de Julio de 2007
-Los simpsons y la ciencia
¿Qué otra serie televisiva cuenta entre
sus personajes con Stephen Hawking o un padre regaña a su hija por ir en contra
de las leyes de la termodinámica? Además de irreverentes, 'Los Simpsons' han
resultado tener unos conocimientos científicos nada desdeñables.
Con motivo del estreno mundial de 'The Simpsons Movie', la
prestigiosa revista científica 'Nature' ha entrevistado esta semana al productor
ejecutivo de la película, Al Jean, y ha seleccionado los diez momentos
"más científicos" de la serie televisiva protagonizada por Homer, Marge,
Bart, Lisa y Maggie Simpson.
Como en otros asuntos, cuando 'Los Simpsons' analizan una
cuestión científica tratan de "mostrar las dos partes" para "permitir a los
telespectadores formarse su propia opinión", explicó a 'Nature' Jean, que
también es el guionista jefe de la serie.
Y para ello cuentan con un equipo de guionistas con
una amplia formación científica, capaces de aderezar el programa con
chistes sobre matemáticas o física.
Entre los momentos "más científicos de la serie", la revista
destaca uno de los episodios especiales emitidos por Halloween, en el que
el Premio Nobel de Química Dudley Herschbach entrega un Nobel al
Profesor Frink, el científico excéntrico de Springfield, el pueblo
ficticio donde vive la familia Simpsons. Su mérito: devolver a la vida a su
padre muerto.
O cuando Lisa, aburrida por la falta de estudios,
construye una máquina de movimiento continuo. La idea no agrada a Homer,
que le advierte: "Lisa, en esta casa nosotros obedecemos las leyes de la
termodinámica".
Ese interés por las cuestiones científicas se mantiene en la
película. "La crisis que precipita el argumento es medioambiental. Lisa está
intentando advertir al pueblo sobre ello y da una conferencia titulada 'Una
verdad molesta'", explica Jean en la entrevista.
El productor destaca como Lisa, pese a tener sólo ocho años
de edad, es a menudo "la voz de los guionistas" y muchos miembros del
equipo se identifican con ella.
"Pero también es caracterizada como un personaje socialmente
impopular y que no siempre se la escucha", añade.
Jean recuerda cómo tanto el público como él mismo estuvieron
"encantados" con la aparición en la serie de Hawking, el
científico que ha profundizado en el conocimiento sobre el origen del universo y
la existencia de los agujeros negros.
Destaca, no obstante, cómo "una broma que refleja la actitud
de los ciudadanos hacia la ciencia es cuando (el prestigioso científico) aparece
frente a los habitantes de Springfield y les dice lo que deberían hacer. Y Homer
dice: 'Sí, Larry Flynt tiene razón".
Y si le preguntan por qué científico, de todos los tiempos,
le gustaría tener como invitado en el programa no lo duda: Isaac Newton.
"Pero si tiene que estar vivo, es una pregunta difícil. Hace
50 años, Albert Einstein era la personificación de un científico y era
considerado un héroe. Pero no hay ninguna figura comparable en la actualidad".
Fuente: elmundo.es, 26 de Julio de 2007
-El origen de hielo de agua permanente en
el polo sur marciano
Gracias a los datos de la misión Mars
Express de la ESA, combinados con modelos del clima marciano, los científicos
pueden ahora sugerir cómo la órbita de Marte alrededor del Sol afecta a la
deposición de hielo de agua en el Polo Sur Marciano
Al comienzo de la misión, el
instrumento OMEGA (espectrómetro de mapeo mineralógico visible e infrarrojo) a
bordo de la Mars Express ya había encontrado depósitos permanentes de hielo de
agua no detectados previamente. Éstos están situados en lo alto de terrenos
estratificados de millones de años de edad y constituyen una fuerte evidencia de
reciente actividad glacial.
Hemisferio sur
Sin embargo, sólo ahora se podría
sugerir una explicación realista para la edad de los depósitos y su mecanismo de
formación. Esto se logró gracias al mapeo de OMEGA y a la caracterización de
estos depósitos de hielo, combinado con los Modelos Climáticos Globales
Marcianos generados por ordenador.
Tipos de depósitos de hielo en el Polo Sur
marciano
El mapeo y el análisis espectral de
OMEGA han mostrado que los depósitos permanentes en el Polo Sur Marciano son,
esencialmente, de tres tipos: hielo de agua mezclado con hielo de dióxido de
carbono (CO2), placas de decenas de kilómetros de extensión de hielo de agua, y
depósitos cubiertos por una fina capa de hielo de CO2.
El descubrimiento de los depósitos de hielo del primer tipo confirma la
hipótesis mantenida durante mucho tiempo de que el CO2 actúa como una trampa
fría para el hielo de agua. Pero, ¿cómo se pudieron formar y preservar los otros
tipos de depósitos, no "atrapados" por el CO2?.
Franck Montmessin, del Service d'Aéronomie du CNRS/IPSL (Francia), responsable
principal de los descubrimientos, explica cómo se 'comportan' los depósitos de
hielo de agua de los polos marcianos. “Creemos que los depósitos de hielo de
agua migran entre los polos norte y sur de Marte a lo largo de un ciclo que
abarca 51000 años, correspondiente al lapso de tiempo en el que la precesión del
planeta se invierte”. La precesión es el fenómeno por el cual el eje de rotación
de un planeta oscila.
Tasas de acumulación del hielo, actualmente y en
el pasado
Montmessin y sus colegas llegaron a
esta conclusión yendo atrás en el tiempo en su modelo informático de clima
marciano. Esto fue llevado a cabo cambiando la precesión junto con otros
parámetros orbitales.
Los científicos ajustaron el reloj 21000 años atrás cuando la parte del planeta
más cercana al sol se correspondía con el verano del hemisferio norte, la
sintuación contraria a la actual.
El modelo ha mostrado que el agua en el Polo Norte estaba depositada de forma
inestable y era fácilmente transportada al polo sur en forma de vapor de agua,
donde se condensaba y congelaba en la superficie. Hasta 1 milímetro de hielo de
agua era depositado todos los años en el polo sur. Después de más de 10000 años
repitiéndose el mismo proceso, esta acumulación dio lugar a una capa de 6 metros
de espesor.
Hace 10000 años el ciclo de precesión se invirtió, y comenzó a cambiar hasta su
actual configuración. El hielo de agua en el polo sur se volvió inestable, y fue
forzado a regresar progresivamente al Norte.
Evolución del hielo de agua
en el polo sur marciano
Hace 10000 años, iniciado por un
proceso no muy bien explicado todavía, la erosión de los depósitos de hielo de
agua en el polo sur se bloqueó al comenzar a depositarse capas de hielo de CO2
sobre el hielo de agua, dejándolo atrapado tal y como ha podido observar el
instrumento OMEGA.
Fuente: sondasespaciales.con, ESA, 25 de Julio
de 2007
-Las torres de la
telefonía móvil no causan enfermedades
Así lo asegura un estudio. La exposición a
las radiaciones emitidas por las antenas de telefonía móvil no causan
enfermedades. Esta conclusión fue hecha por un investigador británico que tuvo
que investigar los efectos de las antenas sobre la salud. El fin del estudio era
aportar pruebas en un juicio en el que un grupo de personas pedían ser dañadas
por las ondas emitidas por dichas antenas.
Los resultados muestran que muchos de los
problemas en la salud producidos por dichas antenas (síntomas parecidos a los de
la gripe, dolor de cabeza, nauseas...) se deben a otras causas. Según Elaine Fox,
psicóloga que dirigió las investigaciones, los transtornos son de origen
psicológico.
Un 4% de los ingleses creen que las ondas
de radio procedentes de móviles u otros electrodomésticos les están afectando.
Los experimentos haciendo pruebas a 44
personas que aseguraban haber sufrido enfermedades por la exposición a las ondas
de los teléfonos móviles y 144 que no. Usaron las emisiones de radiaciones de un
móvil convencional y otro con tecnología 3G.
Los investigadores informaban que los
transmisores iban a estar encendidos sobre unos 50 minutos. Entonces, los
individuos más sensibles mostraban una mayor ansiedad, incomodidad y tensión.
Sus latidos del corazón se incrementaban, así como la sudoración. La intensidad
de estas alteraciones no dependía de que el transmisor estuviera encendido o
apagado.
El estudio sugiere que aunque los síntomas
sean ciertos, el problema se origina al achacar su causa a la cercanía de
una antena y recibir el efecto de las ondas electromagnéticas. Tampoco se
conocen mecanismos que expliquen la supuesta interacción maligna entre las ondas
y el cuerpo humano.
Las investigaciones se hicieron para
exposiciones a las radiaciones a corto plazo. Por ello, Fox cree que es
conveniente investigar más sobre lo que pasa a largo plazo con personas que
viven cerca de grandes fuentes de emisión de estas radiaciones.
Fuente: Nature, 25 de Julio de 2007
-La depresión no existe
entre los indígenas africanos
"Los pueblos indígenas africanos viven en
sociedades en las que están protegidos de enfermedades mentales como la
depresión, la anorexia o el estrés que hace mella en Occidente".
"Su vida en comunidad, la relación entre los niños o el
cuidado de los ancianos están más ajustados a la historia evolutiva humana que
la nuestra». Así de explícito es el médico y antropólogo Francisco Giner Abati,
que presentó ayer en Madrid una nueva edición de la Expedición Española a
África, un proyecto científico y humanitario con el que se está recorriendo el
continente.
Durante el viaje del año pasado, el equipo de seis
investigadores españoles recorrió 50.000 kilómetros que les
llevaron más allá de las fronteras políticas e incluso de las de las ONG.
«Buscamos los pueblos más aislados y con ellos descubrimos que nuestra
vida en las grandes ciudades está desajustada. El individualismo
patológico nos genera problemas que estos indígenas desconocen porque viven en
núcleos pequeños, como el ser humano vivió hasta hace 5.000 años.
Pueden morir de malaria, pero no sufren las enfermedades mentales que
tanto nos hacen sufrir», asegura Giner Abati.
En su largo periplo de seis meses, en el que su trabajo se
centró en Egipto, Sudán, Etiopía, Kenia, Angola y Camerún, documentaron seis
sociedades diferentes. Entre los nubios de Sudán descubrieron que las mujeres
están aumentando su papel social, y un buen ejemplo es Ebo Komando, que ha
creado una asociación contra la castrante ablación del clítoris habitual en su
etnia.
Entre los surma etíopes, cuyas mujeres se incustran un plato
de barro en los labios (hoy símbolo de belleza, pero hace 200 años una
deformación voluntaria para evitar que se las llevaran los esclavistas),
encontraron un pueblo abierto de gentes atléticas en el que la comunicación y la
vida comunitaria son básicas para su supervivencia. De los afar del este del
país de los hombres de piel quemada aprendieron cómo recuperar
el vapor de agua de una zona volcánica, colocando una bóveda sobre los pozos.
Más al oeste, en las selvas de Camerún, localizaron a grupos
de pigmeos que huyen de la brutal deforestación que acaba con su modo de vida.
«Es espectacular lo que saben de medicina. El bosque es un arsenal
terapéutico para ellos: cortezas de árbol contra la malaria, hojas que
evitan las picaduras de mosquitos, hierbas para el estómago. Y los surma
también. Por lo visto su mijo tiene un parásito que les evita las infecciones»,
asegura el antropólogo que, en su faceta médica, es especialista en males
tropicales.
La parte menos investigadora del viaje, la humanitaria, se
tradujo precisamente en la atención sanitaria que el grupo fue proporcionando
allá por donde iba, a la vez que identificaba carencias que pueden suplirse este
año con el apoyo solidario de empresas y particulares: recursos para apoyar a la
afar Ebo Komando o para hacer pozos en un poblado surma.
Nada de ello fue fácil. En Sudán, parte del recorrido
lo hicieron escoltados por convoyes militares, en Etiopía contrataban
en las tribus a guardianes para evitar a los bandidos que, armados con fusiles,
son un peligro para los viajeros y en República Democrática del Congo el barro
se convirtió en una pringosa pesadilla que duró varias noches.
Surmas de Etiopía
Pese a ello, este año vuelven. Y lo hacen con ayuda de la
Agencia Española de Cooperación Internacional (AECI), de empresas como Nissan,
Michelín y Telefónica, de la Universidad de Salamanca (en donde Giner Abati es
catedrático de Antropología) y de la Sociedad Geográfica Española.
Serán otros 50.000 kilómetros en seis meses de
aventura en los que atravesarán 30 países, si bien el trabajo se
centrará en el sur de Sudán, Etiopía, RD Congo, Benin, Níger, Malí y Namibia.
Por si alguna frontera se les resite, llevan dos rutas en la cartera.
De allí saldrán nuevos documentales y datos sobre la calidad
de vida y la salud en culturas africanas no industrializadas, para compararlas
con las nuestras antes de que desaparezcan. Uno de los temas en los que harán
hincapié son las familias polígamas y las relaciones entre las mujeres. Los
dogón de Malí, los peul de Níger, los himba de Namibia, los pigmeos del Congo
serán sus próximos objetivos antropológicos.
El embajador Juan Alonso, director de la Casa de África,
reconocía que el continente ha estado "muy alejado de las precupaciones de los
españoles", pero ya es hora de cambiar este escenario. "Casa de África fue
inaugurada hace un par de meses en Gran Canaria para ayudar a transmitir
culturas y tradiciones que nos acerquen a estos pueblos, y por ello apoyamos la
expedición de Giner Abati, que tiene este conocimiento como objetivo principal",
señaló durante la presentación de la nueva ruta.
Fuente: elmundo.es, 25 de Julio de 2007
-Reestablecidas las comunicaciones con el rover Opportunity
La NASA ha logrado reestablecer las
comunicaciones con el vehículo explorador 'Opportunity', cuya actividad ha sido
amenazada por las violentas tormentas estivales de polvo que azotan desde hace
más de un mes al planeta Marte.
La agencia espacial señaló que la primera comunicación desde
el 'Opportunity' se recibió esta mañana y que la situación parece haber
mejorado desde la semana pasada, cuando obedeció órdenes de establecer
contacto cada tres días para ahorrar energía.
En ese momento, los paneles solares del vehículo estaban
produciendo un 80% menos de energía que el mes pasado.
El próximo contacto deberá producirse el jueves de esta
semana, dijo la NASA en un comunicado.
Por otra parte, la agencia espacial dijo que en el punto
donde se encuentra el 'Spirit', el vehículo gemelo de 'Opportunity', el
cielo parece haberse despejado levemente.
"La suerte de ambos vehículos depende de las condiciones del
clima en Marte y este es impredecible", manifestó John Callas, director del
proyecto en el Laboratorio de Propulsión a Chorro (JPL) de la NASA.
Hasta la semana pasada el más afectado de los dos vehículos
de seis ruedas independientes y del tamaño de una lavadora era 'Opportunity',
cuyos paneles estaban cubiertos en un 99% por el polvo marciano,
señaló JPL en un comunicado.
JPL señaló que si los paneles continúan sin recibir luz solar
durante mucho tiempo los vehículos no dispondrán de la energía necesaria
para continuar sus operaciones.
Los vehículos de exploración utilizan calefactores
eléctricos para evitar que se congelen sus circuitos electrónicos más
importantes.
Esta fue la primera vez que los ingenieros de JPL se ven
obligados a interrumpir las comunicaciones con uno de los vehículos, que
llegaron al planeta en enero de 2004.
Fuente: elmundo.es, 25 de Julio de 2007
-Un mecanismo de hace dos siglos sirve como modelo para las
nanocomputadoras actuales
Investigadores de Estados Unidos han presentado el diseño de
una diminuta computadora mecánica inspirada en ideas sobre computación de unos
200 años atrás.
Los científicos encargados del proyecto dicen que la
computadora estará construida con componentes nanométricos, equivalentes a una
milmillonésima parte de un metro, según escribieron en la revista "New Journal
of Physics".
Máquina diferencial creada por Charles Babbage
Aseguran que los chips basados en este diseño podrían
utilizarse, por ejemplo, en motores de automóviles donde el silicio puede ser
demasiado delicado.
"Estamos proponiendo un nuevo tipo de arquitectura
computacional basada en elementos mecánicos nanométricos", afirmó Robert Blick,
de la Universidad de Wisconsin-Madison en Estados Unidos y uno de los autores
del estudio.
"No queremos competir contra el silicio de alta velocidad,
pero donde somos competitivos es en todas las aplicaciones convencionales que
necesitan microprocesadores que pueden ser también lentos y baratos", añadió.
Los usos podrían incluir desde juguetes hasta electrodomésticos.
Pensar en pequeño
Las computadoras mecánicas no son nuevas. Los restos de una
computadora analógica de más de 2.000 años de antigüedad y conocida como el
mecanismo Antikythera fueron descubiertos en Grecia en 1902.
Y durante el siglo XIX, el matemático e ingeniero británico,
Charles Babbage, diseñó una máquina analítica que utilizaba tarjetas perforadas
de Jacquard.
Su máquina diferencial, por ejemplo, contenía más de 25.000
palancas individuales, trinquetes y dientes y pesaba más de 13 toneladas.
Aunque sus diseños nunca llegaron a realizarse,
reconstrucciones recientes llevadas a cabo por el Museo de Ciencia de Londres
muestran que eran capaces de efectuar cálculos complejos.
La propuesta del equipo de investigadores de EE.UU. está en
deuda con estos conceptos originales.
"Está inspirado en las ideas de Babbage pero estos días
podemos hacerlo a escala pequeña", afirmó Blick.
Objetivo comercial
El diminuto e hipotético procesador de operaciones
matemáticas podría construirse a partir de materiales muy duros, como diamante o
los llamados materiales piezoeléctricos, que pueden cambiar de forma cuando se
les aplica una corriente eléctrica.
Al contrario de las computadoras actuales, que están basadas
en el movimiento de electrones alrededor de los circuitos para efectuar cálculos
útiles, la computadora mecánica nano podría usar el empuje y atracción de cada
elemento diminuto para hacer los cálculos.
Los investigadores actualmente están construyendo el primer
elemento necesario para la computadora, centrándose al comienzo en los
transistores, los conmutadores básicos que se hayan en el corazón de todas las
computadoras.
"Hemos demostrado que un único elemento de estos transistores
funciona", dijo Blick.
Las simulaciones también indican que debería de ser posible
construir circuitos que funcionan, agregó.
"Creemos que, dentro de un par de años, este trabajo
conducirá a aplicaciones comerciales", dijo.
El ejército de Estados Unidos está interesado en estos
mecanismos ya que, al contrario de los chips tradicionales, los mecanismos
mecánicos nano no son susceptibles a impulsos electromagnéticos que podrían ser
utilizados por el enemigo para dañar sistemas informáticos.
Principios de diseño
Sin embargo, el equipo cree que las ventajas clave de los
chips podrían consistir en ayudar a la industria de los chips en su incesante
búsqueda de la Ley de Moore.
El cofundador de la compañía de componentes electrónicos
Intel, Gordon Moore, dijo en 1965 que el número de transistores en un microchip
se doblaría cada dos años.
Durante cuatro décadas fue así, pero el mismo Moore creyó que
su ley "no puede continuar siempre" ya que se alcanzará el límite térmico.
En ese punto, el calor interferirá en las funciones de los
circuitos, anulando cualquier eficiencia conseguida al colocar más transistores
en un chip.
Los dispositivos mecánicos son más fríos que el silicio y,
por tanto, no tendrían este problema.
Pero Michael Kraft, de la Universidad de Southampton en
Inglaterra, cree que será difícil convencer a la industria del silicio a que
abandone los diseños de chips más tradicionales como el diseño de circuitos
conocido como CMOS.
"El sector ha estado trabajando con CMOS casi 40 años y hay
muchísima infraestructura y conocimiento adquirido", dijo Kraft a la BBC.
"Creo que, comercialmente, el sector continuará con CMOS
hasta el punto en que no sea posible impulsarlo más", añadió.
Sin embargo, dijo que el enfoque mecánico nano ofrece ciertas
ventajas que podrían conducir a la creación de chips híbridos.
"Consumen menos energía lo cual es muy importante porque hoy
en día la mayoría de las computadoras son móviles", afirmó.
"La batería es el gran cuello de botella, así que cualquier
cosa que reduzca el consumo de energía será una gran ventaja", dijo.
Fuente: BBC Mundo, 24 de Julio de 2007
-Un acuario permitirá la
cría de caballitos de mar en cautividad
Un grupo del Instituto de
Investigacións Mariñas de Vigo ha iniciado una técnica de mantenimiento u
reproducción de caballitos de mar en cautividad. Para esto, definieron las
condiciones biológicas y tecnológicas del cultivo más adaptadas a el
Hippocampis guttulatus, una especie de caballito de mar.
Tras un año de investigación el grupo ha conseguido desarrollar un
acuario específico para la especie, así como una dieta
basada exclusivamente en el molusco Artemia. Estos resultados han supuesto un
verdadero hito en lo que a la cría de caballitos de mar, una especie protegida,
se refiere.
Un grupo de investigación de la Universidad de Santiago de Compostela,
especializada en genética aplicada a la acuicultura y la conservación, está
trabajando en el estudio genético de los ejemplares. Los investigadores están
trabajando para evaluar el estado genético de las poblaciones salvajes y para
realizar análisis de parentesco en esta especia. La aplicación de estos
marcadores permitió confirmar la paternidad de los ejemplares obtenidas en
cautividad al mismo tiempo que permite analizar el
comportamiento de selección de pareja en los caballitos de mar. Esto
permitirá mejorar el diseño de los cruce y posibilitar la
repoblación en situaciones eventualmente críticas de los recursos
naturales.
Además del Instituto de Investigación Mariñas de Vigo, los investigadores de la
facultad de Veterinaria de Lugo, también colaboran en este proyecto cuatro
acuarios nacionales y una empresa privada, apoyando la
reproducción en cautividad. Esto permitirá que en el futuro se puedan
producir intercambios de ejemplares entre centros.
Especie protegida
En la actualidad todas las especies de caballitos de mar están protegidas,
dedido a la regresión progresiva que están sufriendo las poblaciones en su medio
natural. En España, sólol habitan dos de las 33 especies que existen en el
mundo.
Fuente: La Voz de Galicia, 23 de
Julio de 2007
-Estamos perdiendo la
guerra contra el SIDA
Fauci, quien dirige el Instituto
estadounidense de Alergias y Enfermedades Infecciosas, asiste a la Conferencia
sobre Patogénesis y Tratamiento del VIH, que se realiza en Sidney, Australia.
En palabras del experto, "por cada
persona que recibe terapia, otras seis se contagian. Es decir, que estamos
perdiendo la batalla de los números".
El especialista agregó que "aunque
estamos logrando grandes avances en el acceso a los fármacos, claramente la
prevención debe encararse de una forma más firme".
Contagio
Hace tres años, menos de 300.000 personas en el mundo en
desarrollo tenían acceso a los medicamentos antirretrovirales.
Doctor Anthony Fauci
Hoy esa cifra se ha incrementado a más
de dos millones; no obstante, el alto número de nuevos contagios opaca los
esfuerzos internacionales en las áreas de tratamiento y educación.
En muchos países en desarrollo,
estrategias de prevención, como el uso de condones o jeringas esterilizadas sólo
son accesibles para menos del 15% de la población.
Entretanto, el copresidente de la
conferencia, el argentino Pedro Cahn, declaró que 11.000 personas contraen cada
día el VIH en el mundo.
El también director de la Fundación
Huésped en Argentina pidió la colaboración internacional para que "los nuevos
avances en los sistemas de prevención y tratamiento" se apliquen "en los
sistemas de salud del mundo en desarrollo".
"Fuera de control"
En la conferencia de Sidney, el
presidente y fundador de la Asociación Británica de VIH, Brian Gazzard, dijo que
"la epidemia del SIDA está fuera de control. Está fuera de control en África y
está fuera de control en Asia".
De acuerdo con Gazzard, "si el mundo
desarrollado no muestra una mayor solidaridad hacia los países en desarrollo, no
se ganará la batalla contra el SIDA".
La conferencia reúne alrededor de 5.000
expertos de más de 131 países.
El encuentro se inició con un
llamamiento al acceso de los países más pobres a los últimos avances en
tratamientos y prevención contra el VIH/SIDA.
Fuente: BBC Mundo, 23 de Julio de 2007
-Spirit
y Opportunity en peligro por las tormentas de arena
Las violentas
tormentas estivales de polvo en Marte amenazan paralizar sin remedio a los
vehículos 'Spirit' y 'Opportunity' que exploran la superficie del planeta, según
ha informado el Laboratorio de Propulsión a Chorro (JPL) de la NASA.
El más afectado de los dos vehículos de
seis ruedas independientes y del tamaño de una lavadora es 'Opportunity', cuyos
paneles están cubiertos en un 99 por ciento por el polvo marciano, señaló JPL en
un comunicado. Como resultado, los ingenieros de la NASA han ordenado al
vehículo que interrumpa las comunicaciones durante dos días para ahorrar
energía.
Imágenes captadas por Opportunity en diferentes
días (14 de Junio, 30 de Junio, 5 de Julio, 13 de Julio y 15 de Julio de
2007. En la parte superior de la imagen tenemos un número conodio por tau que
indica la opacidad del cielo. A mayor valor, mayor opacidad
Ante la posibilidad de que las
tormentas continúen durante días e incluso semanas los científicos de la NASA
han hecho público su temor sobre su futuro en el planeta rojo.
"Estamos alentando a nuestros
vehículos de exploración para que sobrevivan a estas tormentas", dijo
Alan Stern, administrador asociado del Directorio de Misiones Científicas de la
NASA, en Washington. Sin embargo, Stern admitió la gravedad de la situación al
señalar que los vehículos "nunca fueron diseñados para condiciones así de
intensas".
Comunicaciones interrumpidas
JPL señaló que si los paneles continúan
sin recibir luz solar durante mucho tiempo los vehículos no dispondrán de la
energía necesaria para continuar sus operaciones. Los vehículos de exploración
utilizan calefactores eléctricos para evitar que se congelen sus circuitos
electrónicos más importantes.
Ésta es la primera vez que los
ingenieros de JPL se ven obligados a interrumpir las comunicaciones con uno de
los vehículos que llegaron al planeta en enero de 2004. Debido a las tormentas
de polvo, el 'Opportunity' redujo el nivel de energía diaria
producida de 700 vatios-hora, suficientes para iluminar una bombilla de cien
vatios durante siete horas, a 400.
Cuando las tormentas se intensificaron,
el pasado martes, la energía producida por este vehículo disminuyó hasta 148
vatios-hora, el nivel más bajo alcanzado hasta entonces. Y tras descender los
niveles el miércoles a 128 vatios-hora el JPL decidió ordenar el corte de las
comunicaciones con "Opportunity".
'Spirit', en la antípoda del planeta y
en una zona menos asediada por las tormentas, deberá limitar sus actividades,
dijo JPL. Los ingenieros estudiarán el estado del 'Opportunity' y del 'Spirit'
una vez se calmen las tormentas, dijo el Laboratorio de Propulsión a Chorro.
Las tormentas de arena que
han ocurrido en el planeta han levantado una gran cantidad de polvo cubriendo
casi toda su faz. Este mosaico de imágenes tomadas por Mars Reconnaisance
Orbiter (MRO) y Mars Color Imager (MARCI) en tres semanas y media con intervalos
de dos días de separación. La primera del 22 de Junio, muestra una tormenta de
arena cerca del Valle Marineris. En la segunda foto, del 17 de Julio podemos
observar el resultado de las tormentas de arena (regionales y muchas locales) de
las semanas anteriores. El polvo levantado cubre gran parte de la atmósfera
La pérdida de uno o los dos vehículos
sería un duro golpe para la exploración del planeta, pese a que los resultados
de su recorrido han sido mayores de lo que se esperaba, dijeron científicos de
la agencia espacial. Meses después de su suave descenso sobre el planeta, los
vehículos confirmaron que el planeta había albergado agua en su pasado remoto.
Además, durante más de tres años han enviado miles de fotografías de la
superficie y han proporcionado información sobre la constitución geológica y
atmosférica del planeta.
Fuente: elmundo.es, 20 de Julio
de 2007
-Tres variantes de genes
podrían encerrar la clave para entender el desarrollo del SIDA
Tres variantes de genes en el ADN de
486 pacientes con sida parecen jugar un papel en contener y enlentecer el
desarrollo del virus del VIH, según un prometedor estudio realizado por un
equipo internacional y divulgado este jueves por la revista
Science.
Los investigadores confían en que sus
hallazgos lleven a una vacuna que potencie los efectos protectores de uno o más
de estos genes, y ayuden al propio sistema inmunológico del cuerpo a superar la
infección. Y es que la capacidad del sistema inmunitario de combatir el virus en
el inicio de la infección tiene relación con la velocidad con la cual la
enfermedad evolucionará hacia el sida. Algunos genes podrían controlar el rápido
desarrollo de la enfermedad.
Una variante genética se ve especialmente prometedora, destacaron los
científicos. "Estos resultados no solo casi duplican nuestra comprensión de los
factores que influyen en la variación entre los individuos en cómo controlan el
VIH-1, sino que también apuntan hacia nuevos mecanismos de control", dijo David
Goldstein, del
Duke's Institute for Genome Sciences and Policy
de la Universidad Duke de Carolina del Norte, y coordinador de la investigación.
El equipo internacional de especialistas en genética trabajó durante 18 meses en
seleccionar cuidadosamente a los pacientes utilizando lo último en tecnología
disponible para estudiar el genoma, para descubrir los tres genes. La
investigación halló que algunos pacientes con variantes genéticas específicas en
células clave del sistema inmunitario parecen controlar mucho mejor la
proliferación del virus de inmunodeficiencia humana (VIH), causante del sida,
luego de ser infectados.
"A medida que expandamos la cantidad de pacientes en estudios futuros realizados
por investigadores del CHAVI (Center for HIV/AIDS Vaccine Immunology), esperamos
descubrir aún más polimorfismos que podrían brindar claves adicionales sobre
cómo algunos pacientes pueden controlar mejor el virus que otros", explicó
Goldstein. "Esto debería llevar en última instancia a objetivos novedosos para
las vacunas, la principal meta del CHAVI", un proyecto de siete años lanzado en
2005 por el Instituto nacional de alergia y enfermedades infecciosas (NIAID).
DOS DE LAS VARIANTES GENÉTICAS, FUNDAMENTALES EN EL SISTEMA INMUNOLÓGICO
Dos de las variantes genéticas recientemente descubiertas fueron encontradas en
genes que controlan el sistema de antígenos leucocitarios humanos (HLA, en
inglés), que juegan un "papel fundamental" en el sistema inmunológico
identificando invasores externos y "marcándolos" para que sean destruidos.
Dos de los genes HLA, conocidos como HLA-A y B, son desactivados por el virus
VIH cuando éste ingresa al organismo, lo que hace que el sistema inmunitario no
reconozca el virus como agresor externo. Sin embargo, el gen HLA-C aparentemente
no es desactivado por el virus del sida, lo que sugiere que al menos en algunos
individuos el HLA-C está involucrado en el control del virus, indicaron los
investigadores.
El gen HLA-C podría así representar un talón de Aquiles para el VIH, según
Goldstein. Así, estimó el experto, podría diseñarse una vacuna que provoque una
respuesta del gen HLA-C que el virus del VIH tal vez no podría desactivar.
Investigadores de todo el globo han buscado una vacuna contra el VIH durante dos
décadas, pero los esfuerzos han sido frustrados por la habilidad del virus de
mutar.
Se estima que las más prometedoras de las numerosas vacunas experimentales
contra el sida en desarrollo ofrecerán solo una inmunidad limitada contra el
mortífero virus. A diferencia de las vacunas clásicas, la primera generación de
vacunas contra el VIH no permitirá a la gente rechazar el virus, pero podrían
proteger su sistema inmunitario de los peores efectos del virus y postergar la
aparición del sida.
Unos 40 millones de personas son VIH positivas y otras 11. 000 personas contraen
el virus cada día, la mayoría en las naciones más pobres del mundo, según el
NIAID.
Fuente: ABC Periódico
Electrónico S.A, 20 de Julio de 2007
-Zeltia saca al mercado su
nuevo producto estrella: Yondelis
La
Agencia Europea del Medicamento (Emea) ha
anunciado la aprobación del fármaco Yondelis, de Pharmamar, filial del grupo
español
Zeltia. "Se trata de una
buena noticia no sólo para nosotros, sino también para la medicina española en
general", comentó un directivo de Zeltia.
Los principales ejecutivos de la empresa
se encontraban el miércoles por la tarde reunidos en las oficinas de la empresa
en Madrid; hoy el presidente, José María Fernandez Sousa, ofrecerá una rueda de
prensa en la capital española.
Yondelis es un antitumoral de origen marino. Su propiedad es compartida entre
Zeltia y la multinacional estadounidense Jonson & Jonson.
PharmaMar, que se encarga
de explorar gran parte de la biodiversidad del mar para la creación de nuevos
fármacos para el tratamiento del cáncer, tiene 5 compuestos en ensayos clínicos,
entre los que se encuentra Yondelis con más de 4.850 pacientes tratados en
Europa y Estados Unidos y en fase III (comparativa con otros medicamentos) para
el cáncer de ovario y en fase II (eficacia) para el cáncer de mama.
Entre otros compuestos derivados del mar, por lo tanto de origen natural, se
encuentran Aplidin, con 630 pacientes tratados en Europa, Estados Unidos y
Canadá, en fase II para el tratamiento de tumores sólidos y hemáticos, y
Kahaladide F, con 277 pacientes tratados, que es el último compuesto en fase II.
Fuera de Europa, la licencia para Yondelis la tiene Johnson& Johnson.
En total la empresa PharmaMar tiene 730 patentes concedidas y 680 en petición y
"sigue apostando por diferenciarse en su búsqueda de sustancias y compuestos en
el mar" de los que se ha demostrado que un 1,8% de los extractos de animales
marinos muestra una actividad anticáncer frente al 0,4% de las plantas
terrestres, añadió.
Fuente: Cinco Días, 20 de Julio de
2007
-Ojo con las etiquetas RFID
La tecnología de identificación por
radiofrecuencia (RFID) aún no está lo suficientemente avanzada para poner en
peligro nuestra privacidad. Sin embargo, esto podría cambiar en un futuro muy
próximo, y para entonces deberá haber en marcha medidas para proteger la
información personal y garantizar la libertad individual, según
STOA, el comité de
Evaluación de Opciones Científicas y Tecnológicas del Parlamento Europeo
Las etiquetas de RFID son microchips
diminutos hechos de plástico o incluso de papel. Se acoplan a una antena y
emiten un número de serie exclusivo por radio a través de distancias cortas.
Hasta hace poco tiempo, la tecnología de RFID se utilizaba principalmente en la
gestión de la cadena de suministro, para seguir el desplazamiento de vehículos
entre almacenes y el movimiento de palés de mercancías desde los almacenes a los
comercios.
Pero ahora están multiplicándose las aplicaciones de la RFID. Pueden
incorporarse etiquetas a todo tipo de productos de consumo y rastrearse a una
distancia de entre tres y cincuenta metros para revelar información sobre el
producto. También se puede identificar a personas utilizando esta tecnología,
que ha permitido el desarrollo de tarjetas equipadas con RFID en el transporte
público, en pasaportes biométricos, en sistemas de micropagos, en chips de
identificación del personal de oficinas y en tarjetas de fidelización de
clientes.
Mediante el estudio de una serie de casos prácticos, los investigadores
contratados por el STOA consiguieron plasmar la percepción que tienen de la RFID
los consumidores y quienes operan esta tecnología. Los consumidores en general
ven la RFID como poco más que una llave electrónica, mientras que para los
propietarios de sistemas de RFID, esta tecnología les permite registrar los
movimientos, el poder adquisitivo, la productividad, las preferencias y los
hábitos de sus usuarios.
Precisamente ese acceso a información personal ha despertado la inquietud de
muchas asociaciones de protección de los derechos del consumidor, que argumentan
que la implantación de esta tecnología podría perjudicar gravemente a la
intimidad de las personas. Los propios investigadores dieron con varios casos en
los que se abusaba de la información de los usuarios. En un caso se utilizaban
datos de viajes en una investigación policial. En el contexto laboral también se
observaron varios casos interesantes. Los empleados, cuya única opción es usar
los objetos con chips de RFID proporcionados por sus empresas, estaban sometidos
a unos registros de horarios y a una vigilancia contra robos.
Por otra parte, en el estudio también se indica que la RFID es beneficiosa para
sus usuarios, y se ofrece como ejemplos de ventajas el ser identificado como
cliente fiel y la demostración de las horas extras trabajadas por un empleado.
Aunque para extraer conclusiones definitivas haría falta un estudio exhaustivo,
estas primeras indagaciones, según se indica en el estudio, han deparado un
número relativamente bajo de incidentes en los que se hizo un uso inapropiado de
la información personal. Esto podría atribuirse a dos razones. En primer lugar,
en todos los casos estaba claro quién estaba a cargo de los datos y debía
cumplir unas directrices concretas sobre la protección de datos. En segundo
lugar, muchos sistemas de RFID no son muy sofisticados y pueden revelar tan sólo
pequeños fragmentos de la identidad de sus usuarios.
A pesar de ello, dado el rápido desarrollo de los sistemas de RFID, en el
estudio se señala que, paulatinamente, resultará más sencillo reunir datos sobre
los usuarios y analizarlos. Además, una vez se conecten entre sí diferentes
sistemas de RFID u otras tecnologías como GSM, GPS, CCTV e Internet, será
posible formarse una imagen mucho más detallada de los usuarios. Esto permitiría
a los propietarios de sistemas de RFID entregar datos personales obtenidos con
RFID para investigaciones policiales.
Paralelamente, para los usuarios resultará mucho más turbio quién tiene en su
poder sus datos personales y en qué sistemas, cosa que trastoca el balance de
poder en el espacio público digital. No sólo está la cuestión de proteger la
privacidad o los datos personales, sino también la de garantizar la libertad
individual logrando el equilibrio adecuado entre libertad de elección, comodidad
y control, se argumenta en el estudio.
El estudio concluye ofreciendo las siguientes recomendaciones:
- los usuarios de RFID deben saber
qué son capaces de hacer con sus datos los propietarios de sistemas de RFID, y
qué les está permitido hacer;
- los usuarios de RFID deberían participar en el desarrollo de nuevos entornos
de RFID;
- si llegaran a fundirse los datos personales obtenidos mediante sistemas de
RFID distintos, debería quedar claro quién será el responsable de manejar
dichos datos;
- ante un entorno cada vez más interactivo, deben replantearse las directrices
que regulan la privacidad y los conceptos de la información personal y la
autodeterminación informativa;
- los gobiernos deberían adoptar una postura inequívoca con respecto a si se
usarán sistemáticamente datos de RFID a efectos de investigaciones.
Fuente: Cordis, 20 de Julio de 2007
-Captura ilegal de pájaros en
Tamaraceite
El periódico Canarias 7 de hoy recoge
la noticia que sobre las Charcas de San Lorenzo ha sacado la federación
ecologista Ben Magec y que ha denunciado la actividad del pajareo -captura
ilegal de aves- en las charcas de San Lorenzo y ha advertido que daña a especies
endémicas macaronésicas que están a punto de desaparecer en Canarias.
Los pajareros son vecinos de San Lorenzo y de Tamaraceite, además de otros
barrios colindantes como El Román, La Milagrosa, Piletas o La Suerte, asegura
Francisco González, miembro de Ben Magec. «La técnica de captura es con red con
una cuerda de la que se tira y atrapan a las piezas. Para ello utilizan un ave
como reclamo; allanan el terreno y colocan cardos de forma artificial (estos
pájaros se alimentan de semillas de cardo), así como un bebedero de
agua;también ponen otros granos como alpiste o trigo». Y prosigue: «Cuando el
ave se posa sobre la red a comer o beber agua tiran de ella y la red se cierra
capturándola».
Las aves son todo un negocio. Cada pieza puede llegar a tener un valor en el
mercado que va desde los 50 hasta los 200 euros, según la especie de que se
trate. González explica que «se suelen vender en bares de la zona, en domicilios
particulares, en la zona Puerto e incluso en el propio Mercado Central».
«Hay pajareros que se sacan un autentico sobresueldo con la venta de estas
especies protegidas en extinción», denuncia Ben Magec.
Los ecologistas han denunciado los hechos ante la Agencia de Protección del
Medio Natural, el Seprona de la Guardia Civil, el Cabildo de Gran Canaria y el
Ayuntamiento pero hasta el momento todas sus peticiones han caído en saco roto.
Ben Magec solicita que se abra una «investigación policial urgente en esta zona
para capturar a unos individuos sin escrúpulos que, por ganar dinero, extinguen
especies de un enorme valor ornitológico».
Las sanciones establecidas por la captura ilegal de estas aves van desde los
4.000 a los 20.000 euros. Además existe la obligación por parte del Seprona de
liberar de modo inmediato las aves capturadas así como de incoar un expediente
sancionador que puede acabar en detención del individuo que sea sorprendido
capturando aves o vendiéndolas en cualquier punto de la Isla.
Fuente: Radiotamaraceite.com, 19
de Julio de 2007
-China cultiva tomates y
sandias "espaciales"
Varias empresas están llevando a cabo
en China cultivos experimentales de hortalizas tales como sandías y tomates,
cuyas semillas, después de haber pasado cierto tiempo en el espacio, son
modificadas por la "radiación cósmica", lo que agranda su tamaño y su
rendimiento, señaló hoy el diario
"Shanghai
Daily".
Una de las mayores firmas dedicadas a
su producción, Pujiang Zhengyi Horticulture, situada en las afueras de Shanghai,
cosechará cerca de 50 toneladas de "cultivos espaciales" este mes, sembrados a
partir de semillas enviadas fuera del planeta en alguna misión espacial china, o
de las generaciones derivadas de ellas.
"Los (frutos de los) cultivos espaciales son generalmente mayores que los
normales, y el color de algunas especies varía", explicó Shi Zhenggang,
subdirector general de la empresa, que plantó en febrero 25 especies vegetales,
incluidos tomates, sandías y maíz, cuyas semillas estuvieron a bordo de un
satélite recuperado en 2006.
La producción de estos cultivos suele ser un 25 por ciento mayor que la obtenida
con semillas convencionales, aseguró Shi, aunque se den fenómenos como el cambio
de tonalidad de la piel de las sandías, del verde al amarillo.
La primera cosecha se pondrá a la venta en forma de un surtido de distintos
vegetales "espaciales", con precios de entre 100 y 150 yuanes por caja (9,5 y
14,3 euros, 13,2 y 19,8 dólares), y la segunda se espera para septiembre.
Estos cultivos no suponen ningún riesgo para la salud humana, ya que los cambios
en las semillas ocurren de manera espontánea cuando entran en contacto con la
"radiación cósmica", lo que las diferencia de los alimentos modificados
genéticamente, aseguró Feng Zhiyong, miembro de la Academia de Ciencias
Agrícolas de Shanghai.
Los cultivos "espaciales" se hicieron famosos en la metrópoli china en febrero
pasado, cuando un restaurante local ofreció en su menú de San Valentín una
variedad de patatas tropicales chinas, de color violeta, cultivadas a partir de
semillas que estuvieron a bordo del segundo vuelo espacial chino tripulado.
Fuente: EFE, 19 de Julio de 2007
-Un parásito asiático
detrás de la desaparición masiva de abejas
Un científico español ha descubierto
que el causante de la desaparición masiva de miles de abejas en Europa y América
es un parásito común entre las abejas asiáticas.
El culpable de su muerte es, según el
científico Mariano Higes, que ha estado estudiando el fenómeno durante años, un
parásito miscroscópico conocido como "nosema ceranae".
Para llegar a esta conclusión Higes y sus compañeros del centro de Guadalajara,
capital de esta industria en España, han analizado miles de colmenas en
diferentes países.
"Empezamos en el año 2000 con la hipótesis de que se debía a algún pesticida,
pero pronto descubrimos que no era así", afirmó el científico, que descubrió que
los rastros de pesticida sólo se encontraban en una proporción mínima de
ejemplares y las abejas también morían en otras áreas situadas a miles de millas
de las tierras cultivadas.
Durante mucho tiempo Higes y sus compañeros pensaron que otro parásito llamado "nosema
apis", muy típico en las zonas húmedas, era el que estaba matando las abejas,
pero pronto descubrieron que los síntomas eran diferentes y que las abejas
también morían en zonas secas.
El parásito "nosema ceranae", verdadero culpable de la muerte de las abejas,
puede matar a las abejas europeas en cuestión de días. Sin embargo, se ha
descubierto que las asiáticas son mucho menos vulnerables a este parásito, que,
según Higes, ha infectado al 50% de las colmenas de España, país que, con sus
2,3 millones de colmenas, alberga un cuarto del total de las colmenas de Europa.
Fuente: ABC Periódico
Electrónico S.A, 19 de Julio de 2007
-Medidas concretas para
cumplir Kioto
El Gobierno aprobará el próximo
viernes, en un Consejo de Ministros monográfico sobre cambio climático, la
Estrategia Española de Cambio Climático y Energía Limpia, que contiene un
paquete de 170 medidas concretas y urgentes, con un calendario claro y recursos,
para cumplir el Protocolo de Kioto.
Así lo anunció el pasado mes de junio
el presidente del Gobierno, José Luis Rodríguez Zapatero, quien subrayó el
compromiso del Ejecutivo para que España esté "en el liderazgo" de la lucha
contra el cambio climático y a favor del uso de energías renovables. Como parte
"esencial" del paquete de medidas urgentes, Zapatero destacó un plan de ahorro y
eficiencia energética para el periodo 2008-2012, que incluye un plan específico
para los edificios públicos.
El pasado viernes, el Consejo de Ministros avanzó ya una parte del mismo al
adoptar un acuerdo por el que se limita a 24 grados centígrados la temperatura
mínima durante todo el verano -desde el 1 de junio hasta el 30 de septiembre-,
en todos los edificios de la Administración General del Estado, con el que el
Gobierno pretende "dar ejemplo".
La vicepresidenta primera del Gobierno, María Teresa Fernández de la Vega,
señaló entonces que cuando el plan se ponga en marcha en su totalidad el ahorro
de energía en los edificios públicos se situará en torno a un 30%.
La Estrategia de cambio climático, que fue presentada públicamente el pasado mes
de febrero y sometida posteriormente a información pública, define once áreas de
actuación, con "especial dedicación" a los denominados sectores difusos:
transporte, residencial, comercial, institucional, agrícola y servicios, explicó
el jefe del Ejecutivo.
Así, en el sector del transporte, se aprobará una norma básica sobre movilidad
sostenible, se potenciará el transporte ferroviario de mercancías y se crearán
"autopistas del mar".
Para el transporte privado, se incluyen medidas de carácter fiscal en relación
con la contaminación de los vehículos, siguiendo el criterio de eximir a los
coches "más limpios" de pagar el impuesto de circulación.
Las medidas incluyen el establecimiento de requisitos de eficiencia energética
en el alumbrado público y en los edificios, para lo cual se sustituirán
progresivamente las calderas domésticas de carbón hasta su completa desaparición
en 2012, y se promocionarán las energías renovables.
En el sector agrario y ganadero, el Ejecutivo plantea la reducción de los abonos
minerales y fitosanitarios y los fertilizantes nitrogenados y aumentar la
superficie destinada a cultivos energéticos y favorecer la producción ecológica.
Se persigue también que los "biocarburantes" supongan el 10% del combustible que
consume el transporte en 2020 y que las energías renovables se sitúen en una
situación competitiva frente a los combustibles fósiles en 2010.
El Consejo de Ministros aprobará también el viernes un Real Decreto que modifica
el que aprobó el Plan Nacional de Asignación de derechos de emisión de gases de
efecto invernadero para el periodo 2008-2012, y que se ajusta a las exigencias
de la Unión Europea.
El pasado 26 de febrero, la Comisión Europea aprobó el Plan español, con la
condición de que se cumpliesen unos objetivos más ambiciosos para reducir las
emanaciones de CO2 en 422.271 (0,28% del total propuesto).
Una vez aprobada esa norma, el lunes siguiente se hará público el plan de
asignación individualizado por instalación, según fuentes del
Ministerio de
Medio Ambiente.
Fuente: EFE, 19 de Julio de 2007
-Satélites de observación de rayos X
descubren la mayor colisión del universo
Los telescopios espaciales de rayos X XXM-Newton y
Chandra han capturado la imagen de dos cluster dentro de otro gigante (Abell
576).. Este hallazgo puede hacer creer que los estas acumulaciones de estrellas
colisionan más rápido que lo que se pensaba.
El choque entre galaxias deja un rastro
de gas caliente que se extiende a lo largo del espacio. Reconocer señales
parecidas en Clusters no es tan fácil.
En esta ocasión Renato Dupke junto a
sus compañeros de la universidad de Michigan intentaron dar con el rastro de la
colisión de clusters utilizaron los observatorios espaciales sabiendo que el
rastro de gas dejado no es uniforme. En este caso ellos vieron que existía u na
diferencia de velocidad en el gas según la zona que se mirara. La explicación
para esta diferencia de velocidad, se puede deber a que los clusters están
alineados, uno está detrás del otro, desde el punto de vista que tienen los
telescopios. Este tipo de disposición se debe a que uno de los clusters
atraviesa el otro como si fuera una bala, de ahí el nombre de cluster bala.
Nubes frías de gas se desprenden
alrededor de los clusters. Pertenecen al núcleo de estos grupos de estrellas.
Los datos dan como resultado que la
velocidad de colisión ha sido de 3300 Km/s, una velocidad que para algunos
modelos matemáticos es imposible que puedan alcanzar dos clusters.
Este tipo de colisiones es muy rara. Entre una cada mil
y una cada cien clusters. El gas desprendido en estas colisiones pasa
desapercibido en las estimaciones que se hacen de la masa de los clusters, lo
que da lugar a masas menores de las reales. Esto es importante saberlo ya que la
cantidad de masa que tienen los clusters determina los cálculos de las
estimaciones que determinan los parámetros cosmológicos que rigen la expansión
del universo.
Más información: http://www.esa.int/esaSC/SEMHOPNSP3F_index_1.html#subhead2
Fuente: ESA, 18 de Julio de 2007
-Julio Verne va al espacio
La Agencia Europea del Espacio (ESA,
por sus siglas en inglés) ya comenzó el desplazamiento del aparato por tierra
hasta el puerto de Rotterdam, de donde partirá en barco hasta América del Sur.
El Julio Verne es un Vehículo de
Transporte Automático (ATV, por sus siglas en inglés) que reemplezará a los
clásicos cargueros rusos Progreso en el abastecimieto de la Estación Espacial
Internacional (EEI).
Nuevo ATV (a la derecha), viejo carguero ruso
Progreso (a la izquierda)
En enero saldrá al espacio desde la
base guyanesa de Kurú con una carga de hasta siete toneladas y media.
"Novedad"
El vehículo, que ha sido sometido a
pruebas durante tres años, se destinará a transportar hacia la EEI tanto
alimentos, aire y agua como combustible, equipos científicos y piezas de
repuesto. El nuevo ATV tiene 10,3 metros de largo y 4,5 de diámetro y consta de
un módulo de propulsión y otro de carga. Es cilíndrico, pesa 20,3
toneladas y está revestido de un material aislante para resistir choques con
meteoritos pequeños.
El Julio Verne "constituye una novedad
en muchos aspectos", declaró a la BBC Daniel Sacotte, director de Vuelos
Tripulados, Microgravedad y Exploración de la ESA.
"Hemos desarrollado muchas nuevas
tecnologías en este ATV, y esto nos permitirá aplicarlas en otros campos en la
exploración espacial en el futuro", agregó.
-La separación dramática de
Gran Bretaña
Una inundación catastrófica separó a
las islas británicas del continente europeo hace 200.000 años, revela un estudio
científico realizado con el uso de un sonar en el Canal de la Mancha.
Las imágenes revelan profundas marcas
en el lecho marino del canal, que aparentemente se produjeron por una descarga
masiva de agua.
Los científicos que participaron en el
estudio dijeron a la revista Nature que el torrente probablemente vino de
un lago gigante en lo que ahora es el Mar del Norte. Los geólogos creen que
algún evento, quizás un terremoto, provocó una abertura en el borde del lago
cerca del estrecho de Dover. El doctor Sanjeev Gupta y sus colegas del Imperial
College de Londres afirman que la descarga debe haber sido una de las
inundaciones más importantes en la historia reciente de la Tierra y ofrece una
teoría que explica la formación insular de Gran Bretaña. "Este evento o serie de
eventos que causaron la ruptura cambió el curso de la historia de las islas
británicas", comentó el doctor Gupta a la BBC.
Una enorme inundación creó lo que hoy es Gran
Bretaña
"Si no hubiera ocurrido, Gran Bretaña
habría sido siempre una península de Europa, no habría habido necesidad de hacer
un túnel bajo el Canal de la Mancha y se podría caminar entre Francia y Gran
Bretaña como lo hacían los humanos que vivían antes de que ocurriera dicho
evento".
El sismo
El concepto de una gran inundación
proviene de la forma en que los científicos entienden la edad de hielo en el
norte de Europa. Se cree que hace cientos de miles de años, cuando las capas de
hielo descendieron de Escocia y Escandinavia, había un istmo que comunicaba a
Gran Bretaña con Europa. Este acantilado se elevaba tal vez unos 30 metros sobre
el nivel que tiene el mar de nuestros días en el Canal de la Mancha.
Los paleoinvestigadores piensan que
limitaba en el noreste a un gran lago lleno de aguas glaciales alimentado por
los ríos Támesis y Rin.
Entonces -aunque los científicos no
están seguros de la fecha precisa- sucedió algo que fracturó el istmo conocido
como risco Weald-Artois.
"Posiblemente sólo fue la acumulación
de agua. Tal vez algo provocó la fractura; ahora se sabe que hay actividad
sísmica menor en la zona de Kent", explicó la doctora Jenny Collier del Imperial
College.
Imagen hecha con sonar
Ríos desviados
De cualquier manera, cuando se fracturó
el risco, la descarga de agua debió haber sido espectacular. El estudio del
Imperial College y la Oficina Hidrográfica del Reino Unido usó ondas de sonar de
alta resolución para hacer el mapa del mundo sumergido en la cuenca del Canal de
la Mancha.
Las imágenes muestran profundas grietas
y relieves que marcan los accidentes geológicos creados por grandes cuerpos de
agua que se movían rápidamente.
Se cree que el clímax de la enorme
inundación pudo haber durado varios meses, descargando aproximadamente un millón
de metros cúbicos de agua por segundo.
Y a juzgar por la forma de algunos
cortes, es probable que la inundación haya tenido al menos dos fases.
"Francamente me sorprendió", dijo la
doctora Collier. "He trabajado en muchos lugares exóticos del mundo, entre ellos
algunos riscos submarinos que tienen formas espectaculares, y fue una enorme
sorpresa encontrar algo con implicaciones tan grandes en la costa de la isla de
Wight. Fue completamente inesperado".
Los investigadores dijeron a Nature
que la fractura del risco y la inundación que eso provocó sirvieron para
reorganizar el drenaje de los ríos en el noroeste de Europa, y abrieron nuevos
cauces al Támesis y al Rin.
Relleno fósil
La teoría de la enorme inundación ya
tiene 30 años, pero lo que ha revelado el sonar representa la más clara historia
del caso. Estudios previos de restos de animales prehistóricos del último medio
millón de años han revelado el papel crucial del Canal de la Mancha en el curso
de la historia natural de Gran Bretaña. El Canal ha actuado como un filtro que
permitió el paso de algunos animales de tierra firme e impidió el de otros.
Y aun cuando el agua estaba congelada
en capas gigantes de hielo y los niveles del mar se desplomaron, los ríos
Támesis y Rin habrían arrojado el producto de los deshielos en un sistema
fluvial que transcurría por el Canal. Los científicos pueden ver esta influencia
en los fósiles de períodos claves de la historia.
Así lo dice el profesor Chris Stringer,
director del proyecto de Antiguos Asentamientos Humanos de Gran Bretaña (Ahob,
por sus siglas en inglés), que trata de descubrir los detalles de la prehistoria
de las islas británicas.
"El tiempo y el método de formación del
Canal de la Mancha han sido tema de una larga discusión porque, después de todo,
hicieron de Grean Bretaña lo que es ahora", dijo el profesor Stringer.
"Las pruebas que presenta este estudio
son espectaculares. Explican y refuerzan la imagen que Ahob lleva años
trabajando para explicar la creciente separación de Gran Bretaña y Europa desde
hace 400.000 años".
Fuente: BBC
Mundo, 18 de Julio de 2007
-Entrevista a Robert Aymar sobre el CERN
El físico francés
Robert Aymar se hizo cargo, en 2004, de la dirección del
Laboratorio Europeo de Física de Partículas
(CERN, junto a Ginebra), con el cometido de culminar la construcción del nuevo
gran acelerador, el LHC, instalado allí en un túnel de 27 kilómetros. Ahora
tiene ya a la vista, dentro de unos meses, la puesta en marcha de esa colosal
máquina científica, dedicada a explorar cómo funciona el universo en sus
componentes fundamentales.
Aymar tenía ya mucha
experiencia en la dirección de grandes proyectos e instituciones científicas
-incluido el programa del reactor internacional de fusión Iter-, cuando asumió,
hace casi cuatro años, la dirección, del CERN. Hasta entonces se había dedicado
a la física del plasma y la fusión nuclear, pero en el mundo de las partículas
elementales se sintió cómodo desde el principio porque, dice, "las áreas de
física pueden ser diferentes pero los métodos son los mismos: la curiosidad por
descubrir algo nuevo, la calidad de los experimentos, el análisis en
profundidad, la contrastación de los resultados... la investigación fundamental
es similar en cualquier campo". Aymar, 71 años, en su despacho en el CERN,
presenta el panorama de lo que queda por hacer hasta lograr los primeros choques
de partículas en el LHC, el año que viene, y las perspectivas de avanzar en el
conocimiento del microcosmos y del macrocosmos.
Pregunta. Se acerca la hora de estrenar el LHC. ¿Cuál es el calendario?
Respuesta. El LHC se empezó a diseñar en los años ochenta, y en 1996 se aprobó
su construcción. Ahora está casi listo. El plan de trabajo es asegurar que
podemos empezar a obtener datos científicos a mediados del año que viene, para
que a finales haya resultados significativos. Eso significa que todos los
sistemas tienen que funcionar correctamente, toda esta enorme cantidad de
equipos, máquinas, detectores, cables, aceleradores, de imanes, etcétera.
P. ¿El encendido es un proceso largo?
R. Si, y podemos decir que ya estamos encendiendo. De hecho, parte del
acelerador está ya en su estatus operacional. Pero tenemos que hacerlo con todos
los sectores, de manera que en la próxima primavera se crearán ya los haces de
partículas en la máquina para hacerlas chocar en condiciones estables.
P. Este calendario supone un cambio respecto al de hace unos meses, que contaba
con un ensayo el próximo noviembre.
R. Si, teníamos previsto una fase de funcionamiento de ingeniería en noviembre,
aunque sin toma de datos científicos aún. Pero hemos suspendido ese paso y vamos
directamente al objetivo fundamental de empezar a hacer física con el LHC a
mediados de 2008. Esto se debe a que hemos tenido problemas con unos grandes
imanes defectuosos y hemos preferido cancelar ese encendido de ingeniería para
arreglarlos, sin aplazar el inicio de la operación científica del acelerador.
P. ¿Cómo explicaría a los no especialistas qué se pretende descubrir con esta
gran máquina?
R. Aquí hacemos investigación fundamental. Nos planteamos preguntas esenciales
que, sin experimentos como el LHC, no podríamos responder. Sabemos que estamos
hechos de materia, y conocemos sus ladrillos fundamentales: los átomos, los
núcleos de los átomos, las partículas que los forman... También conocemos las
fuerzas de interacción de esas partículas. Son los componentes de la materia, de
lo que están hechas las galaxias, las estrellas, los planetas y nosotros mismos.
Pero se nos escapan cosas. Por ejemplo, en las galaxias hay algo que no sabemos
qué es pero cuyo efecto observamos, y que supone el 25% de la masa del universo.
Queremos averiguar de qué se trata esa materia oscura; hay muchas teorías, pero
sólo los resultados experimentales nos pueden dar respuestas correctas.
P. ¿Por qué necesitan unos experimentos tan complejos?
R. Este es el mayor experimento del mundo. La cuestión es que necesitamos
alcanzar altas energías en las colisiones de partículas -con el LHC superamos
casi en un orden de magnitud a los aceleradores previos-. Sencillamente
aplicamos la ley de Einstein: la energía se transforma en masa (las partículas)
y ésta, en energía de nuevo. En las colisiones a energía suficientemente alta se
producirán nuevas partículas, incluida, tal vez, una especial que estamos
buscando. El problema es que no entendemos el proceso que genera la masa de
todas las cosas, y esa partícula que buscamos, el bosón de Higgs, puede
ayudarnos a explicarlo.
P. ¿Qué ha sido más difícil en el proyecto del LHC?
R. Para hacer un acelerador mucho más potente que los anteriores hay que innovar
mucho. La innovación en el LHC es muy grande y había que lograrlo con la
solución más barata. La receta del éxito del proyecto es hacer esta máquina
enormemente compleja con una cantidad de dinero, que tampoco es tan grande: unos
4.000 millones de euros.
P. ¿Y qué significa para la ciencia y la tecnología europeas?
R. Hacemos física fundamental, pero necesitamos desarrollar instrumentación,
computación, redes informáticas... todo esto no está disponible en el mercado,
así que desarrollamos las herramientas que necesitamos. Y hacemos mucha
transferencia de tecnología, para que toda esa innovación llegue a la sociedad.
El ejemplo más famoso es la web, que se descubrió aquí, en el CERN, en 1990,
porque los físicos necesitaban una red de ordenadores para trabajar juntos. Otro
ejemplo: transferimos a la medicina, para diagnóstico hospitalario y
tratamientos, las tecnologías que desarrollamos.
P. ¿Qué beneficio saca un país como España de su participación en el LHC?
R. España no es diferente de los otros países europeos y el beneficio de su
participación es obvio desde el punto de vista científico y de entrenamiento con
los físicos del más alto nivel. Pero para la industria es muy importante
también. Tenga en cuenta que encargamos a las empresas cosas mucho más difíciles
que lo que pide un cliente estándar, con un control de calidad y una precisión
que no son normales.
UNA MÁQUINA PARA FUNCIONAR 20 AÑOS
El LHC está formado por 1.650 grandes imanes, de varias toneladas de peso cada
uno, alineados hasta formar un anillo de 27 kilómetros de longitud. Está
instalado en el túnel que el Laboratorio Europeo de Partículas (CERN), excavó
hace un par de décadas, a cien metros de profundidad en la frontera
franco-suiza, para su anterior acelerador, el LCC.
Los imanes guían y enfocan los haces de partículas para que éstas choquen en el
centro de cuatro grandes detectores, y son equipos superconductores que
funcionan a 271 grados centígrados bajo cero, enfriados por helio líquido. No
hay ningún acelerador en el mundo que logre la altísima energía en las
colisiones de partículas que se alcanzarán en el LHC. Está previsto que el
acelerador se actualice y mejore en 2012 y que funcione en total unos 20 años.
Fuente: El
País, 18 de Julio de 2007
-El
laboratorio Columbus viajará a la ISS a finales del 2007
Hace algo más de
medio siglo los viajes de Cristóbal Colón duraban años; hoy en día el 'Columbus'
tardará apenas dos días llegar a su punto de destino: la
Estación Espacial Internacional.
El laboratorio espacial diseñado y fabricado por la
Agencia Espacial Europea
viajará, por fin, rumbo al espacio en diciembre de 2007 a bordo del
transbordador 'Atlantis'. Desde su instalación, los astronautas a bordo del
complejo espacial dispondrán de un 'amplio' espacio para hacer experimentos.
La historia del
laboratorio 'Columbus' está marcada por los continuos retrasos. Su primera fecha
de lanzamiento fue 2002, pero el accidente del transbordador 'Columbia' obligó a
trastocar los planes y en los últimos años ha sido cambiado de fecha una y otra
vez. Pero ahora parece que ya no hay marcha atrás.
El laboratorio fabricado por la Agencia Europea del Espacio (ESA) lleva en
Florida desde mayo de 2006, cuando salió de la fábrica de Toulouse, y desde
entonces espera en un hangar, donde los ingenieros de ambas agencias espaciales
han ido colocando diversas piezas, retocando secciones y terminando su
instalación final. A principios de este año, los técnicos ya instalaron el
hardware final en el sistema y en las últimas semanas los ingenieros han
instalado los anclajes que aseguran el laboratorio a la bodega del transbordador.
El siguiente paso será instalar los paneles que protegerán el laboratorio de
potenciales daños por impacto de meteoritos.
"Una vez que 'Columbus' está operativo y funcionando en el espacio, tendremos
una presencia permanente a bordo de la Estación Espacial. Será como tener
nuestra propia parcela, y cuando tengamos operativo el vehículo espacial Julio
Verne podremos cumplir plenamente nuestros objetivos de ser parte íntegra de la
Estación, compartiendo recursos con los otros participantes en el proceso, en
lugar de alquilándoles espacio cada vez que vamos", señaló Bernardo Pati,
responsable de la misión Columbus.
El laboratorio, de 6,5 metros de largo por 4,5 metros de ancho y forma
cilíndrica, permitirá que hasta tres astronautas puedan trabajar en mangas de
camisa en agradables condiciones. En sus paredes se instalarán 16 estantes con
experimentos, compartimentos y otros equipos.
Dentro del laboratorio habrá una zona para experimentos de carácter biológico,
el Biolab, donde se podrán hacer pruebas con tejidos celulares, pequeñas plantas
y animales; un laboratorio de física de fluidos para estudiar el comportamiento
de los líquidos en condiciones de ingravidez, equipos para analizar las
propiedades de los metales y módulos para ver los efectos de la microgravedad en
el cuerpo humano.
Fuente:
elmundo.es, 18 de Julio de 2007
-Earth attack: los
terrícolas hacia la invasión de Marte
Dentro de dos meses
viajarán al espacio unos ejemplares 'selectos' de líquenes de las montañas
españolas para participar en 'Lithopanspermia', un experimento con el que la
Agencia Espacial Europea (ESA) quiere probar si los organismos vivos pueden
viajar de un planeta a otro 'a bordo' de meteoritos.
Según explicó la investigadora del
Instituto Nacional de Técnica Aeroespacial (INTA) y coordinadora del proyecto,
Rosa de la Torre, el objetivo es testar experimentalmente la hipótesis de la
'Lithopanspermia', que defiende que los organismos vivos
podrían transferirse de un planeta a otro a bordo de meteoritos.
Para ello se han diseñado dos experimentos a
desarrollar, junto a los de otros investigadores europeos, en el satélite Foton-M3,
una nave de la ESA que será lanzada desde la base rusa de Baikonur el
próximo 14 de septiembre.
El primer experimento se hará en la cápsula Biopan-6,
una especie de 'sartén' que expondrá durante 10 días a las muestras al
ambiente espacial, para luego poder estudiar su resistencia a la
radiación y a otras condiciones extremas del espacio.
Líquenes que viajarán al espacio
El segundo ensayo se localizará en el
dispositivo 'Stone', donde los líquenes están protegidos por un
'pequeño escudo' para simular las condiciones en las que podrían viajar los
seres vivos dentro de un meteorito, y comprobar cómo sería su captura y
aterrizaje sobre otro planeta.
Sistemas biológicos
resistentes
Los líquenes, una asociación entre un
alga y un hongo, se han seleccionado como modelo de sistema biológico por su
gran resistencia, y las muestras se han recogido en la Sierra de Gredos y otras
partes del Sistema Central, en Sierra Nevada, en los Alpes Suizos, en el Reino
Unido y en el Desierto de Atacama (Chile).
De la Torre indicó que este proyecto es
la continuación de otros estudios anteriores en el que vienen participando
numerosos investigadores, formando un equipo "auténticamente
multidisciplinar".
Así, por ejemplo, el profesor Leopoldo García Sancho,
de la Universidad Complutense de Madrid (UCM), realizará las medidas
fisiológicas; la doctora Carmen Ascaso, del CSIC, y Jacek Wierzchos, de la
Universidad de Lleida, los estudios de microscopía electrónica; y las
simulaciones 'post-vuelo' correrán a cargo de Gerda Horneck, del Instituto de
Medicina Aeroespacial Alemán.
También participan científicos del
Centro de Astrobiología de Madrid, de la Facultad de Geología de la UCM, de la
Universidad de Düsseldorf, en Alemania, y de la Open University, en Inglaterra.
El proyecto 'Lithopanspermia' implica
un relativo corto periodo de exposición de las muestras, pero según indicó De la
Torre ya se ha empezado a preparar otro experimento complementario donde los
líquenes permanecerán año y medio expuestos sobre la Estación
Espacial Internacional.
Se trata del proyecto 'Life',
para el que ya se han recogido las muestras también en el Sistema Central, y
se espera que sean lanzadas a finales de este año desde Cabo
Cañaveral, en Estados Unidos, para permanecer sobre la plataforma Expose en la
zona americana de la estación.
Parte de las muestras se expondrán
directamente a la intemperie espacial y otra parte, mediante unos filtros, se
instalarán en condiciones semejantes a las del planeta Marte.
Fuente: elmundo.es, 17 de Julio de
2007
-Hallan la dentadura
completa de un Austrolopithecus anterior a "Lucy"
La región de Afar, en Etiopia, sigue
proporcionando pequeños tesoros. El último es una dentadura de Autrolopithecus.
El interés del descubrimiento estriba en que podría ser
el "eslabón" entre dos especies: el Austrolopithecus afarensis,
al que pertenecía la famosa 'Lucy', y su posible predecesor el anamensis.
La dentadura de los Austrolopitheci anamensis, que
vivieron entre 4,2 y 3,9 millones de años, era estrecha y con caninos grandes.
En cambio, los afarensis, que vivieron entre 3,6 y 3 millones de años, tendrían
dientes más planos y adecuados para moler comida. La dentadura hallada,
que se ha encontrado completa, podría pertenecer a una especie que
enlazara las dos anteriores.
Fuente: elmundo.es, 17 de Julio
de 2007
-Una nueva tecnología
permite navegar en internet a una velocidad 40000 veces más rápida que la
velocidad media en España
En España el común de los ciudadanos
navega con una velocidad de 1 mega por segundo, pero ya hay quien cuenta con una
conexión de 40 Gbps, 40.000 veces más rápida. La afortunada es una anciana de 75
años que en Suecia disfruta de la que es la conexión doméstica más rápida de la
tierra y con la que se puede bajar los contenidos que caben en un DVD en apenas
dos segundos.
Sigbritt Lthberg, natural de Karlstad,
en el centro de Suecia, no es una anciana atípica que se mueva entre microchips
y CPUs, más bien todo lo contrario porque utilizó su primer ordenador con 75
años para ser la primera y afortunada persona que navega a 40 Gbps con una red
instalada en una casa. La ha convertido en pionera del ciberespacio su hijo
Peter, un gurú de Internet que instaló la conexión para dar a conocer una nueva
tecnología de su compañía.
Dicha tecnología trabaja con cable de fibra óptica y emplea una nueva técnica de
modulación que permite transferir datos directamente entre dos routers
distanciados hasta por 2 mil kilómetros, sin el uso de transpondedores
intermedios. El superior del original informático de Cisco Systems en Suecia,
Hafsteinn Jonsson consideró que la iniciativa de Peter "es más que una
demostración". "Como trabajadores de la red estamos tratando de persuadir a los
operadores de Internet de que inviertan en conexiones más rápidas y Peter
Lthberg deseaba mostrar cómo puede construirse una red de bajo costo y alta
capacidad", indicó en declaraciones a la publicación sueca The Local, recogidas
por OTR/Press.
LO MÁS COMPLICADO, INSTALAR WINDOWS
Sin duda al empleado de Cisco le salió bien la jugada de querer darle un buen
escaparate porque su iniciativa ha conseguido que la noticia de una anciana con
40 Gbps de ancho de banda, que la han hecho ganarse el título de "anciana más
rápida del mundo", den la vuelta al mundo. "Quiero mostrar que hay métodos más
allá de las formas anticuadas como los cables de cobre o las ondas de radio, que
no tienen las posibilidades que sí tiene la fibra", apuntó él a The Local.
En cuanto a lo complicado de la tecnología, Jonsson todavía tuvo tiempo para
bromear en sus palabras al rotativo. "La parte más difícil de todo el proyecto
fue instalar Windows en la PC de Sigbritt", dijo. Con esta conexión, una persona
podría ver a la vez 1. 500 canales vía IPTV (televisión por Internet) o
descargar el contenido de un DVD en apenas 2 segundos.
Fuente: ABC Periódico Electrónico S.A., 16 de Julio de 2007
-La primera reserva marina de Galicia
Hace ocho años Juan Manuel Gómez accedió a la
presidencia del pósito de Lira y propuso un reserva marina para recuperar varias
especies. Muchos se rieron o manifestaron abierto rechazo. Entonces la bajura
aún defendía bien el oficio con algunos pescados y mariscos. Cuatro años
después, marineros que se habían opuesto, pidieron impulsar el proyecto de
inmediato. Empezaba a fallar el pulpo, el centollo, el bogavante, y hasta las
abundantes maragotas y pintos bajaron en tamaño y número.
Ahora, a punto de entrar en funcionamiento la
primera reserva marina de interés pesquero del litoral atlántico peninsular, en
Os Miñarzos, un trozo de costa carnotana con dos lugares de reserva integral, ya
no se puede navegar, fondear o pescar. Sus fondos guardan mariscos, moluscos y
peces que, de crecer mucho y reproducirse bien, aumentarán sus poblaciones y
devolverán la esperanza a la pesca artesanal.
Reserva gallega
«Aos meus 58 anos, eu xa non coñecín a langosta
nos nosos mares ?explica el patrón mayor?, e resulta urxente coidar o que aínda
temos nunha costa moi rica na que o centolo, a nécora, o polbo ou o lumbrigante
están indo a menos, temos que mentalizar á xente e poñer os medios».
Se impone vigilar la contaminación y reconducir
prácticas del pescar hoy «todo o que veña», para no poder hacerlo mañana. En
Lira señalan que «estamos ben asesorados pola Universidade da Coruña e pensamos
que vai dar resultado». Juan Freire Botana es uno de los científicos implicados.
En su opinión un punto clave es que la de Lira es la primera de España promovida
por los propios pescadores, hasta ahora fueron la Administración o los
ecologistas quienes las impulsaron, integrando después a los marineros.
La conservación de los recursos es una
necesidad para todos y en Lira unas diez personas de la zona vigilarán
permanentemente por tierra y a flote unas 1.200 hectáreas. Otras reservas del
Mediterráneo contrataron dicho servicio con Tragsa y aquí el pósito intentará
que sea la Xunta quien lo organice.
Los impulsores de Os Miñarzos visitaron antes
reservas como la de la isla de Tabarca, en Alicante, puesta en marcha en 1986.
En ocho años, según Juan Manuel Gómez, los marineros consiguieron incrementar
sus capturas un 85%, porcentaje que lograron en cuatro años los mallorquines de
Forners. También en la reserva de la isla de Lundy, en Gran Bretaña, donde
acotaron por dos años un área marina para centollo y lubrigante, recuperaron los
stocks en cantidades similares. Representantes del condado de Devon, en aquel
lugar, conocieron recientemente en Lira el proceso legal de la iniciativa. Los
buenos resultados de capturas en lugares distintos son un importante estímulo
para demostrar que el mar, si se cuida, es el lugar ideal para criar los peces,
tan bueno al menos como los tanques de tierra.
En Lira soltaron 3.000 ejemplares de bogavante
y van repoblar con otros tantos en breve. La colaboración para el control de
capturas de los mismos, al igual que ocurre con los rodaballos marcados que se
van a otros arenales, es fundamental para gestionar los recursos. Eso y poner
coto a los incontrolados de la pesca submarina. Y no seguir pescando nécora o
pulpo sin topes. «De pouco vale vedar o polbo dous meses se logo pescamos sen
control ?argumenta el patrón mayor carnotano?; igual que acordaron os
arrastreiros cos topes de lirio e xurelo, nós temos que respectar os 40 quilos
por tripulante e día para non tirar os prezos do polbo, que vendemos agora en
lonxa a 5,50 euros e está a dez na praza».
Una buena gestión ?no inundar el mercado de
centolla en Navidad, en lugar de vender en más épocas ? puede revalorizar y
hacer sostenible la pesca de bajura. En Lira son 31 barcos artesanales y sólo
seis alcanzan los 15 metros de eslora. Destaca la rapidez de puesta en marcha de
su proyecto pues la propuesta del británico de Lundy data de 1971 y no se aprobó
hasta 1986. Sortear las reticencias del numeroso y a menudo cauteloso sector
pesquero también es un hito. Es la primera reserva del norte peninsular cuando
ya hay otras nueve en el Mediterráneo y Canarias: la reserva Marina Masía Blanca
(1999), islas Columbretes en la comunidad Valenciana (1990), la referida de
Tabarca, Cabo de Palos e islas Hormigas en Murcia (1995), isla de Alborán en
Andalucía (1997), isla de la Graciosa e islote del Norte de Lanzarote (1995),
Mar de las Calmas y Marina del entorno de Punta (1996) y la de la isla de La
Palma (2001).
Fuente: La Voz de Galicia, 15 de
Julio de 2007
-Otra pista genética para
la diabetes de tipo 1
Un estudio publicado en
'Nature'
ha desvelado una nueva pista genética de la diabetes tipo 1, también llamada
insulino-dependiente o juvenil (sobreviene en su mayoría antes de los 30 años) y
que afecta al 10 y 15% de las personas que han diagnosticado la enfermedad.
Científicos estadounidenses y
canadienses han identificado un gen implicado en el desarrollo de la diabetes de
tipo 1, lo que puede allanar el camino para prevenir esa dolencia que afecta
sobre todo a niños y adolescentes.
El descubrimiento se realizó durante un estudio genético llevado a cabo a más de
500 pacientes que padecían esa dolencia, según relatan en el último número de la
revista británica
'Nature Genetics'.
Durante el estudio, el doctor Hakon Hakonarson, del
Hospital Infantil de Filadelfia
(EE.UU.) y sus colegas, confirmaron el papel de varios genes ya identificados
como desencadenantes del riesgo de sufrir diabetes de tipo 1.
Pero además observaron un vínculo entre esa dolencia y un gen llamado KIAA0350,
cuya función se desconoce, por lo que un conocimiento mayor del mismo y de otros
factores genéticos puede permitir a los médicos predecir los niños que van a
sufrir la enfermedad.
EXCESO DE GLUCOSA EN LA SANGRE
La diabetes tipo 1 es una enfermedad autoinmune, es decir que es el propio
organismo en el que ataca, en esta ocasión, a la células que fabrican insulina.
Si ésta los tejidos del cuerpo no pueden asimilar corectamente el azúcar y se
acumula en la sangre en una cantidad excesiva.
La insulina es una hormona que se genera en el páncreas cuya función primordial
es permitir que las células de nuestro organismo obtengan la glucosa que circula
junto a otros nutrientes por la sangre. Cuando aumenta la presencia de glucosa
en la sangre, el páncreas incrementa su actividad para producir más insulina y
favorecer así la captación de la glucosa por parte de las células.
Sin embargo, en algunas ocasiones, este proceso no se realiza adecuadamente y, o
bien nuestro organismo no segrega la suficiente insulina, o bien esta hormona no
es identificada correctamente por nuestras células, por lo que su acción no es
efectiva.
En estos casos el nivel de glucosa en la sangre aumenta y aparece la enfermedad
que conocemos como diabetes. El tipo 1 suele tener un origen genético y
normalmente se desarrolla en la infancia o en la adolescencia. Se produce como
resultado de una lesión del páncreas que provoca la destrucción de las células
que producen insulina. La generación de esta hormona en estas personas es, por
tanto, nula y se hace necesario su administración externa para evitar un exceso
de glucosa en la sangre.
Fuente: elmundo.es, 16 de Julio de 2007
-El Gran Telescopio
Canarias ve su primera luz
La Palma/ El Gran Telescopio CANARIAS (GTC) está listo
para su Primera Luz, que tendrá lugar esta noche a las 23:00 h (hora canaria,
las doce en la Península). Será la primera vez que este telescopio
óptico-infrarrojo reciba la radiación de los objetos astronómicos. El acto
será presidido por el Príncipe de Asturias, Astrofísico de Honor del Instituto
Astrofísico de Canarias (IAC), y contará con la presencia del Presidente del
Gobierno de Canarias, don Paulino Rivero, la Ministra de Educación y Ciencia,
Mercedes Cabrera, y con el Secretario de Estado, Miguel Ángel Quintanilla.
Podrá seguirse en directo por Internet en la dirección
www.telefonica.es/gtcprimeraluz.
En su primera ojeada al Universo, el GTC apuntará a la
Estrella Polar con 12 de los 36 segmentos que conformarán un espejo primario
con una superficie equivalente a la de un único espejo circular de 10,4 m de
diámetro, lo que lo convierte en el mayor del mundo. El Dr. Pedro Álvarez,
director de GRANTECAN, la empresa encargada del proyecto, explica que "la
superficie reflectante del telescopio son 100 g de aluminio que requieren una
estructura de 400 toneladas para que los espejos se mantengan en la forma y
posición correctas".
En palabras del Prof. Francisco Sánchez, director del IAC, “tres eran las
metas perseguidas: la primera, dotar a la comunidad astronómica española de un
instrumento propio muy competitivo; la segunda, mantener los observatorios de
Canarias entre los primeros del mundo; y la tercera, estimular a la industria
española hacia la tecnología avanzada.”
A la Primera Luz asistirán personalidades del mundo científico, políticos y
representantes de las instituciones de Estados Unidos y México que participan
en el GTC. Entre ellos se encontrará Brian May, el legendario guitarrista y
compositor del grupo Queen, que realizó parte de su doctorado en Astrofísica
en el IAC.
Llegar a los confines del Universo
Los objetos celestes más distantes y débiles del Universo estarán al alcance
del GTC gracias a sus observaciones en luz visible e infrarroja. Con él será
posible captar el nacimiento de nuevas estrellas, estudiar más a fondo las
características de los agujeros negros o descifrar los componentes químicos
generados tras el Big Bang. Uno de sus objetivos es hallar planetas similares
al nuestro en otros sistemas estelares.
El GTC no se diferencia de los demás telescopios sólo por su gran abertura,
sino también por los instrumentos científicos con los que está equipado. Los
primeros en funcionar serán OSIRIS y CanariCam y, más adelante, se instalarán
los instrumentos de segunda generación: EMIR, FRIDA y CIRCE.
Tras la Primera Luz, la fase de ajustes y calibraciones, tanto del telescopio
como de sus instrumentos científicos, se prolongará aproximadamente un año. A
partir de este momento estará abierto a la comunidad científica, que comenzará
a hacer ciencia de vanguardia mediante el uso regular del telescopio.
El GTC supone un paso más en el afán del IAC por facilitar a nuestra comunidad
astrofísica las herramientas para realizar ciencia competitiva y,
paralelamente, impulsar el desarrollo tecnológico e industrial del país. Forma
parte del Mapa de Infraestructuras Científicas y Tecnológicas Singulares (ICTS)
y en su diseño, construcción y montaje han intervenido más de mil personas y
un centenar de empresas. España, México y los Estados Unidos han colaborado
para que el telescopio sea una realidad.
Funcionamiento: tres espejos concentran la luz incidente
Fuente: Canarias24horas.com, 13 de Julio de 2007
-Descubren como suprimir la
memoria
Investigadores de la
Universidad de Colorado en Boulder (Estados
Unidos) han descubierto un mecanismo de supresión de la memoria activo en el
cerebro humano que funciona en dos fases. Las conclusiones de su trabajo se
publican esta semana en la revista
'Science'.
Los investigadores, dirigidos por E. Depue,
utilizaron imágenes de resonancia magnética funcional (IRMf) para analizar la
actividad de las regiones cerebrales encargadas del procesamiento de la memoria.
Durante el trabajo de investigación se solicitó a los participantes que de forma
intencional recordaran un recuerdo o que lo suprimieran de su memoria. Tras
ello, los investigadores examinaron las imágenes de IRMf de la parte implicada
en la memoria del cerebro, la corteza prefrontal.
Los investigadores descubrieron que en primer lugar una porción de la corteza
prefrontal suprime regiones que participan en los aspectos sensoriales de la
memoria. Después, una parte diferente de la corteza prefrontal suprime las
regiones cerebrales que apoyan los procesos de memoria y aquellas áreas del
cerebro que apoyan las asociaciones emocionales con la memoria.
Según los científicos, los resultados ayudan a una mejor comprensión de los
mecanismos cerebrales implicados en el control de la memoria y especialmente
aquellos que están asociados con la falta de control sobre los recuerdos
emocionales y los pensamientos como los que padecen las personas con estrés
postraumático y trastornos obsesivo-compulsivos.
Fuente: Science
-Desmienten que la mayor
actividad del sol afecte al clima
El cambio climático que está
experimentando el planeta no tiene que ver con los efectos de una mayor
actividad solar sobre los rayos cósmicos que llegan del espacio.
Así lo aseguran los científicos del
Laboratorio británico Rutherford-Appleton y del
Centro Mundial de Radiaciones, ubicado en Suiza, que han echado por tierra una
teoría en la que se desvinculaba el aumento de las temperturas de la actividad
humana.
Nuevos análisis realizados por Micke Lockwood y sus colegas han demostrado que
la intensidad de la actividad solar ha disminuido durante los últimos 20 años,
pero sin embargo las temperaturas globales han aumentado 0,4 grados centígrados
en las últimas tres o cuatro décadas, una tendencia que aún continúa.
Los científicos recuerdan que la actividad del Sol tiene ciclos de más o menos
intensidad cada 11 años, pero que se engloban en otro más general que durante el
siglo XX ha originado un leve aumento de las temperaturas. Sin embargo, a partir
de 1985 la situación ha revertido, por lo que, siguiendo esta lógica, deberían
haber bajado las temperaturas, cuando lo que han hecho es aumentar más que en
los cien años anteriores.
La teoría de los rayos cósmicos fue lanzada hace unos meses por científicos del
Centro Nacional Espacial de Dinamarca,
quienes aseguraron que las emisiones de CO2 no afectaban al clima terrestre,
sino que se trataba de un fenómeno natural: los rayos cósmicos procedentes de
las estrellas llegan a la Tierra con más o menos intensidad en función del campo
magnético del Sol. Señalaron que mediciones de 20 años demostraban un vínculo
directo entre la formación de de nubes (que vuelven el clima más o menos frío) y
la incidencia de estos rayos cósmicos.
Loockwood acusa ahora a estos expertos de manipular los datos y vuelve a
descargar la responsabilidad sobre la especie humana.
Fuente: elmundo.es, 12 de Julio de 2007
-Ignasi Ribas habla para
ABC sobre un exoplaneta con agua
Un exoplaneta con agua, es decir, un
planeta ajeno a nuestro sistema solar en el que el agua forma parte mayoritaria
de su composición. Esta es la primicia descubierta por un equipo internacional
de científicos adscritos a la
Agencia Espacial Europea
(ESA), con participación española del
Consejo
Superior de Investigaciones Científicas (CSIC).
Pero no hablamos de agua como la que sale del grifo o la que llena los mares. Se
trata de vapor de agua.
Ignasi Ribas, experto en astrofísica
estelar del
Instituto de Ciencias del Espacio y coautor del
hallazgo, explicó ayer a ABC que «el planeta extrasolar HD 189733b, conocido
como el «Júpiter caliente», que orbita en torno a la estrella del mismo nombre,
la HD 189733, se halla a 63 años luz de la Tierra, en la constelación Vulpecula».
De entre los algo más de doscientos planetas extrasolares descubiertos hasta la
fecha, se sospecha que en algunos de ellos el agua puede estar presente, pero
esta es la primera vez que se comprueba científicamente.
OBSERVADO POR EL «SPITZER»
Las conclusiones de la investigación, publicadas en el último número de
«Nature»,
explican que el hallazgo ha sido posible mediante la observación por el
telescopio espacial «Spitzer», de la ESA, del tránsito del planeta por delante
de su estrella mediante mediciones en longitudes de onda infrarrojas.
Ribas puntualizó a este diario que las mediciones se hicieron «por fotometría de
infrarrojos en diferentes longitudes de onda, a una bajísima resolución y en
tres distintas bandas... el tamaño relativo entre planeta y estrella,
dependiendo de las longitudes de onda, muestra variaciones que responden a la
absorción de la atmósfera planetaria durante su tránsito que, en este caso,
corresponden plenamente al espectro del vapor de agua».
El agua en su estado gaseoso, pues, forma la parte mayoritaria de la atmósfera
del «Júpiter caliente». No quiere esto decir que la vida sea posible en el
planeta HD 189733b, al menos tal como la concebimos. «Rotundamente no -aseguró
Ribas-, una temperatura superior a los 700 grados hace imposible la vida... este
planeta es esencialmente gaseoso y muy caliente; es posible que su núcleo sea
metálico debido a la inmensa presión, pero no guarda otro parecido con la
Tierra.
EN BUSCA DE LA VIDA
La búsqueda de vida, en cualquier caso, ya es posible más allá de nuestro
Sistema Solar. No necesitamos posar un robot, como los que actualmente se pasean
por Marte, para rastrear la posibilidad de vida en exoplanetas a años luz de la
Tierra. Ribas afirmó a este diario que «las misiones Darwin, de la ESA, y TPF,
de la NASA, concebidas como programas de detección remota de la vida, rastrearán
a partir de 2020 en los exoplanetas buscando agua, ozono, metano, CO2... en sus
atmósferas». El interés de este análisis de las atmósferas reside en que
«cualquier atmósfera fuera del equilibrio natural, como es el caso de la
terrestre -puntualizó Ribas-, en la que el oxígeno sólo está presente porque hay
vida, y no a la inversa, porque hace 3.000 millones de años unas bacterias
empezaron a producir oxígeno, es susceptible de albergar vida».
La respuesta a la gran pregunta, ¿estamos solos en el Universo?, poco a poco
deja de ser una utopía. Será difícil encontrar a Alien... pero un día no muy
lejano hallaremos algún rastro de vida en alguna parte.
Fuente: ABC Periódico
Electrónico S.A., 12 de Julio de 2007
-España amplía su flota
científica con un nuevo buque puntero, el "Miguel Oliver"
El astillero M.Cíes entregó la flamante
embarcación a la ministra de Pesca, Elena Espinosa, que se mostró más que
complacida por el resultado del proyecto en el que su departamento ha invertido
24 millones de euros. «Esta embarcación es una demostración de la apuesta hecha
por la tecnología española y una demostración de la confianza en la industria
naval de Vigo», dijo.
COOPERACIÓN INTERNACIONAL
Espinosa añadió a las funciones que desempeñará el nuevo laboratorio flotante la
misión de potenciar la cooperación pesquera internacional con terceros países.
«Gracias a esta embarcación, se aportarán datos que muy valiosos para las
Administraciones pesqueras de los Estados», afirmó.
Buque oceanográfico
Miguel Oliver
Nuevo buque oceanográfico Miguel
Oliver
-Nombre del barco pertenece al primer secretario
general de Pesca Marítima
-70 metros
de eslora, 12 metros de manga
-Calado: 5
metros
-Potencia
2000 KW
-Velocidad
máxima: 15 nudos
-Arqueo:
2490 GT
-Tres
radares, tres ecosondas, y seis laboratorios, además de un sofisticado
sistema de posicionamiento y dos pequeños robots para hacer estudios
submarinos
-Capacidad:
45 personas (30 camarotes)
-Cumple
normativa ICES 209 sobre emisión de ruidos y vibraciones transmitidas al
agua.
-Principal
función: investigación de caladeros, cartografía, meteorología
-Presupuesto: 21-24 millones de euros
El secretario general de Pesca Marítima, Juan Carlos Martín Fragueiro, bautizó
al Miguel Oliver como «el buque que convierte a España en una de las fuerzas de
investigación pesquera punteras en el mundo». Martín destacó, entre las
características tecnológicas del navío, los dos tipos de robots subacuáticos que
van a bordo. Uno de ellos es el Rov Swordfish, un vehículo de operación remota
para fotografiar reservas marinas, localizar pecios y examinar el impacto de las
artes de pesca en los fondos marinos, que opera hasta 650 metros de profundidad.
El otro robot es el denominado Videoray, y se trata de un vehículo de pequeñas
dimensiones (4 kilos de peso), que filmará el estado de las reservas marinas
arrecifes y recursos pesqueros.
El equipamiento científico del navío consta de seis laboratorios (química,
acústica, húmedo, biología, física e informática). Está dotado de sistemas de
comunicación vía satélite, estación meteorológica, dos radares de navegación con
alcance de 50 millas para la detección de objetos. El interior del buque está
habilitado con 30 camarotes (15 dobles y 15 individuales).
El Miguel Oliver, que recibe el nombre del biólogo marino y oceanógrafo,
salió del puerto de Vigo en su primera campaña científica rumbo a Hatton Bank,
en el Atlántico nororiental, donde faena la flota gallega. Posteriormente
operará en los caladeros de Perú, Panamá y Argentina.
Fuente: La Voz de Galicia, 11 de Julio de 2007
-¿Qué hay detrás de un
Nobel?
Timothy Hunt, premio Nobel de Medicina
2001 por descubrir proteínas esenciales para el ciclo celular, compitió en su
día por un puesto en Harvard... que no obtuvo. Craig Mello, Nobel también de
Medicina en 2006, recibió a las 4.30 la llamada que le anunciaba el premio, y su
mujer pensó que era una broma y colgó. Son algunas de las anécdotas que 18
premios Nobel compartieron la semana pasada con más de 500 jóvenes
investigadores de 64 países, durante el encuentro que se celebra anualmente,
desde 1951, en la ciudad alemana de Lindau.
El objetivo es colocar a las jóvenes
promesas de la ciencia mundial cara a cara con sus ídolos.
¿Qué sintieron en ese momento eureka de descubrimiento que todo investigador
persigue como una droga? ¿Tuvieron que enfrentarse alguna vez al bloqueo del
investigador? ¿Cómo eligieron su tema de investigación? Los premiados explicaron
la trastienda de su ciencia, debatieron y dieron consejos. El telón de fondo de
la reunión fueron las desiguales perspectivas que tienen los jóvenes
investigadores según su lugar de procedencia.
"¿Podemos invitarle a nuestro instituto? ¿Si le enviamos un correo electrónico
lo leerá?", preguntaba a un Tim Hunt asediado un estudiante de Bangladesh desde
la tercera línea de un corrillo. Las miradas de admiración, las preguntas e
incluso las fotos con Nobel fueron habituales en Lindau. La estrella
indiscutible fue Mello, y no sólo porque el área en que trabaja, y por la que
obtuvo el Nobel -el ARN de interferencia, descubierto por él y su colega Andrew
Fire- está en ebullición. Mello fue generoso al describir sus emociones -"lo
mejor de la ciencia es que cuando crees que no puede haber nada más bonito,
entonces aparece algo que te demuestra que sí que puede; para nosotros fue
descubrir el mecanismo de silenciamiento del ARN"-, y arrancó aplausos cuando
pidió una ciencia en la que los investigadores "no tengan miedo a discutir los
resultados por temor a que se los pisen".
También fue expansivo en sus comentarios políticos -"gracias al presidente
actual en mi país [EE UU], la gente entiende mejor nuestro parentesco con los
demás primates"- y sociales: "Cuando se habla de las aplicaciones médicas del
ARN de interferencia nos estamos refiriendo a una medicina muy cara, que podrá
pagarse apenas el 2% de la población y que los sistemas de seguridad social no
cubrirán; y no hay que olvidar que la inmensa mayoría de la mortalidad en el
planeta se debe a enfermedades que ya son perfectamente curables", dijo Mello.
Hunt siguió la misma línea, con una visión más bien pesimista de lo logrado
hasta ahora en tratamientos contra el cáncer: "Salvo excepciones, no estamos más
cerca que hace dos décadas de curar un cáncer que ya ha aparecido". Y
arremetiendo contra las patentes, que "fomentan el secretismo", especialmente en
el ámbito farmacéutico, y frenan así el avance de la investigación.
En esta ocasión, la tradicional reunión de Lindau estuvo dedicada a la
biomedicina. Mello, Hunt, Günter Blobel (Nobel 1999), Edmond Fischer (Nobel
1992) y Leland Hartwell (copremiado con Hunt) dieron entre todos los siguientes
consejos para todo joven investigador. Colaborar en vez de competir -muy
alabado, pero, según comentarios de pasillo posteriores, también muy difícil de
poner en práctica-. No avergonzarse de fallar, porque "hasta que no haces el
experimento no lo sabes". Ser muy críticos con el propio trabajo. Elegir un tema
"que realmente despierte tu curiosidad", dijo Blobel, pero que, además, "sea
factible" -Hunt, por ejemplo, cataloga el reto de entender la conciencia dentro
de lo no factible-. Y, desde luego, no trabajar para conseguir el Nobel, sino
por simple pasión.
Es obvio que seguir esos consejos no garantiza las mismas posibilidades de éxito
para todos. Los participantes en Lindau, seleccionados a escala nacional en
países que colaboran con la Fundación del Encuentro con premios Nobel, provenían
sobre todo de Europa y EE UU, pero también de China e India, Bangladesh, Corea
del Norte, Vietnam, Burkina Faso, Camerún, Ghana o Nigeria.
Si son, como los cataloga la organización de Lindau, "los mejores talentos en su
país", puede que algunos hayan concursado al codiciado programa de ayudas del
Consejo Europeo de Investigación (ERC), cuya primera convocatoria para
investigadores jóvenes se cerró el pasado abril con 9.167 solicitudes, muchas
más de las previstas.
El ERC tiene 290 millones de euros a repartir entre 200 y 250 ayudas y se ha
diseñado con la idea de paliar uno de los problemas del sistema de investigación
europeo: "Europa no consigue mantener en casa a sus jóvenes científicos. Durante
más de una generación ése ha sido un obstáculo crucial: producimos a nuestros
jóvenes científicos y dejamos que se vayan. Mucha gente que no puede seguir con
su trabajo por falta de infraestructuras y apoyo acaba yendo a EE UU", comentó
en Lindau Fotis Kafatos, presidente del ERC.
¿Cómo ven el futuro la veintena de investigadores españoles que asistieron a
Lindau? En general, sus respuestas no casan bien con las estimaciones de que
hacen falta decenas de miles de investigadores en España para igualar a Europa.
Muchos resaltan que los españoles lo tienen ya difícil para salir fuera, porque
las becas posdoctorales son de dotación escasa y se asignan con criterios
"raros" -se considera común que investigadores sin beca posdoctoral del
Ministerio de
Educación y Ciencia (MEC) obtengan ayudas
europeas muy prestigiosas, de los programas Marie Curie o Human Frontiers, o de
la
Organización Europea de Biología Molecular (EMBO)-.
Y una vez fuera, la dificultad está en volver. Irene Díaz Moreno, ahora en
Londres con una beca de EMBO, cree que "en esto, la diferencia respecto a los
países de nuestro entorno es abismal". Para otros, en cambio, algo ha empezado a
moverse: "Se han abierto muchos centros nuevos, creo que cada vez es más fácil
volver", opina Javier López, con un contrato Marie Curie en la Universidad de
Basilea.
LA REVOLUCIÓN DEL ARN
Craig Mello dedicó su charla en Lindau al organismo con que investiga, el gusano
C.elegans. Su trabajo con él ha contribuido a lo que algunos biólogos llaman la
"revolución del ARN": el ARN, hasta hace poco considerado apenas un mensajero
que transporta la información de un lado a otro, parece ser además un elemento
muy activo en el cifrado del genoma, regulando su expresión y también
protegiéndola. Cuando se secuenció el genoma humano y se hallaron apenas 23.000
genes cuando se esperaban 100.000, muchos dijeron que debía haber algo más; la
información no debía de estar sólo en los genes. Las múltiples funciones hasta
ahora ocultas del ARN podrían ser al menos parte de ese algo más.
Fue un hallazgo relativamente casual. Mello trataba de bloquear la expresión de
genes específicos en el embrión para estudiar su función. Inyectó unas pocas
moléculas de ARN de doble cadena en los gusanos y observó que se inhibía
completamente la expresión de un determinado gen, sugiriendo un mecanismo
biológico desconocido implicado en la expresión génica. Además, el efecto se
contagiaba de célula a célula en el organismo y también a la siguiente
generación. En 1998, junto con Andrew Fire, Mello publicó en
Nature
un trabajo explicando el trabajo. Desde entonces este mecanismo se ha convertido
en una de las técnicas estrella con que estudiar la función de genes
específicos.
En Lindau, Mello estuvo de acuerdo en considerar su hallazgo "si no
revolucionario, al menos sí muy importante". "El ARN de interferencia tiene un
papel regulador del genoma y también defensivo", señaló.
Fuente: El País, 11 de Julio de
2007
-Simulador quirúrgico con
sentido del tacto
Un cirujano se dispone a usar una
técnica nada sencilla para operar una patología de hombro muy común, un síndrome
de compromiso subacromial. Es lo que se denomina una artroscopia, un método de
mínima invasión que consiste en realizar unas pequeñas incisiones en la
articulación del paciente e introducir por ellas unas varillas con instrumental
quirúrgico y una microcámara para efectuar la intervención con ayuda de la
imagen que reciba en una pantalla. En este caso, introduce una pequeña fresa
para limar el pico de hueso acromion que roza con el tendón del supraespinoso.
No resulta nada fácil, pues sin ver directamente qué hacen sus manos, debe
quitar sólo la parte justa de hueso que molesta para no producir una grave
lesión al paciente.
Sin embargo, esta vez no pasa nada por
equivocarse: el médico realiza la intervención en un simulador de realidad
virtual, un equipo bautizado como insightMIST y desarrollado con tecnología cien
por cien española. Uno de los pocos simuladores en este campo existentes en todo
el mundo. "Antes había que abrir y levantar el músculo deltoides, ahora la
artroscopia evita todo esto, pero requiere de un aprendizaje previo", detalla
Antonio Fernández Fernández-Arroyo, traumatólogo del
hospital de Getafe
(Madrid), en un reciente curso de artroscopia con este simulador en el
Colegio
Oficial de Médicos de Madrid. "Este aparato
permite no tener que practicar esta técnica con enfermos reales por lo que
disminuye el riesgo de la operación", señala el especialista, que asegura que se
nota ya la destreza con las videoconsolas en las nuevas generaciones de médicos.
Como si se tratase de un videojuego, la pantalla del simulador de operaciones de
artroscopia muestra el hueso acromion rodeado de bolitas de diferentes colores,
las verdes son las que deben ser limadas, las amarillas las que resulta mejor no
tocar y las rojas las que no deben quitarse nunca.
El monitor reproduce en tiempo real las reacciones que tendría un paciente
verdadero ante cada movimiento del médico, que sostiene dos varillas metidas en
una carcasa vacía que imita una articulación humana. La gran diferencia con un
videojuego es que las manos del traumatólogo perciben las mismas sensaciones que
si sujetasen las varillas insertadas en un enfermo de carne y hueso. Pueden
sentir cuando topan con un hueso, comprobar la textura de un cartílago por si
estuviera lesionado o incluso tirar del tendón del bíceps para verificar su
elasticidad.
"La generación sintética del tacto es muy difícil", detalla Carlos Illana,
director técnico de Alta Tecnología para Sanidad de GMV, la empresa que ha
desarrollado el simulador. "En general, todo el sistema de realidad virtual ha
requerido de muchos más algoritmos que un simple videojuego para conseguir una
buena geometría y una simulación física muy realista, pero la sensación de tacto
ha resultado todavía más complicada, ya que intervienen incluso aspectos
psicológicos aún por investigar", dice. Para comprender la dificultad de
reproducir el tacto basta compararlo con el sentido de la vista. Como incide
Illana, si para engañar a un ojo para que vea moverse un personaje en una
pantalla de cine hay que pasar unas 30 imágenes por segundo, para que el médico
crea sentir en el extremo de su instrumental quirúrgico el interior de un cuerpo
humano se precisan mil muestras por segundo.
Buena parte de la actividad de GMV se centra en la aeronáutica, lo que le ha
permitido aprovechar su experiencia en simuladores de vuelos para el desarrollo
de este equipo de entrenamiento de técnicas de artroscopia. Convertido ya en un
producto comercial con un precio de unos 30.000 euros en su versión más básica,
el insightMIST comenzó siendo un proyecto de I+D de GMV en colaboración con la
Universidad Rey Juan Carlos, la
Politécnica
y el
hospital Severo Ochoa,
las tres de Madrid. "Al igual que los pilotos deben completar de forma
obligatoria una serie de horas de vuelos virtuales como parte de su
adiestramiento, parece que la tendencia en el campo de la medicina también va
por aquí, lo que revierte en la seguridad del paciente", comenta Almudena
Sánchez, responsable del Desarrollo de Negocio de Alta Tecnología para la
Sanidad de la empresa, e incide en la complejidad de operar sin ver directamente
el espacio en el que se trabaja, con dos varillas que se introducen en el cuerpo
por pequeños orificios.
"Algunos médicos en formación tienen acceso a cursos de cadáver para practicar,
pero aún así los tejidos de una persona muerta no tienen la misma textura, y si
no es de esta forma, no queda más remedio que acompañar entonces a un cirujano
experto en el quirófano para aprender", añade Sánchez.
El aparato se compone de una estructura de metacrilato sobre la que se apoya una
carcasa de plástico que imita la articulación a operar (ya sea un hombro o una
rodilla) y dos brazos robóticos que sujetan las varillas con el instrumental
artroscópico. El equipo se completa con un monitor táctil y un ordenador con el
software que contiene los distintos programas de entrenamiento y los modelos
tridimensionales que reproducen con gran fidelidad el interior del cuerpo
humano, elaborados con ayuda de anatomistas y artroscopistas.
"Nos están reclamando instituciones formativas de especialistas en el Reino
Unido, India o EE UU", asegura Sánchez, "y aparte de las articulaciones de
hombro y rodilla, empezamos a estudiar la posibilidad de desarrollar también
programas para la cadera, pues hemos constatado que tiene mucho interés entre la
comunidad internacional de la especialidad".
Fuente: El País Futuro, 11 de Julio de 2007
-La Coopetición clave de la evolución
Competir y cooperar a la vez parece algo difícil e
improbable, pero unos investigadores de las universidades
Carlos III y
Complutense de Madrid han
publicado un estudio científico que analiza estas interacciones, muy frecuentes
y beneficiosas entre especies animales o en el mundo de los negocios. De esta
forma, se puede observar que un depredador superior, como un tiburón, no sólo
devora y compite por los alimentos, sino que también coopera a mantener el
ecosistema en el que vive. Esta doble acción, denominada ?coopetición?,
constituye uno de los principales mecanismos reguladores de la vida de nuestro
planeta, según los investigadores.
"El objetivo principal de nuestro estudio es establecer los
principios reguladores generales de las interacciones de carácter competitivo y
cooperativo que ocurran en la biosfera terrestre, a cualquier nivel", explica
Marcela Molina Meyer, del departamento de Matemáticas de la Universidad Carlos
III de Madrid, que ha publicado recientemente este artículo junto con Julián
López Gómez, de la Universidad Complutense de Madrid, en la revista científica
'Discrete and Continuous Dynamical Systems'. Para ello, los
investigadores han desarrollado una teoría matemática de la 'coopetición', que
es el término que designa una interacción entre partes que pueden ser,
simultáneamente, competitivas y cooperativas, ya sea por su posición geográfica
o su edad. Por ejemplo, dos multinacionales podrían cooperar en la Unión Europea
pero competir en Estados Unidos; o dos especies vegetales podrían ayudarse
cuando una de ellas está creciendo, porque la mayor puede retener más nutrientes
a cambio de ofrecer sombra a la menor, y enfrentarse cuando las raíces de la más
joven comiencen a competir por el territorio.
El paradigma imperante en la actualidad tiende a considerar a los depredadores
únicamente como devoradores, más que como cooperantes en el mantenimiento de los
ecosistemas. "Si no cambia radicalmente esa percepción, los daños que
ocasionaremos a nuestra biosfera serán irreparables", afirma Julián López Gómez.
"Según los modelos que hemos desarrollado -continúa- la principal función de la
competición es la generación de diversidad". De esta forma, en un contexto
aparentemente competitivo, los mecanismos de cooperación locales, en ocasiones
prácticamente imperceptibles, disminuyen la susceptibilidad del sistema a las
invasiones e incrementan su productividad. "La existencia de mecanismos
cooperativos muy localizados de difícil detección explica, por ejemplo, que la
extinción de un depredador superior en un ecosistema pueda provocar el
hundimiento completo del ecosistema", añade Julián López Gómez.
Las aplicaciones prácticas de este modelo podrían facilitar la comprensión del
comportamiento de multitud de ecosistemas y mercados financieros, según los
investigadores, desde su utilización para la estimación del rango y fortaleza
que debe tener una alianza empresarial para conseguir beneficios hasta el diseño
de corredores de vida para recuperar especies amenazadas en un ecosistema
determinado. "Nuestro estudio es bastante novedoso y, muy posiblemente,
revolucionario, tanto desde el punto de vista de las aplicaciones de su teoría
abstracta a la biología, ecología, sociología, gestión empresarial y economía,
como desde el punto de vista matemático", concluye Marcela Molina Meyer. No
obstante, algunos de los últimos resultados de sus investigaciones han sido
publicados y tratados en revistas científicas muy importantes, como el célebre
'Journal of Differential Equations', la mejor publicación del mundo
sobre ecuaciones diferenciales; o la revista 'Theoretical Population Biology',
una de las importantes del campo de la Ecología y las Ciencias Medioambientales.
"De acuerdo con nuestros estudios, la coopetición es uno de los principales
mecanismos reguladores de la vida de nuestro planeta", señala Julián López
Gómez. Parece lógico, porque es un mecanismo de beneficio mutuo para las partes
implicadas. "El débil consigue la permanencia y se beneficia del incremento de
productividad del fuerte", indica. Salvando las distancias, es algo similar a lo
que ocurre en la popular metáfora del león y el ratón, sostienen los
investigadores. Un león atrapado en una red de un cazador captura un ratón, pero
en lugar de comérselo decide soltarlo, porque no iba a saciar su hambre.
Entonces el ratón, en agradecimiento, empieza a roer la red y consigue liberar
al león. Si éste si hubiera comido al ratón, ambos habrían desaparecido. En el
otro caso sólo pierde el cazador, pero esa ya es otra historia.
Fuente: UCIIIM, 10 de Julio de 2007
-La NASA lista para mandar la sonda
"Phoenix" a Marte
La agencia espacial estadounidense (NASA)
ha anunciado que lanzará en agosto la cápsula 'Phoenix' para la primera misión
de exploración y estudio del agua, así como de posibles trazas de vida, en el
polo norte de Marte.
Phoenix
Barry Goldstein, gerente del proyecto 'Phoenix', ha declarado
que el período propicio para el lanzamiento comienza el 3 de agosto y continuará
hasta el 24 de ese mes, y que la cápsula viajará durante 10 meses, para
descender en Marte a finales de mayo de 2008.
"Será la primera vez que un aparato que haga un descenso suave en Marte explore
el polo norte", ha asegurado durante una conferencia de prensa Doug McCuiston,
director del Programa de Exploración de Marte en la agencia espacial NASA.
El lanzamiento se efectuará desde la Estación de la Fuerza Aérea en Cabo
Cañaveral, Florida, con un cohete Delta II, y la cápsula viajará a una velocidad
promedio de 20.277 kilómetros por hora.
Al aproximarse a la superficie de Marte, 'Phoenix' usará cohetes que frenarán su
descenso y luego extenderá un brazo robótico para excavar el suelo marciano.
-El clima de la Tierra ha variado en los
últimos 800000 años
El estudio del hielo de las capas profundas de la Antártida
revela que el clima en La Tierra ha tenido notables variaciones.
En 2004 un equipo de científicos europeos dirigido por Jean
Jouzel llevó a cabo uno de los más difíciles y fascinantes experimentos de los
últimos años: la extracción de una muestra de 3.260 metros de hielo en el Este
de la Antártida. El nombre del proyecto era EPICA, acrónimo de European Project
for Ice Coring in Antarctica. El último número de la revista
'Science' publica
algunos de los resultados de la investigación.
Ha transcurrido mucho tiempo desde la realización del experimento porque las
muestras requerían un tratamiento cuidadoso. La temperatura, por ejemplo, se
estima a partir de precisas mediciones del deuterio, uno de los isótopos de
hidrógeno. Además se han tomado muchas otras mediciones como las de gases de
efecto invernadero o la concentración de polvo.
A lo largo de los 800.000 años que cubre el testigo, la temperatura del planeta
habría experimentado cambios considerables. Con relación a pasadas edades, el
clima actual es más bien cálido. Hoy la temperatura es 4,5 grados más baja que
en otras épocas; pero también es 10 grados más elevada que durante las
glaciaciones. Curiosamente, los períodos más extremos son relativamente
cercanos; tan "sólo" 20.000 y 130.000 años para el más frío y cálido,
respectivamente.
El próximo paso es realizar catas más hondas, que permitan conocer las
características del aire, y del clima más allá del millón de años. Pero, como ha
señalado para National Geographic Martin Siergert, uno de los miembros del
equipo de investigación, es posible que "ya estemos llegando al límite de lo que
un testigo de hielo puede ofrecer".
Fuente: El Mundo Digital, 9 de Julio de 2007
-Las condiciones para fijar dióxido de
carbono oceánico se fijarán en noviembre
Las tecnologías para la captura y almacenamiento de dióxido
de carbono ya están aquí y empresas e instituciones de investigación están
formando consorcios para poder llevar estas tecnologías a la práctica comercial.
Si bien la captura del gas en las plantas de producción no
plantea problema alguno, el almacenamiento en formaciones geológicas profundas
oceánicas plantea reservas por motivos de seguridad y por el impacto sobre el
medio marino. El Convenio de Londres de prevención de la contaminación marina
por el vertido de desechos y otras materias es, por tanto, el órgano máximo para
establecer en qué condiciones debe hacerse.
En la reunión del grupo científico de este convenio internacional, del que son
parte 82 países, que tuvo lugar hace unas semanas en Santiago de Compostela se
acordaron unas directrices para la inyección de CO2 en el subsuelo
marino. El documento, al que ha accedido este diario, deberá discutirse en la
reunión de las Partes del Convenio que se celebrará en Londres el próximo mes de
noviembre, si bien «la unanimidad alcanzada a nivel científico hace previsible
su aprobación», confirmó a ABC el presidente de este convenio, el español Víctor
Escobar.
RIESGOS ASOCIADOS
El documento aprobado por el grupo científico reconoce que «los riesgos
asociados con el secuestro de dióxido de carbono en formaciones geológicas del
subsuelo marino incluyen aquellos derivados de un escape al medio marino de CO2
y de otras sustancias que contenga ese flujo o sean movilizadas por él». Por
este motivo, una de las condiciones es que el CO2 no contenga
impurezas, salvo las trazas de algunas sustancias químicas que se le añaden para
inyectarlo. Para ello se exige un análisis del flujo a inyectar que incluya
origen, cantidad, forma y composición; propiedades físicas y químicas;
toxicidad, persistencia y potencial de bioacumulación.
El estudio geológico de la zona donde se pretenda inyectar, además de aspectos
como el emplazamiento tectónico, la capacidad de almacenamiento y la
permeabilidad de la formación geológica, debe incluir una modelización de la
estructura de al menos 10.000 años para asegurar la estanqueidad. Asimismo, se
exigen un sistema de vigilancia de la zona para el caso hipotético de que se
produjera una fisura y un programa de mitigación y remedio de esos posibles
daños. Si se cumplen estos requisitos se expedirá el permiso, que será revisado
periódicamente.
«Los permisos los da el país donde está localizada la estructura desde donde se
va a inyectar. O sea, en aguas territoriales de Noruega sería Noruega. Al ser
una actividad recogida por el Convenio, el país que dé el permiso tendrá que
informar al Convenio mediante un formato, que todavía no está acordado, para que
se incluya en las bases de datos sobre vertimiento», explica Escobar.
Éstas son en líneas generales las directrices que marca el convenio de Londres
para la seguridad de la inyección de dióxido de carbono en el subsuelo oceánico.
Ahora bien, lo primero que advierte el grupo científico en su informe es que
para realizar esta actividad antes deben quedar descartadas otras opciones, como
el almacenamiento geológico terrestre.
EN EL MAR DEL NORTE
En este sentido, Escobar explica que la inyección en el subsuelo oceánico «sólo
se ha hecho a nivel experimental en el mar del Norte, mientras que en tierra sí
hay experiencias más consolidadas, por ejemplo en Argelia, EE.UU, Australia o
Canadá». Eso sí, matiza el presidente del Convenio de Londres, «siempre sin
olvidar que el petróleo y el gas se han mantenido secuestrados en esas
estructuras geológicas oceánicas durante millones de años».
También se advierte de que estas directrices deben ser consideradas «dentro del
contexto de la necesidad de reducir las emisiones de gases de efecto
invernadero». Por tanto, no pueden servir de salvoconducto para no tomar medidas
de mitigación del cambio climático.
No obstante, para que un país pueda descontarse emisiones utilizando esta
tecnología es necesario que sea aceptada como Mecanismo de Desarrollo Limpio
dentro del Protocolo de Kioto. Para Teresa Ribera, directora de la Oficina
Española de Cambio Climático, «la captura y almacenamiento de CO2
puede contribuir a reducir los costes de estabilización de las concentraciones
de dióxido de carbono en un 30% o más». El almacenamiento en formaciones
ecológicas puede llegar a suponer del 15 al 55% del total de la reducción de
emisiones requeridas hasta el año 2100 para poder estabilizar las
concentraciones de gases de efecto invernadero en la atmósfera.
Países como Noruega, Canadá, Australia y Japón -«pioneros en esta tecnología»,
dice Ribera- así como países africanos receptores de la misma, como Nigeria y
Argelia, defienden la importancia de aceptar estos proyectos dentro del
Mecanismo de Desarrollo Limpio.
Ribera explica que «ante la falta de consenso, la Junta Ejecutiva del Mecanismo
de Desarrollo Limpio ha establecido una moratoria», para analizar el asunto y
llegar a un acuerdo en la próxima Conferencia de las Partes del Protocolo de
Kioto, a celebrar en diciembre en Bali. El almacenamiento de CO2 es
uno de los asuntos más trascendentes en la agenda de negociación internacional.
Fuente: ABC Periódico Electrónico S.A., 9 de Julio de
2007
-En Marte se podrían cultivar algas
"mutantes"
Un grupo de la
Universidad
Complutense de Madrid explica un mecanismo por el que algunas algas podrían
adaptarse "instantáneamente" a sobrevivir en los ambientes más extremos.
El Río Tinto (llamado Río de Fuego por los Fenicios)
representa un gran reto para la vida: sus aguas, de un color rojo intenso, son
extremadamente ácidas (pH<2) y contienen enormes cantidades (>20g l-1) de
metales tóxicos en disolución (Fe, Cu, Zn, As). Pese a estas condiciones tan
adversas, una rica vida microbiana prolifera en el Tinto y numerosos grupos de
investigación se dedican a estudiarla pues se trata de uno de los mejores
modelos en exobiología (especialmente de cómo pudo haber sido la vida en Marte).
La vida en el Río Tinto siempre ha sorprendido a sus estudiosos: en principio se
asumía que en los ambientes tan extremos solo podían proliferar unas cuantas
especies de bacterias extremófilas muy especializadas. Contrariamente a lo
esperado en el Tinto existen numerosas especies tanto bacterianas como de
microorganismos eucariotas. Lo más sorprendente es que una gran parte de la
biomasa del Tinto está constituida por microalgas. Las microalgas son ya
organismos de gran complejidad no asociados a ambientes tan difíciles.
Siempre se asumió que la vida se adaptaba a los ambientes
extremos como el del Río Tinto "poco a poco" y que necesitaba grandes períodos
de tiempo para lograrlo. Pero recientes estudios de secuenciación (en los que
participaban científicos españoles como el Dr. Amils) demostraron que las
microalgas presentes en el Tinto son muy similares a especies de microalgas que
viven en ambientes normales. Esto sugiere que la adaptación de estas algas al
Río Tinto ocurrió muy rápidamente. Pero ¿cómo ocurrió?
Recientemente un grupo de investigación de la Facultad de
Veterinaria de la UCM ha demostrado que algunas especies de microalgas pueden
adaptarse "instantáneamente" a las aguas extremadamente ácidas y tóxicas del Río
Tinto por un mecanismo inesperado: en sus poblaciones (inmensamente grandes) se
producen en muy raras ocasiones mutaciones espontáneas que ocurren "por
casualidad" antes de que el alga esté en contacto con el agua del Tinto. Esas
mutaciones las capacitan para sobrevivir en el ambiente extremo del Tinto
(aunque nunca hayan estado en él). Si alguno de estos mutantes llega al Tinto
sobrevive sin problemas. La probabilidad de que ocurra esto es muy baja, pero
como las poblaciones de estas algas son tan numerosas, el fenómeno puede ocurrir
en cualquier momento. Probablemente las algas que pueblan hoy el Tinto sean
descendientes de alguno de estos mutantes "afortunados" que se adaptaron por
casualidad al Tinto mucho antes de llegar a él: Alga previsoras valen por dos.
¿Ya habrá algas pre-adaptadas para sobrevivir en Marte?
Fuente: UCM-mi + d, 9 de Julio de 2007
-La anémona no es tan diferente al ser
humano
El genoma de la anémona marina es mucho más complejo y
parecido al de los seres humanos que, por ejemplo, los de la mosca de la fruta o
los nematodos.
Así lo sugiere una investigación realizada por la
Universidad de Berkeley y
el
Energy Joint Genome
Institute (JGI), que próximamente aparecerá en 'Science'.
La cercanía genética con la anémona sugiere que el último ancestro que
compartieron los seres vivos ya poseía un genoma relativamente complejo, de
entre 18.000 y 20.000 genes.
Los científicos de los dos centros de investigación han descubierto que la
anémona marina 'Nematostella' contiene alrededor de 450 millones de pares de
bases, con unos 18.000 genes codificadores de proteínas. Su identidad,
estructura y organización dentro del genoma muestra notables similitudes con la
secuencia del genoma humano, que sólo es un poco más larga que la de la anémona.
Una de las principales conclusiones que se derivan de esta investigación es que
la evolución no necesariamente implica un aumento del número de genes o de su
complejidad. Así, los genomas de la mosca de la fruta y de los nematodos habrían
sido simplificados y reducidos con relación al de aquel antepasado común.
Fuente: El Mundo Digital, 6 de Julio de 2007
-Recuperado en Groelandia el ADN más
antiguo conocido
En unas muestras de hielo extraídas a dos kilómetros de
profundidad en glaciares de Groenlandia, unos científicos daneses han encontrado
ADN. Se trata del material genético de plantas y de insectos de hace, al menos,
450.000 años, por lo que los investigadores afirman que se trata del ADN más
antiguo que se ha recuperado. Hasta ahora el material genético más antiguo tenía
entre 300.000 y 400.000 años y se aisló en unas muestras tomadas en Siberia y
conservadas en permafrost (tierra helada).
El ADN identificado ahora en Groenlandia es de árboles como
pinos, píceas y alisos, e insectos como escarabajos, moscas, arañas, mariposas y
polillas.
Los daneses analizaron los residuos conservados en cilindros de hielo sacados de
unas perforaciones científicas realizadas en el hielo en varios lugares de
Groenlandia (en regiones del norte, sur y centro), más en un lugar de Canadá
para realizar análisis de control. Cada perforación extrajo toda la columna de
hielo del glaciar, hasta el fondo, en cilindros de hielo. Como el hielo se forma
capa a capa, cada año, por acumulación de nieve, el glaciar se convierte en un
registro helado del clima.
El ADN encontrado por los daneses estaba en cilindros sacados del fondo de las
perforaciones realizadas en el Sur. Su datación medida por métodos
mineralógicos, de desintegración radiactiva y de tasa de mutación genética en
las mismas muestras biológicas, indican que tienen al menos 450.000 años, pero
no se descarta que pueda ser muy anterior, de hasta hace 900.000 años.
Los análisis minuciosos realizados por un grupo de científicos bajo la dirección
de Eske Willerslev (Universidad
de Copenhague), se presentan en la revista
Science. Willerslev fue
también quién encontró en Siberia el ADN considerado hasta ahora más antiguo; en
aquel caso se trataba de material genético de mamut, bisonte, musgos, etcétera.
PAISAJE DE CLIMA TEMPLADO
El paisaje del sur de Groenlandia que emerge a partir de la información del ADN
conservado es muy diferente del actual. Ese territorio sería verde y cubierto de
bosques de coníferas, en lugar de hielos. El clima sería mucho más suave que el
actual.
Lo que más sorprende a los científicos es que si ese hielo tiene más de 450.000
años, se mantuvo incluso en el período interglacial posterior, hace entre
116.000 y 130.000 años, cuando la temperatura media de la Tierra era cinco
grados centígrados superior a la actual y el nivel del mar subió entre cinco y
seis metros. La capa helada en esa zona meridional de Groenlandia sería más
delgada, pero no desapareció completamente, lo que significa que es mucho más
estable de lo que se pensaba.
"Esto puede tener implicaciones acerca de la respuesta de esos glaciares al
calentamiento global", comenta Willerslev, recordando que el calentamiento del
planeta inducido por la acción humana se añade a los efectos de la variabilidad
natural del clima.
Fuente: El País Digital, 6 de Julio de 2007
-Science asegura que los hombres y mujeres
usamos el mismo número de palabras
Investigadores de la
Universidad de Arizona en
Tucson (Estados Unidos) han analizado de forma científica el estereotipo
popular de que las mujeres hablan más que los hombres y han descubierto que
mujeres y hombres utilizan una media de 16.000 palabras al día. El estudio, que
se publica esta semana en la revista 'Science',
echa por tierra el mito popular que afirma que las mujeres hablan mucho más que
los hombres.
Según los investigadores, las cifras que se han barajado
sobre la "verborrea" femenina en un libro de reciente aparición de la
neuropsiquiatra Louann Brizendine ('The female brain') asumen que las mujeres
utilizan en su discurso 20.000 palabras al día y los hombres sólo 7.000, cifras
que han tenido una amplia difusión en los medios de comunicación
estadounidenses.
El trabajo supone el primer estudio sistemático que registra conversaciones
naturales de cientos de personas durante varios días y revela que las mujeres
utilizan alrededor de 16.215 palabras al día y que los hombres emplean 15.669,
una diferencia que en términos estadísticos no es significativa.
"Aunque mucha gente cree en los estereotipos de las mujeres habladoras y los
hombres poco comunicativos no existen estudios a gran escala que hallan
registrado de forma sistemática las conversaciones naturales de grandes grupos
de personas en periodos de tiempo amplios", explica James W. Pennebaker, coautor
del estudio.
Durante ocho años, los investigadores han desarrollado un método para registrar
el lenguaje natural utilizando un grabador activado electrónicamente, un
grabador digital de la voz que pasa desapercibido y que sigue las interacciones
entre personas, incluyendo sus conversaciones.
Los investigadores muestran en su estudio el uso de palabras diario de 400
estudiantes universitarios de ambos sexos procedentes de los Estados Unidos y
México. Los psicólogos midieron seis grupos en periodos que iban desde dos a
diez días y las grabaciones se realizaron entre 1998 y 2004.
Los participantes de la investigación no podían controlar el dispositivo de
grabación, que de forma automática registraba 30 segundos cada 12,5 minutos, y
no sabían cuando el dispositivo estaba en marcha.
"Qué significan 500 palabras de diferencia en comparación con 45.000 palabras de
margen entre la persona más habladora y la más reservada", señala Mathias R.
Mehl, coautor del trabajo junto a Pennebaker. Para ilustrar la magnitud de la
diferencia, entre los tres hombres más habladores del estudio, uno utilizó hasta
47.000 palabras. El hombre menos hablador utilizó algo más de 500 palabras al
día.
Fuente: ABC Periódico Electrónico S.A, 6 de Julio de
2007
-Una nueva molécula podría ser efectiva
contra el SIDA
Un medicamento experimental, la etravina, podría resultar
efectivo para los enfermos infectados con el virus del sida (VIH) que ya no
responden a los tratamientos más incisivos, según el resultado de ensayos
clínicos publicado por la revista médica
The Lancet.
La molécula, bautizada etravirina (TMC 125, de la firma
Tibotec), fue clasificada
en la familia de los inhibidores no nucleosídicos de la transcriptasa inversa (NNRTI,
en sus siglas en inglés), de la cual forman parte la nevapirina o el efavirenz.
La etravirina fue concebida como una alternativa para los pacientes que se han
vuelto resistentes a esta clase de medicamentos anti VIH. Los resultados
intermediarios de dos ensayos son "alentadores", según la revista.
Los voluntarios fueron divididos en dos grupos: uno de ellos recibió un 'coctel'
de antiretrovirales, incluido la nueva molécula asociada con el inhibidor
darunavir; al otro se le administraron varios medicamentos placebo, sin ningún
efecto terapéutico, además del darunavir. El objetivo de los medicamentos anti
VIH es reducir la "carga viral" -cantidad de virus en la sangre- por debajo de
50 copias por mililitro de sangre, es decir, por debajo del umbral detectable,
con el fin de restaurar las defensas inmunitarias.
Se trata de controlar la infección, no de eliminarla, puesto que los
medicamentos actuales no permiten deshacerse del todo del virus. En la semana 24
del tratamiento, el 56% y el 62% de los pacientes de los dos ensayos que tomaron
etravirina habían logrado el objetivo, frente al 39% y 44% de los que recibieron
el placebo.
Los efectos secundarios de la etravirina son descritos como débiles o moderados
y, a excepción de las erupciones cutáneas, son similares a los del grupo
placebo. Los pacientes ya habían sido tratados con una docena de
antiretrovirales cuya eficacia había desaparecido y sufrían por añadidura otro
tipo de enfermedades debido al debilitamiento del organismo, como la
tuberculosis.
Fuente: ABC Periódico Electrónico S.A., 6 de Julio de 2007
-La televisión personal en internet es una
industria emergente
La generalización de la banda ancha ha provocado la irrupción
de un negocio en torno a las nuevas formas de ver televisión a través de
Internet. Según un estudio de la consultora iSuppli, los ingresos de la
televisión por Internet (IPTV) aumentarán este año un 177% hasta 3.260 millones
de dólares. Y el uso que se hace de la web no para de crecer. Un informe
realizado por Motorola indica que un 45% de los televidentes europeos sigue este
servicio a través de Internet.
Esta tendencia de crecimiento en el uso de Internet ha
impulsado la aparición de la llamada televisión personal, en la que los usuarios
pueden elegir los contenidos que quieren ver. El fenómeno no ha surgido de la
nada sino que ha venido acompañado de la aparición de una industria con un
número creciente de empresas. Junto al fulgurante Youtube se ha configurado una
larga lista integrada por nombres, que empiezan a ser conocidos, como Kewego,
Vpod.tv, Scroon, TuTV, ADNStream o Dalealplay.
'Hay una demanda creciente por parte de los usuarios que buscan dar a conocer
los contenidos que generan, así como de empresas y organizaciones dispuestas a
usar el vídeo como fórmula para difundir información a través de Internet',
asegura Emmanuel Biscay, responsable en España de la francesa Kewego. La
compañía, apoyada por el grupo de capital riesgo Banexi Venture Partners, está
desplegando en España su modelo de negocio desarrollado en Francia basado en la
implantación de una plataforma de integración y difusión de contenidos
audiovisuales destinada a la publicidad en televisión local y la creación de
televisiones corporativas.
Además, Kewego ha creado la denominada plataforma de vídeo participativo a
través de la cual los canales de televisión pueden crear su propia página web en
la que difundir sus programas de éxito y así teledirigir hacia ellas al público
y aumentar la rentabilización de la publicidad contratada. Esta fórmula está
siendo usada ya en Francia por M6, el segundo canal del país por audiencias, y
los directivos de Kewego buscan exportarla al mercado español. De hecho están
manteniendo contactos con la mayor parte de los canales en España.
Entre los rivales de Kewego figura Vpod.TV, compañía fundada en Francia que
cuenta con el respaldo de grupos como Orange o del inversor Martin Varsavsky. La
empresa, que cuenta con una de sus principales sedes en España, ha creado un
software que facilita la creación de canales personales por la red.
Otros competidores son Scroon, Dalealplay, lanzada por Vocento; TuTV, creada por
Hispavista, y Youlike.TV, propiedad de la gallega Lambdastream. Esta firma ha
constituido una plataforma de distribución de servicios de televisión por
Internet que permite a los proveedores difundir sus contenidos sin la necesidad
de tener una infraestructura propia a gran escala. También el Grupo Conzentra va
a lanzar en España un servicio de WebTV que permite la gestión (desde la
filmación a la publicación pasando por la edición) de los vídeos de los
clientes.
A su vez, VivoCOM, una de las principales agencias de producción de contenidos
para televisión en la Web ha ganado relevancia con el diseño del canal online
del PSOE. VivoCOM ha firmado una alianza con la estadounidense Narrowstep para
lanzar nuevos proyectos. También el portal de contenidos audiovisuales británico
VolTV ha lanzado su versión española, en un intento de hacerse sitio en un
segmento cada vez más complejo. Al navegar por la Red, los internautas pueden
encontrarse con una auténtica sopa de letras con los nombres de webs que ofrecen
vídeos, canales televisivos o software para la distribución de contenidos
propios: Orb, In2Streams, Streamick, Nuvu.TV, WWITV, ManiaTV, Roja Directa,
Medinalia, JumpTV...
Junto a todas estas webs han surgido firmas que han lanzado actividades
complementarias a la televisión personal online. Esta semana se ha presentado en
España Zattoo, una empresa que ha desarrollado un sistema de distribución de
señal de televisión que lleva los canales al ordenador personal del usuario. Su
responsable en España, Daniel Ilar, explicó ayer que el servicio es gratuito y
sólo requiere descargar el software desde el portal. 'Nuestro sistema es
completamente legal puesto que adquirimos los derechos directamente de los
propios titulares y firmamos acuerdos con las entidades de derechos como la SGAE
o Egeda', asegura el directivo, quien añade que las fuentes de ingresos de
Zattoo provienen de la publicidad y del lanzamiento próximamente de canales
premium. En al ámbito publicitario, Ilar explica que Zattoo, que ya tiene cerca
de 100.000 usuarios en España, incluye anuncios en los siete segundos que tarda
el proceso de cambiar de un canal a otro.
En cualquier caso, todos los proyectos van a enfrentarse a una dura competencia
internacional. Youtube se ha convertido en el rival a batir por parte de todas
las nuevas empresas de televisión personal. Según algunos expertos, la web ha
contado con la ventaja de su gratuidad si bien han carecido hasta ahora de
ofertas personalizadas. Youtube parece querer dar la vuelta a esta situación con
el reciente lanzamiento de la web en diversos idiomas, incluido el español.
Además, la filial de Google, que en mercados como EE.UU. mantiene una cuota
superior al 60%, ha firmado acuerdos con canales de televisión para la difusión
de contenidos.
Pero la presión puede ser mayor ahora de sus rivales. MySpace, la gran comunidad
social controlada por News Corp, ha lanzado MySpace TV; la propia News Corp y
NBC Universal han impulsado 'MeTooTube'; los fundadores de Skype y Kazaa han
creado el portal de vídeos Joost; mientras Michael Eisner se ha convertido en el
alma de Veoh. Muchos nombres para una televisión personal que acaba de aparecer
pero a la que el desarrollo de Internet puede otorgar una larga vida.
A la moda online se han sumado canales como MTV que ha lanzado en España
Overdrive, un servicio de vídeo online para comercializar sus contenidos. Al
mismo tiempo, diversas productoras y videoclubes han creado FilmStar, un portal
de alquiler de películas.
Los fabricantes de 'telecos' viven bajo la presión de las fusiones y con la
obsesión de encontrar su hueco tecnológico en medio de la locura de cambios y
competencias, y les evite quedarse fuera del mercado. Alcatel-Lucent se ha
especializado como ninguna en el universo de la televisión IP convirtiéndose en
el principal soporte de experiencias como la oferta audiovisual interactiva de
Telefónica, que se comercializa con la marca Imagenio.
La multinacional francoamericana ha dado una vuelta de tuerca a este estándar y
presenta en estos días nuevos desarrollos y aplicaciones de los que podríamos
denominar la nueva TV digital 2.0. El soporte es una plataforma tecnológica cuya
principal aportación consiste en dar los instrumentos precisos a los usuarios
individuales y a los colectivos sociales para que puedan incorporar contenidos
de elaboración propia a las programaciones temáticas de la nueva televisión. El
responsable de la división de la multinacional que se ocupa de este desarrollo
es un ingeniero español, Luis Martínez Amago, que dirige siete centros de
desarrollo en todo el mundo, incluidos los dos españoles (uno en Madrid y otro
en Barcelona) y a 3.000 personas.
Fuente: Cinco Días, 6 de Julio de 2007
-Hiperión: una esponja en medio del espacio
Hiperión
En su viaje desde La Tierra, la sonda "Cassini" ha enviado
imágenes de gran calidad del satélite saturnino Hiperión que aparecen en 'Nature'.
Las fotografías tomadas a pocos kilómetros de distancia
confirman lo que los telescopios venían mostrando con menos detalle: Hiperión es
un cuerpo amorfo, cavernoso y de extrañas tonalidades.
Por su distancia a Saturno, y también por su tamaño, Hiperión es la séptima luna
del planeta anillado. En la mitología griega su nombre era el de uno de los
hijos de Urano y Gea; por tanto, un titán. Pero en las inmediaciones de Saturno
-el Viejo Cronos, también hijo de Urano- Hiperión sólo es un "titanito". El gran
satélite de Saturno es Titán, helado satélite en cuyo interior -se especula-
puede haberse desarrollado la vida. Las órbitas de Titán e Hiperión tienen una
curiosa característica: están en "resonancia". Cuando Hiperión cubre tres
vueltas alrededor de Saturno, Titán recorre casi exactamente cuatro.
Pero lo que hace singular a Hiperión no es esa coincidencia, sino su aspecto.
Visto de cerca es como una esponja en medio del espacio. Y, en realidad, esto es
algo más que una metáfora. El séptimo satélite de Saturno es el cuerpo del
sistema solar con mayor porosidad: un 40% de su interior está vacío. Lo que, por
supuesto, también explica su baja densidad. Al igual que las esponjas marinas no
tiene un aspecto regular. Mide 360 kilómetros en su parte más larga y sólo 225
en la más estrecha. Con semejante forma no es extraño que su eje y período de
rotación sea variable. Vivir en Hiperión, si es que fuera posible, rompería los
ciclos circadianos.
La superficie del satélite está cubierta por los cráteres de los objetos que han
ido chocando contra él. Se supone que el mismo Hiperión es un fragmento de otro
satélite que fue parcialmente destruido por un gran impacto, lo que explicaría
su forma irregular. La luna está formada por agua helada y rocas, de modo que
refleja una gran parte de la luz que recibe. No obstante, la luminosidad -como
todo lo demás- es irregular. El borde de los cráteres, donde se encuentra el
hielo más puro, brilla intensamente. En cambio, los cráteres son zonas oscuras.
Fuente: El Mundo Digital, 5 de Julio de 2007
-Queman bosques para producir biodiesel
Amigos de la Tierra denuncia que la multinacional
Wilmar, dedicada a la
distribución de aceite de palma, está destruyendo las selvas de Indonesia.
La organización ecologista Amigos de la Tierra ha dado a
conocer una investigación de su sección holandesa en la que denuncia que la
multinacional Wilmar, la mayor empresa dedicada a la distribución de aceite de
palma, está destruyendo selvas enteras de Indonesia.
Las actividades de esta empresa incluyen «la tala de forma ilegal y la quema de
bosques, violando los derechos de las comunidades locales en Indonesia»,
afirman.
El aceite de palma es una de las principales materias primas utilizadas para
producir biocombustible para su uso en el transporte. Otras materias primas son
el maíz y el girasol.
Amigos de la Tierra ha reclamado a la Comisión Europea que se replantee los
objetivos obligatorios para incrementar el uso de biocombustibles y que éstos no
se subvencionen con dinero público.
Otras ONG ambientales se han mostrado también reticentes a la normativa que
obligará a que el 10% de los combustibles de automoción sean de origen agrícola
antes de 2020, y piden una moratoria. El biocombustible producido a partir de
aceite de palma, puede también ser la puntilla para los orangutanes de las
selvas de Borneo y Sumatra, donde los bosques tropicales en los que viven unos
pocos miles de ejemplares de estos amenazados primates están siendo talados para
estos cultivos.
Europa es el mayor importador de aceite de palma, -Holanda a la cabeza- que
también se utiliza como materia prima en muchos productos de alimentación y
cosmética. Wilmar distribuye a compañías multinacionales como Unilever, Nestlé y
Cargill.
La
Organización para la Cooperación y el Desarrollo Económico (OCDE) estima
que, para sustituir el 10% de la demanda actual de combustibles de la UE, habría
que dedicar el 70% de la superficie agrícola europea. La mayor parte de la
producción de Indonesia viene a los mercados de Europa.
La ONU ha señalado recientemente en un informe que la demanda de tierra para
biocombustibles podría suponer un peligro para el medio ambiente. También ha
mostrado su inquietud ante la presión ejercida sobre los cultivos de alimentos,
lo que llevaría a un aumento de los precios.
Investigaciones llevadas a cabo por David Pimentel y Tad Patzek, de
Natural
Resources Research, ponen en duda la validez del uso de los biocombustibles
como herramienta contra el cambio climático. La producción de etanol a partir
del aceite de girasol, requiere un 118% más de energía fósil que la de un
combustible normal.
Por otra parte, talar bosques que cumple la función natural de absorción de
dióxido de carbono (CO2), para plantar palma, es un contrasentido,
según señalan los expertos.
José Carlos Puentes, responsable de Cambio Climático de Amigos de la Tierra
considera que «existen opciones seguras a corto plazo para reducir las
emisiones, como el fomento del ahorro y de la eficiencia energética, junto con
una decidida apuesta por energías como la solar».
Fuente: El Mundo Digital, 5 de Junio de 2007
-"Science" y "Nature" "Principe de
Asturias de la Comunicación" 2007
Las revistas 'Science'
y 'Nature',
consideradas dos de las publicaciones científicas más importantes del mundo, se
han alzado con el premio Príncipe de Asturias de Comunicación por su tarea de
divulgación de la ciencia en todo el mundo. La candidatura conjunta se ha
impuesto a la agencia fotográfica Magnum y a la cadena de televisión británica
BBC, que también fueron finalistas en la última edición del galardón.
La revista 'Science' se fundó en 1880 gracias a una donación
de 10.000 dólares que hizo el inventor Thomas Edison. Poco después se unió
financieramente al proyecto Graham Bell, y el primer director fue el periodista
científico John Michaels. Pero no fue hasta el año 1900, cuando la revista
atravesaba serios problemas económicos, cuando la publicación pasó a formar
parte de la Sociedad Americana para el Avance del Conocimiento, que sigue
editándola hoy en día.
Hoy en día, la revista es de carácter semanal, sale a los kioscos los jueves y
tiene una tirada de un millón de lectores en todo el mundo, aunque sus lectores
a través de los diferentes webs de información científica son muchos más.
Tanto 'Science' como 'Nature' basan su prestigio científico en el panel de
expertos que revisan todos y cada uno de los textos antes de publicarse,
siguiendo unas estrictas reglas para garantizar la seriedad, documentación y
responsabilidad de todos y cada uno de los artículos.
Algo similar ocurre en el caso de 'Nature', una revista dirigida a un público
eminentemente científico y que publica artículos de investigación cuidadosamente
revisados y supervisados.
El primer número de 'Nature' salió a la venta el 4 de noviembre de 1869 en el
Reino Unido y desde el primer momento nació con carácter semanal, que mantiene
hoy en día, saliendo al mercado todos los miércoles.
El director de la revista, el doctor Philip Campbell, expresó su sorpresa porque
se la hubiese considerado y finalmente elegido para ese galardón. La concesión
del premio a ambas publicaciones "significa que la ciencia le importa al mundo.
La comunicación de la ciencia no sólo entre científicos, sino también a una
audiencia más amplia es valorada cada vez más y nosotros ('Nature') y 'Science'
tenemos esa misión", afirmó.
La publicación, dirigida por sir Norman Lockyer, ha publicado los trabajos de
renombrados científicos, como Isaac Newton, Michael Faraday o Charles Darwin.
En el caso de la revista estadounidense, en sus páginas fue donde por primera
vez se habló de los proyectos de misiones de la Luna, donde se advirtió del
peligro de un virus denominado VIH o donde Celera Genomics dio a conocer al
mundo la secuenciación del ADN humano.
ASPIRANTES DE 36 PAÍSES
A esta edición del Premio en la categoría de Comunicación concurrían
candidaturas de 36 países, entre las que se encontraban las del periodista
estadounidense Bob Woodward, la del buscador de Internet Google, la de la
periodista de la CNN Christiane Amanpour, la del semiólogo búlgaro Tzvetan
Todorov, la de la Organización Meteorológica Mundial, y la del sociólogo
británico Ralph Dahrendorf.
También optaban al premio el escritor brasileño Paulo Cohelo y el dibujante
Antonio Mingote, así como RTVE, el ex secretario general de la ONU Kofi Annan y
el actor y director Robert Redford, en su calidad de promotor del festival de
cine independiente de Sundance.
El jurado destacó de los semanarios 'Science' y 'Nature' su labor "durante más
de un siglo" impulsando y difundiendo "las grandes conquistas científicas de la
Humanidad acercando de este modo la ciencia a la vida".
La candidatura fue propuesta por el presidente de la Real Sociedad Española de
Física, Antonio Fernández-Rañada, y por el periodista Pedro Páramo, ambos
miembros del jurado. En el acta, que fue leída por Manuel Olivencia en calidad
de presidente del jurado, se hace constar que ambas revistas constituyen el
canal de comunicación "más solvente que tiene hoy la comunidad científica
internacional" para dar a conocer, tras "el filtro de una irreprochable y
minuciosa selección" los más importantes descubrimientos e investigaciones.
En las últimas ediciones de este galardón fueron premiados Ryszard Kapuscinski,
Gustavo Gutiérrez Merino, Hans Magnus Enzensberger, George Steiner, Umberto Eco,
el Instituto Caro y Cuervo de Colombia, el periodista Jean Daniel, los grandes
centros culturales europeos y la National Geographic Society, que lo obtuvo el
pasado año.
El galardón, dotado con 50.000 euros y la reproducción de una estatuilla
diseñada por Joan Miró, es el quinto que se falla este año después de los de
Cooperación Internacional (Al Gore), Artes (Bob Dylan), Investigación Científica
y Técnica (Ginés Morata y Peter Lawrence) y Letras (Amos Oz).
Entrevista al director de Nature sobre la concesión del
Príncipe de Asturias
Pregunta. ¿Qué supone para su publicación el galardón?
Respuesta. Es un gran reconocimiento para todos los que contribuimos a hacer
Nature. En realidad nos ha cogido completamente por sorpresa. Recibimos el
premio como una manera de reconocer la importancia de comunicar ciencia
sobresaliente a muchos tipos diferentes de audiencias. Creo que sobre todo viene
a reflejar el valor que en sí mismo tiene el impacto de investigaciones
fundamentales.
P. Nature es una revista decana en su género y más que centenaria.
R. Se lanzó en 1869 y desde entonces ha estado ahí para mostrar las importantes
novedades de la investigación científica. Hoy tenemos 85 personas en la parte
redaccional, con oficinas en Londres, EE.UU., varios países de Europa y Asia. La
circulación del producto impreso es de 65.000 ejemplares y «on line» tenemos 3
millones de usuarios únicos al mes.
P. ¿Cómo ha logrado Nature convertirse en un punto de referencia global en la
comunicación de la ciencia al público?
R. Probablemente porque somos independientes y por eso tenemos capacidad para
movernos por nuestra propia iniciativa siempre que queremos, tanto en términos
de contenidos como de gestión. También porque en las últimas pocas décadas la
ciencia misma se ha convertido en algo de gran impacto en un sentido mediático.
En este tiempo, muchos países han descubierto esto y están invirtiendo cada vez
más en ciencia, especialmente en la región del Asia-Pacífico. Allí también han
aparecido publicaciones importantes que han venido a sumarse a las que ya
aparecen en países donde la apuesta por la ciencia ha sido más tradicional.
P. El galardón es compartido con la revista
Science. ¿Existe
rivalidad entre las dos publicaciones?
R. La rivalidad es fuerte en el sentido de que las dos publicaciones competimos
muy vigorosamente una con otra para intentar publicar los mejores estudios,
hacer el mejor periodismo científico y aportar la mejor opinión. Esta
competencia, que es muy beneficiosa para los lectores, se desarrolla en términos
amigables, pues mutuamente nos reconocemos las excelencias de cada cual. Science
está más centrada en los Estados Unidos, tanto en contenido como en circulación,
mientras que Nature es la más internacional de las dos. Francamente, estoy
encantado de que ambas hayan alcanzado este reconocimiento otorgado en España.
Fuente: El Mundo Digital, ABC Periódico electrónico
S.A, 5 de Julio de 2007
-Una plataforma tecnológica
sobre las plantas establece sus prioridades de investigación
Los europeos pueden prepararse para
ver, en los próximos veinte años, plantas con propiedades curativas que combatan
la diabetes y las cardiopatías; plantas más sabrosas con mejor contenido
nutricional; medicamentos más económicos gracias a la producción de fármacos a
partir de plantas; y plantas que se transformen con facilidad en biocombustibles.
La agenda estratégica de investigación expone cómo puede contribuir la comunidad
científica que realiza investigación vegetal a solucionar cinco retos mundiales
clave, a saber:
1. alimentos y piensos sanos, seguros y en cantidad suficiente;
2. productos de origen vegetal (sustancias químicas y energía);
3. agricultura, silvicultura y paisajes sostenibles;
4. investigación fundamental dinámica y competitiva;
5. variedad de opciones para el consumidor y gobernanza.
"Estos cinco pilares sostienen por completo el desarrollo de una bioeconomía
basada en el conocimiento que permita mantener la competitividad económica
europea y proporcione los medios para garantizar el suministro futuro de
combustible y alimentos de manera sostenible para el medio ambiente", se afirma
en el documento. En relación con cada uno de los retos, se especifican
prioridades a corto, medio y largo plazo (hasta 2025).
La nueva agenda de investigación es motivo de optimismo especialmente para los
agricultores de Europa. "Para incrementar su competitividad futura, los
agricultores europeos deberán contar con cultivos diversificados y más
ecológicos y producir más productos alimentarios y no alimentarios de mayor
calidad", señaló Ricardo Serra Arias, del
COPA, el Comité de las Organizaciones Profesionales
Agrícolas de la Unión Europea. "Se trata de un
verdadero reto que se podrá superar mediante innovaciones punteras,
especialmente en el campo de las biotecnologías vegetales".
La agenda estratégica de investigación se elaboró tras dos años de amplias
consultas tanto a nivel comunitario como en cada Estado miembro. En este proceso
se contó con diversas partes interesadas del mundo académico, la industria, la
agricultura, la silvicultura, los gobiernos, asociaciones de consumidores y
organizaciones medioambientales, así como expertos en educación, comunicación y
asuntos jurídicos y financieros.
Los socios del proyecto ya están trabajando en la puesta en práctica de esta
ambiciosa agenda. Como dijo Kurt Vandenberghe, vicedirector del gabinete de
Janez Potocnik, Comisario de Investigación de la UE, ya han logrado que las
ciencias vegetales hayan recibido una alta prioridad dentro del Séptimo Programa
Marco (7PM). Un porcentaje considerable del presupuesto para la bioeconomía
basada en el conocimiento se destinará a proyectos relacionados con plantas,
apuntó.
"Esto muestra que la plataforma tecnológica Plants for the Future ha logrado
transmitir sus argumentos con solidez a nivel europeo", afirmó, y agregó que
constituye un buen ejemplo de lo que la Comisión espera de las plataformas
tecnológicas.
Los socios del proyecto están buscando fuentes complementarias de financiación
comunitaria, entre ellas los fondos sociales y el propuesto Instituto Europeo de
Tecnología (IET). Al mismo tiempo, están tratando de convencer a los gobiernos y
las agencias de financiación nacionales para que incorporen las prioridades de
esta agenda a sus propios planes. Este proceso se ve facilitado por el hecho de
que muchas de dichas agencias participaron en el proceso de consulta.
"En los últimos años el apoyo a la pujante investigación vegetal no ha sido una
gran prioridad política para Europa", sostuvo el Sr. Gruissem. "Estamos
convencidos de que la perspectiva estratégica de la plataforma tecnológica
europea hará que las plantas vuelvan a ocupar un lugar de importancia entre las
prioridades de los políticos de Europa, al centrarse en cuestiones claves de la
investigación agrícola y vegetal que deben abordar los europeos".
Fuente: CORDIS, 4 de Julio de 2007
-De la enfermedad animal a
la humana
El número del 15 de junio de la revista
Science incluye un artículo firmado por Martin Enserink cuyo concepto es
extremadamente sencillo: las barreras entre enfermedades animales y humanas son
ficticias. Considerando la salud desde una perspectiva más ambiental y global
que en una interpretación estrictamente clínica o asistencial, humanos y
animales compartimos demasiadas cosas, y especialmente enfermedades, como para
enfrentarlas por separado. Es la denominada one health, basada en las propuestas
de Calvin Schwabe y que se corresponde perfectamente con el clásico lema
veterinario Higia pecoris, salus populi (que viene a significar "la salud del
ganado, la salud del pueblo").
Casi dos tercios del total de las
enfermedades transmisibles humanas son zoonósicas (61%), es decir, adquiridas a
partir de un animal vertebrado. Y, además, aproximadamente tres de cada cuatro
(77%) enfermedades emergentes humanas son también zoonosis. Conviene no olvidar
por último que las zoonosis alimentarias son las que reciben más atención, y que
son la razón de ser de muchos de los contenidos y actividades de la seguridad
alimentaria. Salmonelosis, encefalopatías espongiformes, triquinelosis, son
nombres que todos asociamos a alimentos de origen animal. En distinta medida y
por distintos mecanismos de transmisión, los animales actúan como reservorios o
vectores de enfermedades para la especie humana y comparten muchas de ellas.
Así pues, la sanidad de todos ellos es una de las llaves de la salud pública
como eslabón primario en la cadena de transmisión de las zoonosis, en particular
los destinados a consumo humano y los que comparten su hábitat con nosotros.
Controlando la enfermedad en los animales, evitamos la enfermedad humana.
Recuerden la brucelosis -principal zoonosis en nuestro país- y su marcada
disminución teniendo como único origen el control de la misma en el ganado, no
como consecuencia de nuevos fármacos, vacunas u otras tecnologías aplicadas al
enfermo.
Las tasas por 100.000 habitantes pasaron de aproximadamente siete a mediados de
los años noventa a menos de tres en diez años, cifras coincidentes con la
disminución de la prevalencia en ganado ovino y caprino del 2,5% a un 0,5%,
aproximadamente, en el mismo periodo. (Fuente: MAPA).
En todo caso, la iniciativa americana de que veterinarios y médicos establezcan
planes conjuntos en relación con estrategias de investigación y lucha contra las
enfermedades no es la primera. En septiembre de 2004 comenzó su andadura la red
MED-VET-NET, cuyo
acrónimo lo dice todo (European Network of Excellence for prevention and control
of zoonoses).
El principal objetivo de esta red europea es la vigilancia sanitaria de las
zoonosis. Consiste, pues, en la mejora de la investigación, prevención y control
de las zoonosis, especialmente de aquellas de origen alimentario, teniendo en
cuenta el concepto de salud pública, la opinión de los consumidores y de otros
sectores implicados a lo largo de la cadena alimentaria, mediante la integración
de especialistas veterinarios, médicos y expertos en seguridad de los alimentos.
No obstante todo lo anterior, si adoptamos el término de "sanidad global", las
facetas de necesaria colaboración entre estas profesiones son aún más:
toxicología ambiental, contaminación biótica de recursos hídricos, cambio
climático como motor de cambios en la distribución de vectores de enfermedad,
ocio y transporte como diseminadores mundiales de patógenos, etcétera.
La lista es interminable y requiere no sólo de médicos y veterinarios, sino de
otros profesionales con competencias específicas en multitud de campos:
sociología, entomología, toxicología, biología, edafología, etcétera. Un ejemplo
magnífico ha sido la influenza aviar, paradigma del concepto de one health:
biólogos, meteorólogos, veterinarios, ecólogos, médicos y alguna otra profesión
confluyendo para estudiar una misma situación.
Así pues, parece evidente que la sanidad inmediata -no futura- estará integrada
por varias profesiones estrechamente vinculadas. Formación es la palabra clave.
Es necesario ampliar el currículo de nuestros estudiantes de Medicina,
Veterinaria y otras ciencias de la salud con nuevas materias que escapen un
tanto a nuestra visión umbilical y nos permitan aprender de otros campos del
saber complementarios a los nuestros.
-Teología cibernética
¿Sueñan los androides con Dios? "Quizá
lo hagan algún día", dice Anne Foerst, profesora de Informática y Teología en la
universidad franciscana de Saint Bonaventure en
Olean, Nueva York (Estados Unidos).
Foerst, también pastora luterana, fue
consejera teológica para el grupo de Inteligencia Artificial que construyó los
robots humanoides Cog y Kismet, en el
Massachusetts Institute of Technology de Boston (MIT).
Cog se parece a un torso humano e interacciona con el ambiente; Kismet es un
robot social, una cara que reacciona ante una persona mostrando todo tipo de
emociones. Si el Comandante Data, el humanoide de la serie Star Trek, se llegó a
preguntar si las creaciones de los hombres tenían alma, Foerst piensa que el
robot Cog podría tener alma.
"¿Por qué no puede tener alma un robot? Si es suficientemente inteligente, ¿por
qué Dios no puede establecer una relación con él?", declaró un día Anne Foerst".
De acuerdo con el concepto bíblico, dice esta tecnoteóloga, el alma no es sólo
algo individual, sino también social, "y me pertenece por participar en
comunidad", dice Foerst, quien recientemente impartió una conferencia en
Barcelona.
La autora del controvertido libro God in the machina: what robots teach us
about humanity and God ('Dios en la máquina: lo que los robots pueden enseñarnos
sobre la humanidad y Dios'), considera que si somos capaces de construir
humanoides con suficiente inteligencia social, "entonces sí podrán participar en
sociedad". Será entonces cuando, vaticina, tengamos los verdaderos problemas
éticos: "Cuando existan robots que tengan emociones, que interactúen con
nosotros, ¿cómo los trataremos?". Son cuestiones que tienen numerosas
ramificaciones sociales, dice, "aunque aún falta mucho para que veamos aparecer
este tipo de robots".
LA ROBÓTICA
Entonces, si los humanoides salen de los laboratorios a la calle, habrá que ver
qué normas de urbanidad se establecen, la robotética. Corea del Sur plantea
adoptar un código para robots, pero Anne Foerst no cree que sean necesarias
normas como una Ley Cero de la robótica, que el escritor y científico Isaac
Asimov puso por encima de las tres leyes robóticas que también enunciara. La Ley
Cero decía que "un robot no puede hacer daño a la humanidad o, por inacción,
permitir que la humanidad sufra daño".
No hace falta ninguna ley adicional porque, dice la teóloga, ya existe una ética
construida a partir de los Diez Mandamientos y otros códigos religiosos
semejantes, que dicen: "Ama a tus vecinos, respeta, no mates, no robes...".
Foerst asegura "que no los seguimos ciegamente para saber qué tenemos que hacer,
sino porque pensamos que es lo correcto".
Por ello, cuando un humanoide tenga características que hagan posible su
participación en nuestra comunidad, automáticamente deberá participar en esas
leyes, que son una fusión de interacciones sociales, afirma. Del mismo modo,
Foerst descarta programar los humanoides para un comportamiento ético, "no
podríamos tener empatía con ellos".
Mientras, Cynthia Breazeal, la creadora del robot Kismet, trabaja ahora en
Leonardo, un robot social con forma de animal. "Es incluso más inteligente que
Kismet; tiene un nivel de conocimiento ligero, pero como tiene forma de animal
no produce la misma interacción con los humanos", dice Foerst. Esta especialista
en analizar la espiritualidad de las máquinas y su interacción con los humanos,
considera que mientras que los propietarios de una mascota, ya sea un perro o un
gato, piensan que se comunican con ellos, los humanoides, "los robots que están
siendo construidos a nuestra imagen y semejanza, sí serán capaces de comunicarse
con los humanos; tendremos más empatía con ellos y formarán parte de nuestra
comunidad. Será fascinante ver cómo nos relacionaremos con los robots, porque
pueden enseñarnos mucho".
LA HORA DE LA MUERTE
¿Por qué a una informática le dio por estudiar teología? "Siempre me había
fascinado conocer cómo funcionan los humanos, como interactúan, pero soy mejor
investigadora de la tecnología". La cuestión es, dice Anne Foerst, "¿podemos
reconstruir cómo son los humanos mediante inteligencia artificial? La
inteligencia artificial clásica", añade, "ha intentado construir mentes que
resuelvan problemas matemáticos o jugar al ajedrez, pero de repente intentamos
crear inteligencia artificial basada en la idea del cuerpo que ha evolucionado y
de que nuestra inteligencia social es producto de esa evolución".
Foerst cree que el sentido humano de la muerte marcará una de las diferencias
con los futuros humanoides. "La muerte nos hace humanos, sabemos que un día
moriremos y nos preguntamos: ¿cuál es el sentido de la vida? Los animales saben
cuándo está próximo el momento de morir, pero somos el único animal que entiende
que va a morir un día, incluso en nuestros primeros momentos de vida. ¿Y cómo
podemos introducir eso en un robot?, porque un robot por definición puede ser
reparado".
Fuente: El País Digital, 4 de
Julio de 2007
-El universo desde una idea
alternativa
"¿Qué pasó antes del principio de todo,
antes del Big Bang? Sí, es una pregunta perfectamente científica; de momento no
podemos contestarla, pero es una de esas preguntas que antes era religiosa y que
ahora es ciencia", comentaba el físico teórico y premio Nobel David Gross en
Madrid, el pasado sábado, poco después de impartir una charla sobre La
revolución que se avecina en física fundamental.
Él es uno de los máximos expertos en la
denominada Teoría de Cuerdas, un atrevido e influyente desarrollo científico
que, al menos en el papel, permite profundizar en el conocimiento del universo
tanto a la escala cósmica como a la de sus componentes más minúsculos, y avanzar
ahí donde la física más convencional -y comprobada- choca con recalcitrantes
barreras.
Para muchos investigadores, ese antes del principio sería una pregunta
científicamente imposible, una especulación fuera del alcance de cualquier
experimento que verifique o descartar una respuesta. Para otros, la ciencia
tiene que ser osada, al menos intelectualmente, para ser fructífera. De ideas
atrevidas, razonamientos que parecen perturbar el sentido común y soluciones
imprevisibles ha estado bien nutrido el congreso Strings 07, que reunió la
semana pasada en la
Universidad Autónoma de Madrid (UAM)
a 500 físicos teóricos expertos en la denominada Teoría de Cuerdas, Gross entre
ellos.
"El Big Bang, la explosión inicial, es algo que no entendemos, porque al
extrapolar todo hasta ese punto, hasta el mismo inicio, se pierde el control, la
teoría de Einstein se rompe, y las cosas se hacen infinitas", explicó Gross.
"Muchas veces en la historia de la física ha habido que cambiar nuestras ideas
básicas para abordar preguntas que parecían imposibles. Uno de esos problemas
ahora es el origen del universo, y sospecho que vamos a tener que cambiar
nuestra comprensión del espacio-tiempo; a lo mejor resulta que el antes del
principio tiene así una respuesta simple".
Tal vez muchas ideas de física van a cambiar en este siglo XXI, tal vez hayan
empezado ya a cambiar. Al menos algo así se intuía en las sesiones de Strings
07, la edición de este año de la cita mundial de los especialistas en esa Teoría
de Cuerdas, definida como la alternativa más desarrollada a las teorías
establecidas y comprobadas que describen el universo a gran escala y sus
componentes más pequeños. Un mayor énfasis en la cosmología por parte de estos
especialistas que hasta hace pocos años parecían volcados más que nada en el
ámbito de los componentes más minúsculos de la materia, y un creciente interés
por los próximos resultados experimentales que ofrecerá el nuevo acelerador de
partículas LHC, han sido rasgos distintivos de este congreso respecto a
ediciones de otros años.
No es que las cuerdas tiren por tierra lo que ahora se sabe -casi ninguna buena
propuesta científica lo ha hecho en la historia-, sino que se pretende dar paso
más lejos, o varios pasos, para profundizar y explicar lo inexplicable. Para
unos es un formidable y atractivo desafío; para otros, esos pasos se alejan más
de lo deseable de la comprobación experimental, del funcionamiento de la propia
naturaleza.
El punto de arranque es simple: las partículas fundamentales no serían puntos,
como en la teoría de partículas convencional, sino objetos extensos,
literalmente cuerdas. "La Teoría de Cuerdas no sólo hace compatible la mecánica
cuántica con la gravitación de Einstein, sino que de forma automática tiene
todos los ingredientes necesarios para entender el resto de las interacciones
fundamentales de la naturaleza. Partículas familiares como el electrón o la
radiación electromagnética corresponden a las vibraciones de menor energía de
las cuerdas", explica Luis Ibáñez, catedrático de física teórica de la UAM y
coordinador de Strings 07 a través del
Instituto de Física Teórica UAM-CSIC.
Gross, en su charla de divulgación impartida en la
Fundación BBVA, resumió
el estado de cosas actual en la física fundamental. "El avance en el
conocimiento ha sido extraordinario en el siglo XX: ahora sabemos que hay
átomos, que están hechos de núcleos y electrones a su alrededor, y que el núcleo
es una estructura compleja formada por protones y neutrones, a su vez formados
por diferentes quarks", explicó. Todo lo que nos rodea está hecho de esas
partículas.
La teoría vigente basada en la mecánica cuántica, el modelo estándar, que
describe las partículas y las tres fuerzas de interacción entre ellas (el
electromagnetismo, la fuerza débil y la fuerza nuclear fuerte), "se ha
comprobado experimentalmente con una precisión extraordinaria, y con el modelo
estándar más la relatividad general de Einstein, que describe la gravedad,
abarcamos todas las fuerzas observadas en la naturaleza, así que... hemos
terminado, los físicos podemos irnos a casa... Es evidente que no", exclamó
Gross.
El problema que todos los físicos reconocen es que la mecánica cuántica y la
relatividad no encajan, y eso de tener dos modelos conceptuales incompatibles
para describir y entender la naturaleza es incongruente. Sin embargo, la Teoría
de Cuerdas combina de modo natural esos dos colosos teóricos de la ciencia,
unificando la gravedad y la mecánica cuántica.
Pero si parece simple esta idea básica de las partículas convertidas en cuerdas
con efectos asombrosos de combinar lo que de otro modo resulta irreconciliable,
la verdad es que la complejidad de la teoría está resultando enorme. Los mismos
especialistas creen que esto se debe a que no es aún una teoría terminada. Por
ejemplo, de las diferentes soluciones que encuentran a sus ecuaciones no saben
cómo elegir la que realmente corresponde a nuestro universo.
Una de sus características menos intuitivas es el hecho de que para que las
cuerdas funcionen hace falta pensar y calcular en diez dimensiones, como mínimo,
mientras que el universo a nuestro alrededor sólo muestra cuatro: las tres
espaciales y el tiempo. ¿Dónde están las demás? El escenario teórico indica que
están escondidas, y la estadounidense Lisa Randall, de Harvard, puso en su
charla un ejemplo de cómo es posible tratar esas otras dimensiones. Si uno se
pone en el lugar de un hipotético individuo bidimensional (plano) que intenta
comprender qué es una esfera, la respuesta sería una pila de discos de tamaño
creciente hasta el centro de la esfera y decreciente después.
Las dimensiones extra, afirmó Randall, ofrecen muchas respuestas a preguntas que
hasta ahora han resultado intratables para la física, y a la vez que se
vislumbran con ellas efectos que de otro modo pasarían inadvertidos. "Las
extradimensiones podrían ser el gran descubrimiento en los próximos cinco años",
dijo Randall. "¿Cómo vamos a evitar explorar sus posibilidades?".
Puede que el universo efectivamente tenga más dimensiones de las que se
observan, y que estén como enrolladas, escondidas para nuestros sentidos. Pero
los físicos de cuerdas han valorado cómo una aportación destacada en Strings 07,
un estudio que hace justo lo contrario. Ha sido un trabajo desarrollado por el
gran especialista en cuerdas estadounidense Edward Witten, sobre sólo tres
dimensiones, dos espaciales y el tiempo, entendido como laboratorio para
profundizar en el análisis de la gravitación.
El atractivo de la idea y las soluciones que se encuentran en el contexto de las
cuerdas han atraído a centenares de físicos en todo el mundo hacia esta teoría,
que, por otro lado, no ha podido despegarse de la principal crítica: la falta de
experimentos en perspectiva que verifiquen si es correcta. El problema es que
las cuerdas y sus efectos serían sólo apreciables en condiciones de energía
altísimas, fuera del alcance de los laboratorios y aceleradores de partículas
con los que se puede contar de modo realista.
"La Teoría de Cuerdas es muy ambiciosa, pero es difícil comprobar si es
correcta", comentó Antonio González Arroyo, director del IFT. "El componente
especulativo es importante", dijo este físico, que no se dedica al desarrollo de
esta teoría, pero que no por ello deja de reconocer su interés. "La verdad es
que no conocemos otra teoría capaz de unir la mecánica cuántica y la gravedad,
ambas muy bien establecidas por separado". Para otros muchos, la ausencia de
predicciones experimentales de una teoría física después de 20 años de
desarrollo, es un inconveniente que no se puede pasar por alto en modo alguno.
También hay posturas diferentes entre quienes dedican todo su esfuerzo
científico al desarrollo de la Teoría de Cuerdas. Para unos, los avances
matemáticos que implica justifican por sí solos el interés. Otros especialistas
reconocen que se sienten algo incómodos. "La mayoría de nosotros estamos
deseando que haya experimentos [capaces de verificar la Teoría de Cuerdas], pero
es muy difícil que haya una evidencia directa a corto plazo", dijo Enrique
Álvarez, catedrático de Física Teórica de la UAM.
Para un congreso de física teórica, fue chocante la charla inaugural de
Strings07, impartida por un físico experimental: Gigi Rolandi, del
Laboratorio Europeo de Física de Partículas (CERN).
Él resumió la marcha del nuevo acelerador de partículas LHC, que debe empezar a
funcionar en 2008. No es que nadie sueñe siquiera con la posibilidad de que en
este acelerador se generen cuerdas, pero sí podrían descubrirse nuevas familias
de partículas elementales, llamadas supersimétricas, con las que cuenta la
Teoría de Cuerdas. "Tanto la línea de cuantizar la gravedad, como la de unificar
las interacciones fundamentales, apuntan directamente en la dirección de la
supersimetría", señalaba Álvarez.
PALMADA EN LA ESPALDA
Desde luego, no será nada definitivo como prueba porque, además, las partículas
supersimétricas encajan en otros enfoques teóricos de partículas, sin tener que
recurrir al marco de las cuerdas. Pero, desde luego, la posibilidad de que surja
el rastro de la supersimetría en LHC aglutinó gran interés en el congreso de
Madrid. La opinión unánime es que ese descubrimiento sería una buena palmada en
la espalda a la Teoría de Cuerdas.
"Strings 07 ha cubierto temas muy variados dentro del campo, desde la cosmología
en la Teoría de Cuerdas, hasta posibles pistas experimentales en el LHC, pasando
por la física de agujeros negros y el estudio de la Correspondencia de Maldacena.
Quizá se ha notado menos énfasis matemático que en las dos últimas ediciones",
resumió Ibáñez. "Otros temas importantes tratados incluyen aplicaciones de la
Teoría de Cuerdas en otras áreas, como la física de iones pesados estudiada
experimentalmente en el laboratorio de Brookhaven (EE.UU.). Ha sido una
conferencia muy interesante".
Fuente: El País, 4 de Julio de 2007
-Hallan un neurotransmisor
que actúa como "interruptor biológico" de la grasa
De acuerdo a sus conclusiones,
publicadas en la edición electrónica de «Nature
Medicine», este neurotransmisor es activado
sobre todo por el estrés crónico. Una llave que ayudaría a explicar la paradoja
de cómo hay personas que durante sus vacaciones, a pesar de los casi inevitables
excesos veraniegos, pueden llegar a perder algo de peso al alejarse
temporalmente de sus presiones y preocupaciones cotidianas.
Pese a la cautela obligada -hasta realizar las pruebas oportunas- sobre la
seguridad y viabilidad de este posible tratamiento contra la obesidad, la
directora del trabajo, Zofia Zukowska, de la
Universidad de Georgetown, no ha dudado en
utilizar el adjetivo «revolucionario» al hablar de la investigación realizada
por científicos de Australia, Eslovenia y Estados Unidos. Hasta el punto de
haber solicitado ya una patente y negociar con compañías farmacéuticas
interesadas, barajando la posibilidad de iniciar estudios con seres humanos
dentro de dos años.
DIETA DE "COMIDA BASURA"
Estos científicos han expuesto a ratones a situaciones de estrés crónico, como
colocarles en agua fría durante una hora al día o enjaularlos con ejemplares
agresivos. Además de administrarles una dieta normal y otra con altos niveles de
grasa y azúcar, similares a los que se encuentran en la «comida basura» cada vez
más consumida en países industrializados. Según ha explicado la profesora
Zurkowska, «al tratar a los ratones de la forma en que los seres humanos son
tratados, con la introducción de un estrés crónico del que no pueden escapar y
una abundancia de comida, hemos reproducido lo que pasa en sociedades como la
estadounidense».
Tras dos semanas de esta rutina de nervios y «junk food», los ratones sometidos
a estrés y mala alimentación engordaron significativamente. Acumularon hasta el
doble de grasa en sus panzas que los ratones sin estrés a los que se les
administró la misma dieta hipercalórica. Según la doctora Zukowska, «esto nos
dice que el problema se encuentra en la combinación del estrés y una dieta rica
en grasas y azúcar».
RIESGOS ASOCIADOS
Además, los análisis realizados han demostrado que los ratones estresados y mal
alimentados han desarrollado la peor de las gorduras, en torno al abdomen y
repleta de hormonas y productos químicos que pueden promover enfermedades. En el
plazo de tres meses, este grupo de animales pasó el listón de la obesidad con
los problemas típicos de alta presión sanguínea, diabetes temprana y peligrosos
niveles de colesterol.
Con todo, lo más interesante de este estudio internacional es que los análisis
del tejido graso acumulado por estos ratones «humanizados» presentan elevadas
concentraciones de una sustancia conocida como neuropéptido Y (NPY), un
mensajero químico producido por el sistema nervioso -neurotransmisor-, y su
receptor Y2R, vinculados al apetito y el almacenamiento de grasa.
Investigaciones anteriores habían demostrado que los seres humanos con defectos
en estos receptores son resistentes a la obesidad, mientras que los que
presentan un exceso tienen tendencia al sobrepeso.
INYECCIONES BLOQUEANTES
Estos trabajos han logrado demostrar también que al inyectarse una sustancia
bloqueante del neuropéptido NPY se evita que los ratones engorden, incluso
aquellos estresados y sobrealimentados. Con la posibilidad de reducir depósitos
de grasa entre un 40 y un 50 por ciento en cuestión de dos semanas. Lo que
podría llegar a servir de alternativa a los actuales procedimientos quirúrgicos
de liposucción.
A juicio de la profesora Zukowska, «creemos que hemos encontrado el mecanismo
natural que los mamíferos utilizan para acumular grasa, y revertir ese proceso
puede llegar a ser la cosa más natural».
Fuente: ABC Periódico
Electrónico S.A., 3 de Julio de 2007
-Juan Maldacena: un día el
universo colapsará y surgirá una realidad distinta
Juan Maldacena, profesor en el
Instituto de
Estudios Avanzados de Princeton (Nueva Jersey),
está considerado como uno de los físicos teóricos más prometedores. Dedica la
mitad de cada día a investigar la teoría de cuerdas con el Santo Grial de la
Física en mente: formular la teoría única capaz de explicar el comportamiento de
todas las fuerzas que actúan en el Universo. Ha pasado por Madrid, invitado por
la
Fundación BBVA a su ciclo
de conferencias sobre «La Física fundamental en el siglo XXI».
Pregunta. Einstein no lo logró... ¿La
teoría de la Unificación es una frontera próxima en la Física?
Respuesta. Tratamos de hallar una formulación común que explique todas las
fuerzas que actúan en el Universo de una forma coherente. No es una cuestión
estética, sino de consistencia matemática. La unificación no tendría importancia
práctica en lo inmediato, pero sería fundamental para entender el origen y la
mecánica del Universo... y, francamente, no sé cuán cerca o lejos estamos de
lograrlo.
P. Los físicos teóricos perseveran y surgen nuevas fuerzas, nuevas partículas,
nuevas dimensiones... la Física se aleja de la realidad palpable, ¿no la estarán
convirtiendo en un fin en sí misma más que en una herramienta?
R. El conocimiento del Universo es un fin en sí mismo. La Física teórica no
generará aplicaciones tecnológicas inmediatas, pero sí a largo plazo. La
humanidad se hace preguntas y nos gusta responderlas.
P. ¿Son la Física y las Matemáticas dos formas de explicar el Universo, o se
trata de la misma vía?
R. La Matemática explora estructuras lógicas, relaciones que no resultan obvias
al primer golpe de vista. Es una extensión de nuestra capacidad de razonar. La
Física describe la naturaleza y para ello emplea el lenguaje de la Matemática,
nuestro trabajo es encontrar las estructuras matemáticas que reflejen la
naturaleza.
P. Usted afirma que el Big Bang, el nacimiento del Universo, le fascina. Todo lo
que ha seguido a ese momento germinal ¿es una concatenación de desórdenes
aleatorios o sigue un modelo lógico?
R. Nuestra comprensión actual de la teoría de cuerdas sugiere que hay muchos
posibles universos, muchos pero finitos, y todavía no sabemos por qué este
universo es así. Sí sabemos que se trata de un todo bastante uniforme y que
parece responder a un modelo lógico más que a la teoría del desorden.
P. Algunos consideran que la teoría de las cuerdas ofrece demasiadas soluciones
a cada problema...
R. Sí, encontramos muchas soluciones y el debate gira en torno a cómo
integrarlas.
P. Todas las demás fuerzas han sido integradas, pero ¿van a encontrarle acomodo
a la teoría de la gravedad en un universo multidimensional de cuerdas vibrando?
R. Ese es el objetivo, integrar la teoría general de la relatividad con la
mecánica cuántica. Pero la teoría de cuerdas está aún en construcción. Hay cosas
que ya podemos describir con ella, pero otros aspectos todavía no.
P. Ustedes hablan de los agujeros negros como de una predicción. ¿Es algo que
han inventado para explicar lo inexplicable?
R. Los agujeros negros son objetos que ya predijo la teoría de Einstein, una
teoría ya clásica y verificada. Sólo en nuestra galaxia hay millones de ellos,
Tenemos la suerte de que algunos de los que están a nuestro alcance están
absorbiendo materia, y emiten radiación que nos proporciona información precisa
sobre el propio agujero. Son objetos físicos no más misteriosos que una
estrella. Su interés es que se trata de objetos en los que el espacio-tiempo se
comporta de una manera muy rara. Los que se forman a partir del colapso de
estrellas tienen un tamaño muy grande, como mínimo de diez kilómetros, pero los
que de verdad nos interesan son los microagujeros negros, en los que la mecánica
cuántica es fundamental. Si la unimos a la teoría de la relatividad, la
gravitación cuántica tiene que bastar para explicar su comportamiento.
P. ¿Explican los agujeros negros la materia oscura?
R. No. La materia oscura está constituida fundamentalmente por nuevas
partículas.
P. Volviendo al Big Bang... el Universo sigue expandiéndose, ¿lo hará
eternamente?
R. La Física establece que el resultado de cualquier proceso depende de sus
condiciones iniciales. No sabemos lo que determinó los primeros instantes del
Big Bang, pero sí sabemos lo suficiente para pensar que el Universo se expandirá
aún durante mucho tiempo, las galaxias se van a diluir... pero eso no ocurrirá
eternamente, ni se alcanzará un punto de equilibrio. No, el Universo desandará
el camino en un proceso de implosión y, un día, colapsará y entonces el
espacio-tiempo dejará de ser válido y surgirá una realidad distinta.
Fuente: ABC Periódico
electrónico S.A, 2 de Julio de 2007
-Descubren
una estructura bajo la tumba que vigilan los guerreros de Xian
Tras cinco años de investigación,
arqueólogos chinos han confirmado la existencia de una misteriosa construcción
de 30 metros de altura sepultada en el vasto mausoleo del primer emperador
chino, escoltado por los célebres guerreros de terracota.
La edificación está rodeada por muros
escalonados y podría haber servido para que "el alma del emperador pasara a
mejor vida", según informa la agencia estatal,
Xinhua.
Desde el año 2000, los arqueólogos han utilizado tecnología sensorial remota
para estudiar la estructura interna del mausoleo, cuya excavación está
suspendida desde hace años debido a que los medios utilizados en China no
garantizan la conservación de lo que se descubra.
La recién hallada construcción está sepultada sobre la tumba principal y cada
muro cuenta con nueve escalones, explicó Duan Qingbo, investigador del Instituto
de Arqueología de Shaanxi, provincia norteña donde está ubicada Xian, la ciudad
que acoge el mausoleo del primer emperador.
Qin Shihuang (221-206 a.C.) comenzó a reinar con sólo 13 años, fue el primer
emperador que consiguió unificar el país y estableció su capital cerca de Xian,
donde en 1974 un campesino descubrió los guerreros de terracota. Hasta ahora se
han desenterrado sólo un millar de los 8.000 guerreros que, según los expertos,
escoltaban la tumba.
Las investigaciones realizadas hasta ahora estiman que el mausoleo tiene 2,13
kilómetros cuadrados de superficie y, junto a otras 181 tumbas extendidas por la
zona, cubre una superficie total de 60 kilómetros cuadrados.
Unos 720.000 obreros trabajaron durante 38 años para construir esta monumento
funerario que, según la leyenda, esconde un vasto palacio subterráneo con ríos
de mercurio y techos de perlas y diamantes que representan las estrellas y el
cielo.
Fuente: EFE, 2 de Julio de 2007
-El mapa español del secuestro
del dióxido de carbono
El futuro en la mitigación del
calentamiento global está en la captura y almacenamiento de dióxido de carbono
(CO2), principal gas de efecto invernadero. Así lo dijo el Informe del
Panel
Intergubernamental del Cambio Climático (IPCC)
presentado en mayo en Bangkok, aunque la realidad es que las tecnologías para
ello ya están aquí. En España ya se está trabajando en varias plantas piloto de
captura de dióxido de carbono, pero cuando se pase de la fase de demostración a
la comercial, ¿dónde se almacenará ese CO2 capturado?
En esto trabaja desde hace un año y medio,
en el marco del proyecto europeo Geocapacity, un equipo del
Instituto Geológico y Minero de España (IGME).
Miguel Ángel Zapatero, coordinador general de almacenamiento de CO2 del IGME,
explicó a ABC que están elaborando un mapa del potencial teórico de
almacenamiento geológico que podría haber en nuestro país. Las primeras
estimaciones se refieren a que la España peninsular podría almacenar al menos
entre 45-50 gigatoneladas de CO2. Esto sin contar la plataforma continental,
«algo que se estudiará más adelante», dijo Zapatero.
El CO2 puede almacenarse en yacimientos ya agotados de petróleo y gas
-formaciones geológicas gigantes y selladas pues han contenido esos fluidos
durante millones de años-, en capas de carbón inexplotables y en formaciones
salinas profundas, con una capacidad de almacenamiento muy grande. Éstas están
en todas las cuencas sedimentarias terrestres y marítimas, y no sólo en algunos
lugares, como los yacimientos, y es precisamente donde nuestro país tiene ese
gran potencial. «España tiene posibilidades de contar con almacenamientos
propios sin tener que recurrir a los yacimientos agotados del Mar del Norte»,
asegura este doctor ingeniero de Minas.
SUELOS SIN POROSIDAD
Así, Zapatero avanza que hay un tercio de la Península Ibérica que queda
descartado por tratarse de suelos graníticos y metamórficos que no tienen
porosidad para poder almacenar este gas. Se trata de un área que iría desde
Galicia hasta el Macizo Ibérico y bordeando el Duero llegaría hasta Salamanca y
Extremadura. El resto de la Península tiene mayor potencial de almacenamiento,
si bien hay cuencas geológicas más favorables que otras. Sin querer entrar en
emplazamientos concretos, «pues eso dependerá también de la proximidad de los
focos emisores de CO2», Zapatero explica que las más favorables son «las
cuencas, en su contexto geológico, del Ebro, el Duero, el Tajo y el
Guadalquivir».
Se trata de «grandes áreas geológicas» y su idoneidad radica en que «tienen un
gran recubrimiento de arcillas, un sello impermeable que impide cualquier fuga»,
dice el investigador. Bajo ese recubrimiento lo que hay son formaciones
areniscosas y calcáreas con porosidad y permeabilidad.
El dióxido de carbono, una vez capturado en la chimenea de la planta en
cuestión, se inyectaría a partir de los 800 metros de profundidad y hasta 2.500
metros. Si bien «lo ideal es hacerlo lo más cerca posible de los 1.000 metros
para no encarecer el proceso». El CO2, una vez comprimido y llevado a unas
condiciones de casi puro, se introduce a través de unos pozos de inyección. A
una profundidad de más de 800 a 1.000 m, el CO2 se vuelve hipercrítico y
adquiere una densidad de líquido. Isabel Suárez, técnico del IGME, explica que
una tonelada de CO2 en condiciones naturales de 0 grados y 1 bar de presión
ocupa 503 m3, mientras que en el subsuelo, en condiciones de 35 grados y 100
bares, ocupa 1,39 m3. Por tanto, dice Zapatero, esta densidad «brinda la
posibilidad de utilizar de forma eficiente el espacio de almacenamiento
subterráneo, pues ocupa 500 veces menos en el subsuelo que en superficie, además
de mejorar la seguridad del almacenamiento». Una cuestión, la de la seguridad,
en la que Zapatero insiste mucho.
Así, se ponen pozos de monitorización, de control, que detectan si hay una fuga.
No obstante, matiza, se trata de «buscar simplemente formaciones y estructuras
iguales que las que la naturaleza ha desarrollado y que durante millones de años
han mantenido secuestrado el petróleo o, en el caso de nuestro país, estructuras
llenas de agua salina -no apta para la agricultura o para el consumo humano- que
no se ha escapado en todo este tiempo.
Por tanto la tecnología de inyección está conseguida y la seguridad es total,
dicen desde el Instituto Geológico y Minero. Aunque hubiera una hipotética e
improbable fuga, dice Zapatero, el CO2 no es combustible. Es más peligroso el
almacenamiento de gas en el subsuelo porque si hay una fuga sí que es
combustible. Lo que pasaría con el CO2 es que al ser más pesado que el aire, lo
desplazaría, pero eso sólo sería dañino en un lugar cerrado.
INVERTIR EN INVESTIGACIÓN
Lo único que falta ahora es inversión en investigación y que se formen
consorcios entre las empresas eléctricas y petroleras y organismos de
investigación para llevar esta tecnología adelante y, por ejemplo, comenzar con
los test de inyección como ya se está haciendo en Ketzin (Alemania) en una
formación permeable con agua salada. Bajo el patrocinio de la UE, se ha creado
un consorcio de empresas y del Gobierno alemán para inyectar de forma piloto y a
pequeña escala CO2 en este acuífero salino. Un paso que hay que dar en nuestro
país si queremos que la tecnología sea una realidad comercial a partir de 2020,
dice Zapatero.
Fuente: ABC Periódico Electrónico,
2 de Julio de 2007
-Una "tijera molecular" logra
extirpar el virus del sida de células infectadas
Científicos de sendos laboratorios en
Hamburgo y Dresde han conseguido «recortar» los genes del virus del sida de
células humanas infectadas por medio de una llamada «tijera molecular». A
seguido del corte y separación, han logrado que las células enfermas sanaran, en
lo que parece aventurar un avance fundamental en el tratamiento del virus que
causa la inmunodeficiencia. A la postre, «la célula infectada logra ser curada»,
asegura Joachim Hauber, responsable del proyecto en el
Instituto Heinrich Pette
de virología e inmunología experimental en Hamburgo.
«Hemos logrado deshacernos del virus en
las células, algo que no había sido logrado nunca antes», lo que califica como
un «hito biotecnológico» en la revista «Science»,
pues por primera vez no se trata de frenarlo sino de eliminarlo. La operación,
en la que participaba asimismo el
Instituto Max
Planck de biología molecular y genética en
Dresde, ha requerido el desarrollo de una enzima especial según el esquema de
las recombinasas, unas proteínas capaces de cortar como una tijera y volver a
pegar las secuencias de ADN.
Hauber es optimista con respecto a la esperanza de desarrollar en un plazo de 10
años una terapia acorde para humanos e indica que durante tres años se llevarán
a cabo experimentos con ratones, antes de abordar un amplio estudio sobre
pacientes en Hamburgo. «Esto es medicina de alta tecnología, que no se puede
administrar en forma de píldora», explica Frank Buchholz, responsable del equipo
en Dresde.
Hasta ahora, la infección con el virus de inmunodeficiencia humana (VIH) era
considerada irreversible, dado que el retrovirus inserta su ADN en el genoma de
las células humanas. Pero la línea de investigación ha aprovechado por primera
vez las características de las enzimas naturales recombinasas, capaces de
reconocer una secuencia de bases de ADN y cortar y pegar exactamente sobre la
misma.
DOS SECUENCIAS IDÉNTICAS
Al parecer, el genoma del virus del sida tiene en ambos extremos dos secuencias
idénticas, perfectamente conocidas, que apenas sufren modificaciones aun en el
caso de mutación del VIH, y aquí es donde el equipo de Dresde empleó la llamada
tijera molecular. Hauber matiza que, en el proceso, «deben obtenerse células
madre de la sangre del paciente y limpiarlas luego de virus en laboratorio». Las
células así tratadas serían reintroducidas en el paciente y deberían regenerar
el sistema inmune. Es probable que así no pudiesen ser eliminados del organismo
todos los virus, pero la teoría contempla que se produjese un retroceso de la
carga viral tal que la infección resultase controlada.
Fuente: ABC Periódico Electrónico S.A, 2 de Julio de 2007