Inicio
Ya puedes DESCARGAR todos nuestros PROGRAMAS DE RADIO "EL ALEPH" en la Sección NOSOTROS-PROGRAMACIÓN--

NOTICIAS CIENTIFICAS


NOTICIAS DE ULTIMA HORA

--Nuevas Noticias Próximamente--

NOTICIAS EXTENDIDAS

Mayo 2007

TITULARES DE LAS NOTICIAS DEL MES :

 

 

Identifican la proteína que nos hace sentir frío

¿Cuál es la alternativa a los combustibles fósiles?

El Gran Telescopio de Canarias estará listo dentro de un año

El telescopio "Spitzer" de la NASA descubre nuevas galaxias enanas

Chip Power6 , el nuevo invento revolucionario de IBM

El futuro energético está en las papas

Crean un mapa del cuerpo humano tridimensional

Kioto pasa factura a los aviones

Nuevas imágenes de Cassini nos acercan a Titán

El dinosaurio nadador de La Rioja

Estados Unidos da Luz Verde a la primera píldora anticonceptiva  que elimina la menstruación

Estrellas naciendo en Orión vistas por el telescopio Spitzer

Gro Harlen Brundtland: Hay que pasar ya a la acción porque el cambio climático está fuera de control

Marte tuvo agua en abundancia

La UE da el primer paso para la creación de una Política Espacial Europea

Wikia, por el software libre

La próxima guerra será por el agua

La ONU asegura que "estamos a las puertas de una extinción masiva de especies"

Guerra entre Microsoft y Linux

Los polos podrían fundirse en mil años

Fertilizar los océanos para obtener beneficios

Dos nuevos barcos de investigación oceanográfica para España

Crean un cerebelo artificial que permite a los robots comportarse como humanos

Medio ambiente quiere convertir los zoos en centros de conservación

Más de la mitad de los españoles no usan internet

Estados Unidos vetará en el G-8 todo compromiso sobre el cambio climático y ahorro de energía

Cómo combatir el cambio climático según Antonio Ruiz de Elvira

SpeciesBase, nace una web para clasificar la vida

El Hubble permite descubrir la distribución de materia oscura alrededor de un cluster

Descubren una de las estrellas más vieja del universo

Avistada una bola de fuego en la península

Las rutas del inconsciente

La NASA se enfrenta con los problemas del espacia en  el fondo del mar

El planeta más caliente

Una supernova espectacular es descubierta por la NASA

La Universidad hebrea de Jerusalén anuncia el descubrimiento de la tumba de Herodes

Cinco grandes proyectos impulsan una nueva etapa en la genómica

Frenar el cambio climático es posible y más barato que renunciar a la acción

La huella de Tartessos conduce a Doñana

El gobierno de Canarias edita el libro historia de la ciencia

Toca ser hereje en la ciencia

A Coruña celebra el Día de la Ciencia

"Nemo" sabe como volver a casa

El rover Spirit encuentra evidencias de explosiones volcánicas del pasado

La energía nuclear centra el debate sobre el cambio climático

La nanotecnología se apresta a utilizar la luz que pasa por agujeros pequeños

Internet, los cohetes y la radio: los mejores inventos del hombre

COROT detecta su primer planeta 

 La NASA celebra el aniversario de sus satélites con fotos espectaculares

 

Archivo


-Identifican la proteína que nos hace sentir frío

Han conseguido identificar al responsable de que sintamos frío: es la proteína TRPM8, presente en las células del sistema nervioso y que se activa con las bajas temperaturas y al entrar en contacto con agentes químicos refrescantes como el mentol.

Este logro, que recoge en su edición de Internet la revista científica británica Nature, es resultado de una investigación que científicos de las Universidades de California y Yale y del Instituto Médico de Wisconsin, todos en EE.UU., llevaron a cabo con ratones.

Al estudiar el comportamiento de los roedores, los expertos vieron que aquellos que carecían de la proteína TRPM8, que se activa con temperaturas inferiores a los 26 grados centígrados, tenían problemas para sentir frío cuando el termómetro marcaba los 10 grados centígrados.

Esto, sin embargo, no sucedió con temperaturas extremas, circunstancia que, según los científicos, los ratones carentes del TRPM8 trataban de evitar a toda costa. "Nuestro estudio da muestras del papel esencial y predominante que la TRPM8 desempeña en las sensaciones térmicas en un amplio espectro de temperaturas", afirman los investigadores en su artículo.

Esto hace válida la hipótesis de que los canales TRP, encargados de controlar la entrada de calcio a la célula, "son los principales sensores de los estímulos térmicos en el sistema nervioso periférico", añaden. El 17% de las neuronas de los roedores dotados de esta proteína reaccionaron al frío o al mentol -alcohol refrescante-, mientras que las de aquellos carentes de la TRPM8 no ofrecieron respuesta alguna.

Esta diferencia en la respuesta a los cambios de temperatura es mucho menor en el caso del calor: en torno a un 40 por ciento de las neuronas de ambos tipos de roedores reaccionaron a un ascenso del mercurio del termómetro.

Fuente: EFE, 31 de Mayo de 2007

 

-¿Cuál es la alternativa a los combustibles fósiles?

Muchos son los que consideran que los biocombustibles pueden ser la panacea para nuestras carencias energéticas y las crisis de pobreza mundial. Sin embargo, un nuevo informe de las Naciones Unidas sugiere que, sin una buena planificación, estos nuevos recursos energéticos pueden llegar a causar tantos problemas como los que solucionan.

Las tecnologías bioenergéticas modernas que producen calor, electricidad y combustibles para el transporte están avanzando rápidamente. Recientemente han despertado gran interés los biocombustibles líquidos, concretamente el etanol y el biodiésel. Los últimos cinco años, la producción mundial de estos biocombustibles se ha doblado, y probablemente lo volverá a hacer en los próximos cuatro años.

Muchos países de todo el mundo, desde Argentina hasta Malasia, pasando por la India o Zambia, han promulgado nuevas políticas a favor de los biocombustibles durante los últimos años. La política energética de la UE dicta que antes de 2020 al menos un 10% de todos los combustibles deberán ser biocombustibles.

No resulta sorprendente que el interés mundial por la bioenergía haya crecido rápidamente durante estos últimos años, afirma Mats Karlsson, Presidente del programa ONU-Energía, que publicó el informe "
Sustainable Bioenergy: A Framework for Decision Makers". "¿Qué puede ser más atrayente que la energía producida en casa, basada esencialmente en la fotosíntesis basada en la luz y el agua y que ofrece nuevos empleos y oportunidades de desarrollo?".

En efecto, el desarrollo de las industrias bioenergéticas, incluidos los biocombustibles, podría ofrecer un suministro de energía limpia a millones de personas que actualmente carecen de tal suministro, según sugiere este informe. Por ejemplo, el hecho de cocinar con fuentes tradicionales de bioenergía como la madera ha causado muchos problemas de seguridad y de salud a muchas personas que viven en el mundo en vías de desarrollo, especialmente a las mujeres, quienes se han visto encerradas en un ciclo de pobreza. El acceso a fuentes energéticas más modernas podría ayudar a reducir estos problemas y sacar a muchas poblaciones de la pobreza.

Las nuevas industrias bioenergéticas también podrían ofrecer un potencial importante de creación de empleo y generar ingresos, especialmente en zonas rurales de algunas de las regiones más pobres del mundo, dado que la gran mayoría del empleo relacionado con la bioenergía se produce en la agricultura, el transporte y el procesamiento.

Sin embargo, este informe alerta de que esta prosperidad acarrea otros problemas. En primer lugar, la demanda de terreno para cultivos bioenergéticos podría ejercer presión sobre otros usos, principalmente en los cultivos de alimentos, lo que probablemente comportaría un aumento de los precios de alimentos básicos como los cereales. De forma similar, dado que la producción de materias primas para biocombustibles también requiere un importante abastecimiento de agua, esto puede disminuir la disponibilidad de ésta para el uso doméstico, lo que amenazaría la salud y la seguridad de gran parte de la población.

En segundo lugar, dado que los biocombustibles se producen y se tratan a gran escala, los autores temen que una transición hacia estos combustibles desplace fuera de sus tierras a los agricultores más pobres del mundo y agudice su pobreza.

El informe también señala las repercusiones que la producción de biocombustibles podría tener sobre el medio ambiente. Dependiendo de la elección de materias primas y de lo que éstas sustituyeran, unos buenos métodos agrícolas, como los cultivos intercalados y la rotación de cultivos, podrían tener repercusiones neutras e incluso positivas para el medio ambiente circundante, se afirma en este documento.

Sin embargo, los cultivos que tienen finalidades energéticas generalmente suelen presentarse en forma de monocultivos de gran escala, cosa que, según se alerta en el estudio, podría llevar a una pérdida importante de biodiversidad, una erosión del suelo y la lixiviación de nutrientes. Se destacan los casos de la India, Sri Lanka y Tailandia, donde los cultivos de biocombustibles ya han llevado a una deforestación a gran escala.

Incluso cultivos más variados y sostenibles que tengan finalidades energéticas podrían perjudicar el medio ambiente si sustituyen las selvas y praderas, se señala en este informe. Otros impactos potenciales son la eutrofización del agua, la acidificación de los suelos y las aguas superficiales e incluso la disminución del ozono.

Este informe concluye sugiriendo un marco de trabajo para que las autoridades políticas fomenten la producción y el uso sostenibles de biocombustibles y otras fuentes de bioenergía para generar los máximos beneficios para los pobres y para el medio ambiente. En el ámbito de la investigación y el desarrollo, este documento hace un llamamiento a los gobiernos para que financien actividades que fomenten el bien público, incluidas actividades de investigación fundamental sin aplicaciones comerciales inmediatas, y la identificación de las necesidades de bioenergía y de ámbitos para la investigación de políticas.
 

La energía nuclear es la solución

James Lovelock, considerado como un gurú de los verdes, asegura que la energía nuclear es la única manera de detener el calentamiento global y que ya no hay tiempo para desarrollar otras fuentes renovables.

Lovelock es el autor de la Hipótesis Gaia, que desde la década de 1970 es aceptada por la comunidad científica a la hora de entender y explicar los fenómenos climáticos de nuestro planeta.

Según esa hipótesis, la Tierra funciona como un organismo que se regula a sí mismo, como si todos los organismos que en ella viven fueran responsables de que sea apta para la vida.

Este cientifico es uno de los pioneros en la concienciación universal sobre el calentamiento global, opuesto a los reactores nucleares como fuente de energía para el planeta.

PASADO COMPROMETIDO

Lovelock se contaba entre los científicos que advirtió en 1989 a la primera ministra Margaret Thatcher sobre el efecto invernadero.

El diario británico
The Independent recogía unas declaraciones de Lovelack en las que el experto ecologista aseguraba que ahora cree que los recientes fenómenos climáticos muestran que el planeta se está calentando a una velocidad mucho mayor de la que predijeron los científicos del Panel Intergubernamental sobre Cambio Climático, de las Naciones Unidas, en 2001. Sobre la base de esos datos, Lovelack sostiene que no hay tiempo para reconvertir las fuentes de energía tradicionales -generadoras de grandes emisiones de dióxido de carbono y que producen el efecto invernadero- en otras como la eólica, la solar o la mareomotriz.

Lovelack sostiene que será una extensión de las centrales nucleares la que permita evitar el rosario de catástrofes climáticas que pueden producirse por el calentamiento global. En la línea del último éxito de Hollywood en cine catastrófico -El día de mañana-, Lovelack cita el alarmante crecimiento de los mares, los desastres climáticos, las inundaciones y la desaparición de grandes áreas agrícolas. El científico asegura estar preocupado principalmente por dos fenómenos recientes: el derretimiento de los hielos en Groenlandia, que eleva los niveles de los mares, y la ola de calor que sacudió a Europa Central el año pasado. El experto añade que los temores sobre la seguridad de la energía nuclear "son irracionales y exagerados" y que "los verdes deben dejarlos de lado por el bien del planeta".

Algunos grupos ecologistas ya han respondido a Lovelack: Greenpeace coincide en la preocupación de Lovelock y en sus exigencias de respuestas drásticas frente a los cambios climáticos. Sin embargo, Stephen Tindale, director ejecutivo de
Greenpeace en Inglaterra, asegura que el gurú "está equivocado si piensa que la energía nuclear es parte de la solución. La energía nuclear crea enormes problemas; no sabemos qué hacer con los desechos, ni con las emisiones radiactivas, además de los riesgos de accidentes y de ataques terroristas".

Fuente: Cordis, Expansión, 30 de Mayo de 2007

 

-El Gran Telescopio de Canarias estará listo dentro de un año

Para el próximo 13 de julio está previsto que el Gran Telescopio de Canarias (GTC), una de las principales instalaciones científicas españolas, afronte su prueba de fuego, la denominada primera luz, en la que la máquina astronómica capta por primera vez la luz de los astros en su espejo principal, o en parte del mismo en este caso.

Seguramente se apuntará a Polaris, estrella que, por su posición en el cielo, exige poco movimiento del telescopio para seguirla, explicó la semana pasada José Miguel Rodríguez Espinosa, director científico del GTC, durante el congreso Astrid de instrumentación científica celebrado en Madrid. Pero también se tomarán imágenes de otros objetivos celestes que están aún por decidir, comentó. Tras 10 años de trabajos, incluidos cuatro de retraso sobre el plan inicialmente previsto, el GTC debe demostrar ahora que funciona. Su operación científica rutinaria tendrá que esperar otro año más.

Con una decena de grandes telescopios del mismo rango -de espejo de ocho a 10 metros de diámetro- ya funcionando en el mundo, el observatorio español tiene ahora el doble reto de desempeñar un papel clave para el avance de la astronomía española y de ser competitivo en el marco científico internacional.

Tras la primera luz, el plan de los responsables del GTC, impulsado por el
Instituto de Astrofísica de Canarias, es optimizar el telescopio e ir incorporando y probando los instrumentos de observación previstos, algunos de los cuales están listos y otros en diferentes fases de su desarrollo.

La primera luz se hará con la caja de guiado del telescopio y las cámaras se instalarán después, aunque la cámara espectrógrafo Elmer, planeada como instrumento de reserva, está ya lista. El instrumento Osiris tiene que pasar las últimas pruebas y se instalará en el telescopio dentro de seis meses, y el multiespectrógrafo Emir está previsto para 2009. Estos tres equipos se han desarrollado en España, y a ellos se añade la cámara CanariCam, desarrollada y construida en la
Universidad de Florida (EE.UU.), que está terminada.

El GTC, cuyo coste es de 104 millones de euros (sin apenas encarecimiento sobre lo previsto), está financiado al 90% por España, con un 70% a cargo de la Administración Central y un 30% de la Comunidad Autónoma de Canarias, explica Pedro Álvarez, director del telescopio. El 10% restante lo aportan la
Universidad Autónoma de México y la Universidad de Florida.

Sin embargo, cuando en la década de los años noventa el entonces Consejo Asesor de Grandes Instalaciones dio luz verde al proyecto, especificó que debía tener una implicación de socios extranjeros abultada. "No pudo ser, las previsiones iniciales fracasaron y sólo se consiguió la participación de México y Florida", explica Miguel Angel Quintanilla, secretario de Estado de Universidades e Investigación. "Pero ahora hay gran participación internacional en el GTC gracias a la entrada de España en el
Observatorio Europeo Austral (ESO) y, de hecho, parte de nuestro pago en especies de la cuota de ingreso en dicha organización la hacemos en horas de utilización del GTC para ESO".

El espejo del telescopio estará formado por 36 segmentos exagonales que compondrán una superficie de 10,4 metros de diámetro. Esta opción, frente a la inicialmente considerada de espejo de una sola pieza, facilita enormemente su transporte hasta el observatorio del Roque de los Muchachos (La Palma). Pero con el tiempo la idea ha resultado además ser una gran ventaja tecnológica, porque la siguiente generación de telescopios gigantes, como el ELT (de 40 metros) del ESO y el futuro James Webb espacial, tendrán espejos segmentados. Por esto adquiere valor añadido notable la experiencia del telescopio español, que heredó la idea del espejo principal múltiple de los dos Keck estadounidenses, el primero de ellos estrenado en 1990.

En la otra cara de la moneda, los espejos han supuesto no pocos quebraderos de cabeza para los responsables del GTC, dadas las dificultades que ha tenido la empresa francesa que los fabrica. Los problemas de pulido de los bordes están ya solucionados, asegura Rodríguez Espinosa.

Los espejos han tenido bastante que ver en el retraso acumulado del proyecto, que "pecó de excesivo optimismo inicial, aunque no podemos estar descontentos en comparación con otros proyectos similares", dice Quintanilla. Pero no han sido el único escollo.

Álvarez argumenta que el GTC ha afrontado los problemas normales de cualquier proyecto de esta envergadura. Parte de los defectos de fabricación de la cúpula se han subsanado y otros "ya sabemos como arreglarlos y lo haremos este verano, pero optamos por aplazar las modificaciones necesarias para que no afectaran al avance de la construcción y montaje del telescopio". También algunas piezas estructurales dieron problemas. Ahora es el software de control del telescopio el que preocupa, con el agravante de la escasez de personal para abordar esta tarea que reconocen responsables del proyecto. En el proyecto trabajan 58 personas.

Con talante de mirar hacia adelante y de confiar en que las fases más problemáticas han quedado atrás, muchos astrónomos españoles esperan la hora de empezar a usar el GTC. "Es un elemento crítico en el desarrollo de la astronomía española, hay científicos que ya están pensando en las observaciones que harán", comenta Jordi Torras, gestor del Programa Nacional de Astronomía.

Quintanilla señala: "Ahora que se está terminando la puesta en marcha del telescopio, esperamos que sea lo más provechoso posible; vamos a preparar los protocolos para optimizar su utilización con los criterios de calidad científica que deben tener todas las grandes instalaciones".

El GTC cuenta con explotar con éxito lo que se consideran sus especialidades, frente a los telescopios hermanos o competidores que ya observan el cielo tanto desde el hemisferio Sur como desde el Norte. "Con el instrumento Osiris podrá destacar en el estudio de las galaxias activas, el universo violento", adelanta Rodríguez Espinosa. "CanariCam es idóneo para estudiar discos protoplanetarios fríos y Emir para observar galaxias en las que la formación estelar es intensa", añade.

LOS ASTRÓNOMOS ESPAÑOLES PIDEN APOYO PARA LA INSTRUMENTACIÓN

La astronomía de primera línea internacional no se puede limitar a estudiar el cielo con los mejores telescopios, sino que debe desarrollar a la vez instrumentación avanzada para los mismos y poder abordar así los retos científicos más candentes. La astronomía española, aunque ha alcanzado un buen nivel, tiene todavía pendiente el salto hacia esa faceta instrumental para seguir avanzando. En ambos puntos se mostraron de acuerdo los participantes en la sesión de debate sobre el tema que se celebró la semana pasada en el congreso 'Desarrollo de Instrumentación Astronómica: futuros retos científicos y tecnológicos', organizado por la red científica
Astrid de Madrid, con participación de más de 150 expertos.

El reciente ingreso de España en el Observatorio Europeo Austral (ESO) parece ser el catalizador que da carácter de urgencia a este reto de la instrumentación astronómica si se quieren aprovechar plenamente las oportunidades que esa organización brinda en cuanto a alta tecnología y experiencia en sus desarrollos e instalaciones.

"Hacer un instrumento para un telescopio grande es un trabajo de muchos años y exige mucha dedicación", señaló Carlos Eiroa, coordinador del debate. "¿Estamos dispuestos, al propia comunidad científica, a crear el clima necesario para que los jóvenes investigadores se involucren en esta vertiente de la astronomía? ¿Estamos dispuestos a presionar a las instituciones para que se apoye y se promocione?", planteó.

Manuel Serrano, del
Centro para el Desarrollo Tecnológico e Industrial (CDTI, del Ministerio de Industria) recordó que aunque se han hecho progresos en los últimos años, "el sector no está aún estructurado. En el Gran Telescopio de Canarias se están dando pasos importantes", y añadió: "El desafío ahora es ESO".

Varios expertos apuntaron la necesidad de incorporar personal técnico en las instituciones científicas y mejorar el trabajo conjunto con las empresas tecnológicas. Pese a que diferentes grupos españoles participan ya con éxito en la creación de instrumentos internacionales, sobre todo de misiones de la
Agencia Europea del Espacio (ESA) y de la astronomía solar, es un buen indicador del camino que aún queda por recorrer el hecho de que no haya habido ni un investigador principal español en misiones o proyectos internacionales.

"Astrid es un programa de coordinación de actividades de I+D, del programa Regional de Ciencia y Tecnología de la Comunidad de Madrid, y se centra en el desarrollo de instrumentos astronómicos, con 11 grupos científicos participantes de universidades, instituciones y empresas", explicó Jesús Gallego, coordinador de Astrid.
 

Fuente: El País, 30 de Mayo de 2007

 

 

-El telescopio "Spitzer" de la NASA descubre nuevas galaxias enanas

Las observaciones del telescopio espacial 'Spitzer', de la NASA, y el 'William Herschel', situado en la isla canaria de La Palma, han permitido calcular la existencia de miles de galaxias enanas hasta ahora desconocidas a algo más de 350 millones de años luz, una distancia casi inconcebible para nuestra mente pero relativamente cercana cuando se trata de estudiar esta clase de objetos.

Nuevas galaxias detectadas por Spitzer

Las galaxias enanas tienen un gran interés astronómico porque los científicos creen que fueron las primeras en surgir cuando el Universo aún era un recién nacido, de modo que las galaxias más grandes, como nuestra propia Vía Láctea, se formaron después como consecuencia de la acumulación de las más pequeñas.

Las miles de galaxias enanas recién descubiertas se encuentran en el llamado cúmulo de Coma, una densa estructura de forma esférica, con una longitud de 20 millones de años luz (la Vía Láctea mide unos 100.000 años luz, lo que significa que la radiación tarda ese tiempo en recorrerla). Los expertos ya sospechaban que dicho cúmulo, situado en la constelación de Coma Berenices, estaba formado por más de 1.000 galaxias, pero los nuevos datos recogidos por la cámara de infrarrojos del Spitzer han cuadruplicado esta cifra, según los sorprendentes resultados que presentó ayer la investigadora estadounidense Leigh Jenkins, en una conferencia de la Sociedad Americana de Astronomía en Honolulu, Hawai.

El 'Spitzer', que lleva casi cuatro años estudiando la energía de infrarrojos (es decir, calor) proveniente de los confines del cosmos, tomó una serie de 288 instantáneas del cúmulo de Coma.

Jenkins y su colega Ann Horschemeier, ambas pertenecientes al Centro de Vuelo Goddard de la NASA, construyeron un mosaico con estas imágenes y descubrieron cerca de 30.000 objetos, muchos de los cuales parecían galaxias enanas. El cosmólogo iraní Bahram Mobasher, del Instituto Científico del Telescopio Espacial, en Baltimore, partió de estos datos y empleó el observatorio 'William Herschel', situado en el punto más alto de isla de La Palma, para medir la distancia entre estas galaxias y calcular cuántas formaban parte del mismo cúmulo.

Cómputo final

El resultado fue 1.200, aunque hay que tener en cuenta que sólo se estudió una fracción del cúmulo, por lo que el cómputo final asciende a un mínimo de 4.000 galaxias. Aun así, los investigadores ya están usando telescopios aún más potentes, como los Keck de Hawai, en busca de galaxias todavía más pequeñas que hayan pasado desapercibidas. "Estamos liquidando los anteriores estudios de cúmulos cercanos", explica Hornschemeier. "Gracias al 'Spitzer', podemos observar con profundidad cúmulos cercanos como el Coma en un corto periodo de tiempo".

Las galaxias que forman el cúmulo Coma tienen unos 15.000 millones de años de antigüedad, y forman parte de una constelación muy poco vistosa a simple vista -Coma Berenices- situada al oeste de Leo y al norte de Virgo, ambas mucho más populares.

La historia conocida de Coma Berenices, también llamanda Cabellera Berenices (coma, en latín, significa cabellera), se remonta al siglo III antes de Cristo. Mientras el faraón egipcio Ptolomeo III, apodado el Bienhechor, se encontraba en Siria combatiendo a sus enemigos, su esposa Berenices realizó un solemne juramento ante el altar de Afrodita: si su marido volvía sano y salvo, se cortaría sus largos cabellos y los entregaría a la diosa como ofrenda. El faraón, en efecto, regresó, y Berenices no tardaría en cumplir su promesa, pero se dice que un sacerdote egipcio, celoso de que una divinidad griega recibiera semejante honor, robó la melena del templo.

Berenices quedó desconsolada, pero pronto acudiría en su ayuda el astrónomo Conón de Samos, quien le aseguró que acababa de aparecer en el firmamento una nueva constelación, y que ésta era en realidad su antigua cabellera, recuperada y llevada a los cielos por Afrodita. Hoy en día, el inmenso cúmulo de galaxias continúa sorprendiendo a los científicos, pero aún debe su nombre a esta leyenda.

Fuente: El Mundo, 29 de Mayo de 2007

 

 

-Chip Power6 , el nuevo invento revolucionario de IBM

El sector de los chips vuelve a agitarse. A principios de esta semana, IBM presentó en Londres su nuevo Power6, un microchip para servidores que opera a una velocidad de 4,7 gigahercios (GHz), el doble que su antecesor, el Power5. Eso sí, consumiendo la misma energía. Como medida de comparación, algunos analistas recordaban que el Itanium 2 de Intel tiene una velocidad de 1,66 GHz.
 

Con este movimiento, el gigante azul quiere revolucionar el mercado. El microchip, que se comercializará en junio (para la línea de servidores Unix incluida), tiene un acceso de ancho de banda de 300 gigas por segundo.

Y mientras IBM trata de fortalecerse en el segmento de chips para servidores, Intel y
AMD mantienen su disputa. Esta última está ultimando el lanzamiento de los chips de cuatro núcleos de la denominada Serie Barcelona. La firma está en disposición de empezar a producir en masa sus nuevos procesadores, que se introducirían en los servidores durante el tercer trimestre de este año.

Con la llegada de estos nuevos equipos, AMD aspira a volver a tener beneficios y a recuperarse en bolsa. De momento, la compañía se ha visto favorecida por la mejora en su recomendación por parte de los analistas de Think Equity Partners, que han justificado su decisión en los pedidos recibidos por AMD de parte de Dell.

Mientras, Intel ya prepara su respuesta industrial. En los próximos meses, la multinacional lanzará los procesadores Penryn, presentados ya en el Intel Developer Forum de Pekín. Una de las características que la empresa ha querido destacar es la eliminación definitiva del plomo.

Además, Intel anunció esta semana una alianza con la europea ST Microelectronics en el ámbito de los chips de memoria flash, usados sobre todo en los teléfonos móviles, para integrar en una sociedad los activos de ambas en esta área. En la nueva empresa, que tendría unos ingresos anuales de 3.600 millones de dólares, va a entrar el grupo de capital privado Francisco Partners, que tomará un 6,3% del capital (a través de la compra de acciones preferentes), valorado en 150 millones.

 

 

 

-El futuro energético está en las papas

Aunque la tecnología del hidrógeno es, teóricamente, limpia e inagotable, aún pesa un importante obstáculo sobre esta alternativa que -según el Departamento de Energía de EE.UU.- debería haberse implantado ampliamente en vehículos a motor para el año 2020.

El impedimento está en el propio combustible: el hidrógeno libre no existe como recurso, y debe obtenerse por descomposición de fuentes tales como gas natural, agua, biomasa -mediante su fermentación a etanol- o hidrocarburos, siempre a través de un proceso energéticamente costoso. Otro inconveniente es la logística: el almacenamiento, transporte y manipulación. Para empeorar el problema, expertos del
Instituto Tecnológico de California advirtieron hace cuatro años que, en una hipotética «economía del hidrógeno», los escapes de este gas podrían «comerse» hasta un 10 por ciento del ozono de la atmósfera.

¿PATATA NORMAL O SUPER?

El procedimiento detallado por Zhang y su equipo en la revista digital «
Public Library of Science» usa como materia prima el almidón, un compuesto vegetal de reserva abundante en cultivos como la patata o los cereales. Según el científico, cualquier otro polisacárido vegetal, como la celulosa, sería una fuente válida. El secreto reside en el uso de una vía biológica sintética, reuniendo trece enzimas que no se encuentran juntas en la naturaleza.

Añadiendo el «cóctel» a una mezcla de almidón y agua, y mediante una reacción de alta eficiencia a baja temperatura y a presión atmosférica, los reactivos se descomponen en dióxido de carbono e hidrógeno. El primero es recogido en una membrana, y el segundo alimenta la pila que genera electricidad para mover, por ejemplo, el motor de un coche.

«Ecológico, eficiente y seguro: hemos matado tres pájaros de un tiro», declaró Zhang. Y todo con un «combustible» que podría venderse en cualquier supermercado.

Fuente: ABC, 29 de Mayo de 2007

 


 

-Crean un mapa del cuerpo humano tridimensional

Investigadores de una universidad canadiense han creado el primer modelo virtual en cuatro dimensiones del cuerpo humano, un dispositivo que no sólo permitirá comprender mejor la evolución de ciertas enfermedades, sino incluso visualizar cómo tienen lugar en tiempo real.
 

La imagen, creada por ordenador, permite ver un cuerpo humano en el que los órganos internos y el sistema circulatorio aparecen coloreados en distintos tonos. La imagen se proyecta como una especie de holograma en una sala oscura donde el modelo virtual parece flotar. Precisamente el proyecto ha sido bautizado como 'CAVE man', un juego de palabras con el 'hombre de las cavernas' que hace alusión a la oscuridad de la sala que lo acoge.

La iniciativa, presentada esta semana en la universidad canadiense de Calgary, comprende más de 3.000 elementos del cuerpo humano. Tal y como explican sus creadores, el modelo puede ser manipulado a voluntad, como si de un videojuego se tratase, para poder observarlo desde diversos ángulos o enfocar ciertos órganos al detalle.

"La imagen está casi viva", se felicita Andrei Turinsky, especialista del departamento de Bioquímica y Biología Molecular en la
Universidad de Calgary. "Esto nos permite disponer por primera vez de un modelo completo del cuerpo humano, desde el punto de vista anatómico, químico y de los tipos de tejidos que lo componen", ha señalado Turinsky, uno de los padres del diseño.

Empleando técnicas de programación informática, los creadores han llegado a la creación esta imagen que puede examinarse con unas gafas especiales. El resultado es una especie de atlas completo del cuerpo humano en cuatro dimensiones (las tres espaciales y el tiempo) que permite observar la evolución de ciertas enfermedades o, por ejemplo, estudiar la reacción del organismo a los medicamentos.

Fuente: El Mundo, 29 de Mayo de 2007

 

 

-Kioto pasa factura a los aviones

La UE prevé incluir a las aerolíneas en el mercado de emisión de dióxido de carbono en 2011, lo que conllevará un gasto medio anual cercano a los 50 millones de euros entre 2011 y 2017. La lucha contra el cambio climático que, supuestamente, provocará en el futuro todo tipo de catástrofes naturales, tal y como se esfuerzan en advertir los ecologistas, tiene un precio.
 

El plan de la Comisión Europea (CE) para incluir, en el año 2011, las emisiones de dióxido de carbono (CO2) que genera la aviación continental en el mercado de derechos del Protocolo de Kioto podría suponer, como mínimo, un coste cercano a los 350 millones de euros para la economía nacional de 2011 a 2017. Además, según la CE, el precio de los billetes podría incrementarse en 40 euros, en caso de que las aerolíneas estén obligadas a comprar derechos de emisión para poder volar.

Según los últimos datos publicados por el
Ministerio de Medio Ambiente, el tráfico aéreo español produjo 4,13 millones de toneladas de CO2 en 1990 -fecha base empleada por Kioto para limitar la emisión de gases de efecto invernadero (GEI) de cara al futuro-. En 2005 (última cifra disponible), la aviación nacional emitió 6,9 millones de toneladas de CO2 (el 1,57% del volumen total de GEI generados por España en ese año)-, lo que representa un incremento del 66,9% (un 3,5% anual), en quince años.

El próximo octubre, el Parlamento Europeo se expresará sobre la inclusión del transporte aéreo en el mercado de emisiones a partir de 2011, una fecha que el Gobierno español espera que se retrase hasta 2013. A partir de entonces, las aerolíneas europeas estarían obligadas a entrar en el mercado de CO2, si sus emisiones superan el volumen alcanzado en 2005 (año base para el cálculo en el sector aéreo). Así, para 2011, suponiendo que el ritmo de crecimiento de las emisiones del sector se mantuviera constante, España superaría en 1,58 millones de toneladas (un 22,9%) el límite de Kioto.

Dicho volumen alcanzaría un precio aproximado de 31,6 millones de euros en 2011, tomando como referencia el coste medio de 20 euros por tonelada de CO2. "El precio más probable que está barajando el mercado en cuanto a la venta de derechos de emisión de cara al futuro", explica el director de
CO2 Spain, Larry Philp.

COSTE

Esta tendencia al alza supondría un coste total acumulado de 353 millones de euros para la economía nacional desde 2011 hasta 2017 (una de las fechas que se barajan para aplicar la tercera fase de Kioto), unos 50 millones al año. Esta factura se sumaría a los cerca de 3.000 millones de euros que calcula el Gobierno para cumplir el segundo Plan Nacional de Asignaciones de 2008 a 2012, aprobado recientemente por la UE, y que afecta a cerca de mil empresas del sector industrial y energético.

Sin embargo, la cifra podría resultar, incluso, muy superior a estos cálculos iniciales, teniendo en cuenta que los aeropuertos españoles atendieron 750.000 vuelos en los cuatro primeros meses del presente año (un 8,3% más que en el mismo período de 2006), y que el tráfico aéreo internacional crecerá de media un 3,5% hasta 2020, según
Boeing. Mientras, la CE no descarta recortar aún más el volumen de emisiones permitidas a los Estados miembro.

Por ello, las aerolíneas españolas comienzan a preparase para el futuro. Spanair prevé un aumento aproximado de sus emisiones de CO2 cercano al 7,3% de aquí a 2011, que espera compensar con la introducción de "avances tecnológicos en los aviones, el uso de combustibles alternativos y la mejora de la gestión del tráfico aéreo y demás instrumentos económicos como comercio de emisiones y tasas reguladoras, etcétera". Todavía queda saber cuándo se verá afectado el tráfico por carretera, otro de los sectores exentos de Kioto, que, en España, generó 95 millones de toneladas de CO2 en 2005 (más del 20% del total).

BRUSELAS BUSCA LA MANERA DE COBRAR EL CO2

La Unión Europea trabaja en la inclusión del transporte aéreo en el comercio desde hace casi cinco años. A lo largo de este periodo, los países han presentado doce sistemas distintos para tratar de limitar los gases que emiten los aviones en la atmósfera. No obstante, actualmente, se barajan sólo dos posibilidades: la ecotasa o la entrada en el comercio de emisiones. La primera iniciativa implica gravar los billetes que adquieren los viajeros, con un impuesto verde por la contaminación del vuelo.

Otra posibilidad, que según el director de CO2 Spain, Larry Philp, supondría un sistema más práctico y sencillo, hubiera consistido en gravar con más impuestos el consumo de combustible de los aparatos, en contraposición "al complejo sistema de derechos de emisión". Sin embargo, todo apunta a que será esta última propuesta la que salga adelante. Según la Comisión Europea, "los operadores aéreos podrán comprar créditos de emisión de otros sectores dentro de la UE para cubrir el límite de emisiones".

Esto afectará a todos los vuelos que se realicen entre países europeos a partir de 2011 y, desde 2012, a todos aquéllos con destino o salida en cualquier país de la UE. La cifra exacta de derechos de emisión para el sector aéreo se fijará en relación a la media de emisiones de la industria entre 2004 y 2006, si bien, "un porcentaje fijo quedará exento de pago". La asignación de derechos para los dos primeros años (2011 y 2012), vendrá determinada por lo que hayan establecido los miembros de cada Estado, que estarán representados en un único órgano comunitario.

Además, los operadores aéreos deberán llevar un control de sus emisiones, cuyo informe será remitido a la autoridad competente cada 31 de marzo. No obstante, hasta el próximo octubre no se sabrá la propuesta final.
 

Fuente: Expansión 28 de Mayo de 2007

 

-Nuevas imágenes de Cassini nos acercan a Titán

Titán, la luna mayor de Saturno, tiene mares, montañas, islas y bahías y su topografía es similar a la de la Tierra, según revelan fotografías transmitidas por la nave espacial 'Cassini' y publicadas por la NASA.

Sin embargo, los mares de Titán no son azules ni son de agua, sino que son negros intensos debido a que sus componentes principales son metano y etano, señaló la agencia estadounidense en un boletín.

Imagen de Cassini del pasado 12 de Mayo donde se muestra una línea de costa y numerosas islas en un gran mar
 


Según los científicos de la NASA, la ausencia de brillo en algunas regiones mostradas por las fotografías sugiere que la profundidad del líquido "marino" sería de varios metros al menos.

Por otra parte, el contorno de las islas sigue la misma dirección de las penínsulas, lo que indicaría que han sido formadas por una inundación.

Las imágenes fueron captadas por el radar de 'Cassini' el pasado 12 de mayo cuando la nave realizaba su aproximación número 31 a Titán.

La misión de 'Cassini' es un proyecto conjunto de la NASA, la
Agencia Espacial Europea y la Agencia Espacial de Italia.

La sonda inició su misión el 15 de octubre de 1997 y entró en la órbita de Saturno en julio de 2004.

En enero de 2005 se desprendió de la sonda 'Huygens', que descendió sobre Titán y de inmediato comenzó a transmitir información sobre sus condiciones ambientales.

Titán no sólo es la luna más grande de Saturno sino también la segunda más grande del sistema solar, sólo comparable a Ganímedes, uno de los 16 satélites de Júpiter.

Pese a estar clasificado en la misma categoría que, por ejemplo, la Luna, Titán es más grande que planetas como Mercurio o Plutón.

La temperatura de la superficie de Titán parece ser de unos -178 °C. Tiene una atmósfera más densa que las de Mercurio, la Tierra, Marte y Plutón, y la presión atmosférica es de unos 1.6 bares, un 60% mayor que la de la Tierra.

Fuente: EFE, NASA, 28 de Mayo de 2007

 

 

-El dinosaurio nadador de La Rioja

Hubo dinosaurios que volaban, pero ahora también sabemos que eran capaces de nadar con soltura. Así lo demuestran las huellas halladas en La Rioja, primera evidencia científica de que aquellos grandes seres del Cretácico flotaban sobre las aguas.

El dinosaurio nadador podía ser así

El hallazgo de unos arañazos fosilizados en el yacimiento de la Virgen del Campo, en el municipio riojano de Enciso, fueron la pista que llevó al paleontólogo español Rubén Ezcarra, de la Fundación Patrimonio Paleontológico de La Rioja, y al francés Loic Costeur, de la Universidad de Nantes (Francia) a la confirmación de algo que ya se sospechaba, pero que no había podido demostrarse con certeza.

El equipo encontró 12 huellas consecutivas del mismo ejemplar en un rastro de unos 14 metros. Se trataba, según explican en la prestigiosa revista Geology, de la Sociedad Americana de Geología, de un dinosaurio terápodo no volador que iba flotando, dado que las huellas se corresponden con la señal que dejaron sus uñas al rozar el fondo de la laguna en cuyos alrededores vivía.

El rastro revelador lo forman seis pares asimétricos de arañazos de un promedio de 50 centímetros de longitud por 15 de ancho. El espacio entre ellos sugiere que el dinosaurio daba los pasos a un intervalo de entre 2,43 y 2,71 metros y a una profundidad de unos 3,2 metros dentro del agua, como indican los sedimentos.

Fuente: El Mundo, 25 de Mayo de 2007

 

 

-Estados Unidos da Luz Verde a la primera píldora anticonceptiva  que elimina la menstruación

La Agencia Federal del Medicamento (FDA) ha aprobado la venta en las farmacias de los Estados Unidos de la primera píldora anticonceptiva que suprime de forma indefinida el ciclo menstrual de las mujeres. El producto, que se comercializará con la marca Lybrel, utiliza una combinación en bajas dosis de las hormonas sintéticas utilizadas por otros anticonceptivos orales. Pero con la peculiaridad de que los envases de 28 píldoras para un mes no incluirán los múltiples placebos que normalmente permiten el ciclo menstrual.

El fármaco, desarrollado por la compañía Wyeth Pharmaceuticals y que se espera comercializar a partir del mes de julio con receta, es presentado como ideal para aquellas mujeres que sufren de excesivas molestias y complicaciones durante sus periodos, pero también para las interesadas en eliminar de sus vidas esta parte incómoda de la biología reproductiva. Según ha recalcado Amy Marren, portavoz de los laboratorios fabricantes, «hay muchas mujeres que consideran esto como una gran opción».

A tenor de las investigaciones facilitadas a la FDA, durante dos pruebas clínicas realizadas con 2.400 voluntarias durante un año, este producto farmacéutico ha demostrado ser tan efectivo a la hora de evitar embarazos como otras píldoras anticonceptivas estándares. Logrando suprimir completamente la menstruación durante el primer año de consumo, aunque con el desagradable efecto secundario de hemorragias y pérdidas de sangre esporádicas.

Grupos de activistas a favor de los llamados derechos reproductivos han dado la bienvenida al lanzamiento de Lybrel. Según ha insistido al
Washington Post Vanesa Cullins, de la Federación de Paternidad Planificada de Estados Unidos, «las necesidades de control de natalidad de cada mujer son diferentes y los mejores métodos son aquellos que encajan dentro del estilo de vida y las necesidades de cada mujer».

OTRAS PÍLDORAS

Durante los últimos años, la FDA ya ha venido aprobando otras píldoras anticonceptivas que reducen los días de menstruación, o incluso limitan el número de periodos de una mujer a cuatro veces por año. En el caso de Lybrel, como las mujeres que utilicen estas píldoras pueden desconocer si están embarazadas, la FDA insiste en realizar los correspondientes análisis para descartar o confirmar tal posibilidad.

Con todo, la aprobación de Lybrel -todavía sin precio fijado de venta al público- no ha dejado de plantear su corresponde dosis de reproches y críticas. Empezando por dudas sobre la existencia de suficientes estudios sobre su seguridad y sobre la sabiduría de suprimir indefinidamente el ciclo menstrual de las mujeres.

A juicio de algunos especialistas médicos, en la actualidad no se conoce por completo la relevancia de estos ciclos como para aventurar que su eliminación no tendrá consecuencias negativas en el futuro.

NATURALEZA CONDICIONADA

Aunque según ha enfatizado Daniel Shames, subdirector del centro de evaluación e investigación de fármacos de la FDA, «los riesgos de usar Lybrel son similares a otros contraceptivos orales, no sospechamos que vayan a existir sorpresas a un largo plazo de este producto». En este sentido, se ha recordado que tradicionalmente las mujeres no han tenido trece periodos naturales, año tras año, por la sucesión de consecutivos embarazos y periodos de lactancia.

La polémica de Lybrel se ha trasladado incluso hasta el terreno de la psicología y el feminismo. Como ha cuestionado la profesora Ingrid Johnston-Robledo, de la
Universidad Estatal de Nueva York, este fármaco «plantea un mensaje equivocado sobre la menstruación en las vidas de las mujeres, especialmente para las más jóvenes, al perpetuar numerosas actitudes negativas y tabúes que coinciden en presentar el ciclo femenino como algo que roza lo sucio, debilitador y vergonzoso».


Fuente: ABC, 24 de Mayo de 2007

 

 

-Estrellas naciendo en Orión vistas por el telescopio Spitzer

Las imágenes, que han sido objeto de una nota de prensa por parte de NASA, muestran una nueva población de estrellas y de enanas marrones que posiblemente han sido creadas a partir de la explosión de una supernova hace aproximadamente 3 millones de años.

Barnard 30, localizada a unas 1300 años luz

La investigación ha sido liderada por un equipo de astrónomos dirigido por el español David Barrado Navascués del Laboratorio de Astrofísica Espacial y Física Fundamental de INTA.

Spitzer es un satélite astronómico de NASA (lanzado en 2003) que permite analizar el rango infrarrojo del espectro. El estudio del infrarrojo es especialmente adecuado para comprender los momentos iniciales del Universo así como el nacimiento de nuevas estrellas, de sistemas planetarios o de objetos fríos, ya que la radiación infrarroja es capaz de atravesar las densas nubes de polvo y gas interestelar, que se forman alrededor de estos objetos y que los hacen invisibles a otros instrumentos.

Las imágenes del Spitzer proceden de una región denominada Barnard 30, situada en la constelación Orión. Se trata de una zona que contiene varias nubes formadas por polvo y gas interestelar muy fríos. Su estructura regular, casi circular, indica que su origen se debe a la explosión, hace unos 3 millones de años, de una estrella supermasiva, que expulsó ingentes cantidades de materia y energía en un final apocalíptico.

Spitzer ha atravesado esta densa nube de polvo y ha descubierto la formación de una nueva asociación estelar, un conjunto de estrellas de baja masa y de enanas marrones (objetos de apariencia estelar, que no tienen masas suficiente como para poder generar energía en su interior a partir de reacciones nucleares y que se pueden catalogar como verdaderos eslabones entre las estrellas y los planetas). Además, un número apreciable de estas estrellas y enanas marrones presentan discos de polvo alrededor de las mismas, que es el material a partir del cual se forman los planetas. Por tanto, nos encontraríamos también ante el incipiente nacimiento de nuevos sistemas planetarios.

Fuente: Redacción, mi+d, 23 de Mayo de 2007

 

 

-Gro Harlen Brundtland: Hay que pasar ya a la acción porque el cambio climático está fuera de control

Gro Harlem Brundtland vuelve a la senda del medio ambiente. Hace 20 años, la dos veces primera ministra noruega y luego directora de la Organización Mundial de la Salud fue la encargada de dirigir una comisión de la ONU para buscar caminos que compaginaran la empresa humana y los límites del planeta. La población mundial rozaba en ese momento los cinco mil millones de personas. Los científicos alzaban las primeras voces preocupantes sobre el cambio climático. A sus 68 años, la doctora Brundtland ha sido llamada para atacar una vez más los problemas ambientales.
 

Ahora, la población del planeta supera los 6.500 millones de personas, y casi la mitad de ellas viven con menos de dos dólares diarios. Las emisiones contaminantes están creciendo sin freno en las potencias económicas ya establecidas y en las que aspiran a serlo, en un mundo en el que la expansión económica es la principal meta a alcanzar.

El secretario general de la ONU, Ban Ki-moon, ha elegido a Gro Harlem Brundtland como enviada especial para el cambio climático, con la tarea de estimular a los gobernantes a actuar para reducir las emisiones de gases de efecto invernadero. Una de sus primeras paradas ha sido Madrid para participar en la iniciativa «Liderazgo Global para la Acción Climática», auspiciada por la
Fundación Naciones Unidas y el Club de Madrid.

Pregunta. Es una de las autoras del concepto de desarrollo sostenible. Ahora, con la urgencia del cambio climático ¿es necesario dar un impulso a este concepto?
Respuesta. El análisis y las recomendaciones del informe «Nuestro futuro común» de hace 20 años, en el que se establecen las bases del concepto de desarrollo sostenible, siguen siendo relevantes ahora. Si mira a lo que se dijo en ese momento, los mensajes son los mismos. Por tanto, la cuestión no es un nuevo mensaje, sino más acción. Y de hecho todo lo que el mundo ha acordado en las cumbres de Río y Johanesburgo sobre lo que debía hacerse sigue vigente, pero el nivel de acción debe ascender a otro punto, porque estamos perdiendo tiempo mientras el problema climático está fuera de control.

P. ¿Cómo ve todo lo ocurrido desde la Cumbre de Río en 1992?
R. Bueno, ha habido cosas positivas y negativas. Ha habido cambios en la dirección correcta en cuanto al número de contaminantes ambientales, como el sulfuro, los policlorobifenilos, etc., y en algunas áreas el mundo industrializado ha cambiado. Pero en muchos aspectos que están más relacionados con la biodiversidad y con el desarrollo de unos patrones más sostenibles en el mundo en desarrollo la situación ha cambiado muy poco o ha ido en la dirección errónea. Así, en África, la situación es peor que hace veinte años: hay más desertificación, mayor escasez y contaminación del agua y un problema casi irreversible de erosión del suelo. Y la cuestión del clima y el calentamiento global no harán más que sumarse a estos problemas y empeorarlos.

P. ¿Proteger el medio ambiente a escala global requiere nuevas políticas económicas?
R. Sí. En el mundo desarrollado debemos entender que invertir en nuestro propio futuro, en el futuro de nuestros hijos y nietos, significa compartir algunos de nuestros recursos con los países pobres. Por ejemplo, en Noruega se paga alrededor del 1% del Producto Interior Bruto (PIB) cada año en cooperación al desarrollo. Muchos de los países industrializados no lo hacen y debemos conseguirlo. El acuerdo de hace 30 años hablaba de un 0,7% del PIB para esta cuestión, pero sólo muy pocos países han alcanzado este nivel. No debería ser imposible y marcaría una gran diferencia, puesto que la salud y la educación son las bases del desarrollo, también del desarrollo sostenible.

P. El protocolo de Kioto incluye mecanismos para invertir en países en desarrollo...
R. Sí, por supuesto, pero esos mecanismos que acordamos en Kioto no se están usando en todas sus posibilidades y lo que es seguro es que no se están utilizando en beneficio de las naciones en desarrollo o, por lo menos, no de las realmente necesitadas. No es lo mismo China que África.

P. ¿Cree que ha llegado el momento para que algunos países en desarrollo renuncien a la idea de que los desarrollados son los únicos responsables del cambio climático?
R. Tenemos que cambiar la filosofía de base, porque históricamente es absolutamente cierto y sólo en los últimos años las emisiones de los países en desarrollo son cuantificables. Pero si hablamos de lo que tenemos que hacer desde ahora hasta 2012, los escenarios cambian. Históricamente tenemos que avergonzarnos, pero si miramos hacia adelante nos necesitamos unos a otros para buscar las soluciones, aunque el mundo industrializado tendrá que llevar la mayor carga.

P. ¿Cuál será exactamente su labor como enviada especial de la ONU para el cambio climático?
R. Ayudar al secretario general a conseguir un consenso global en las cuestiones sobre las que debe girar la nueva negociación. Esta es su agenda durante este año hasta la Cumbre Mundial del Clima de Bali, en diciembre. Él necesita la ayuda de gente como yo, que pueda viajar y tener contactos directos con los gobiernos, para intentar sacar a relucir las sensibilidades y ver dónde están los problemas para poder llegar así a terrenos comunes.

P. ¿Qué países visitará usted?
R. No queremos dar detalles sobre esto porque hay países a los que no interesa que estas visitas sean un asunto público, pero sí le puedo decir que ya he hablado con los representantes del grupo de los pequeños Estados insulares, con varios países africanos y con Canadá, que debe cambiar algunas de sus políticas si no quiere parecerse a Estados Unidos.

P. ¿Es posible el acuerdo en Bali para reducir emisiones después de 2012?
R. Pensamos que sí, pero yo añadiría que es necesario.

P. Parece que en los últimos años la gente es más consciente del problema. Después de tantos años trabajando en esto, ¿no le ha sorprendido que se haya tardado tanto tiempo?
R. No del todo. Los científicos y algunos políticos lo han sabido desde hace años, pero el público en general sólo lo ha sabido o ha querido saberlo cuando ha empezado a ver las consecuencias, como el «Katrina» o el hecho de que el hielo se esté derritiendo en Groenlandia. Y por eso pienso que Al Gore ha hecho un buen trabajo revelando la realidad, hablando con el público y enseñándoles las imágenes del desastre.

P. Antes de esta misión usted luchaba contra el sida, la malaria, el tabaquismo... ¿Es un desafío tratar ahora con la salud del planeta en sí mismo?
R. Siento que siempre lo he hecho. Desde el principio mi trabajo ha girado sobre desarrollo, salud y medio ambiente.

Fuente: ABC, 23 de Mayo de 2007

 

 

-Marte tuvo agua en abundancia

'Spirit', el vehículo explorador de la NASA en Marte, ha revelado la existencia de sílice en el planeta, lo que demuestra que éste tuvo agua en abundancia durante su pasado remoto, según ha informado el Laboratorio de Propulsión a Chorro (JPL) de la agencia espacial estadounidense.

Este descubrimiento se agrega a las pruebas casi concluyentes de que en un momento de su evolución Marte albergó condiciones favorables al desarrollo biológico como lo conocemos en la Tierra.

Un boletín de JPL señaló que los yacimientos de sílice fueron descubiertos en las cercanías del cráter Gusev, donde 'Spirit' descendió hace más de tres años.

Científicos de ese organismo de la NASA indicaron que para que se produjeran concentraciones de hasta 90% de sílice el ambiente en las cercanías de Gusev tuvo que haber sido muy húmedo.

"Nuestra gente quedó asombrada" cuando se conocieron los resultados del analizador químico instalado en un extremo del espectrómetro de rayos X de 'Spirit', señaló Steve Squyres, responsable del programa de los robots exploradores de Marte.

'Spirit' y el vehículo explorador gemelo 'Opportunity' descendieron sobre la superficie marciana en enero de 2004 y a los pocos meses revelaron que el actualmente árido planeta tuvo agua en su pasado.

Esas pruebas estuvieron constituidas por la existencia de altas concentraciones de azufre, la alteración de minerales e indicios de actividad volcánica explosiva que hubiesen requerido agua.

Pero la presencia de sílice "es la mejor prueba de que hubo agua en el cráter Gusev", indicó Albert Yen, geoquímico de la NASA en JPL.

Según los científicos de JPL, es posible que el sílice se haya formado tras la combinación del suelo con vapores ácidos producidos por una actividad volcánica en presencia de agua.

La otra es que el material haya sido creado por un ambiente de aguas termales. "Lo más importante de esto es lo que nos dice acerca de la existencia de ambientes que tuvieron similitudes con lugares en la Tierra donde se han desarrollado algunos organismos", dijo David Des Marais, astrobiólogo del
Centro Ames de Investigaciones de la NASA.

Doug McCuistion, director del Programa de Exploración de Marte, señaló que la presencia de sílice refuerza la idea de el agua fue abundante en Marte e "impulsa nuestra esperanza de que podamos demostrar que el planeta fue alguna vez habitable y tal vez posibilitó la existencia de vida".

Entre tanto, en la antípoda del planeta, 'Opportunity' ha completado la exploración del cráter Victoria, iniciada hace ocho meses.

John Callas, director del proyecto para los vehículos exploradores, dijo que el vehículo se desplaza ahora hacia una zona llamada 'Duck Bay' para buscar un sendero seguro hacia el cráter.

Fuente: El Mundo, 23 de Mayo de 2007

 

 

-La UE da el primer paso para la creación de una Política Espacial Europea

La UE y la Agencia Espacial Europea (ESA) han sentado las bases de una política espacial común al adoptar un acuerdo que mejorará la coordinación entre sus actividades y evitará la duplicación de esfuerzos.

La decisión se tomó en la cuarta sesión del Consejo Espacio y se plasmó en una resolución sobre 'Política Espacial Europea' que incide en la importancia de ese sector "como elemento estratégico que contribuye a la independencia, seguridad y prosperidad de Europa".

El comisario europeo de Industria, Gunter Verhuegen, opinó que con la decisión adoptada, Europa se suma a Estados Unidos, Rusia y China, países que están apostando por una política espacial fuerte.

"Sin una política espacial europea, Europa pasaría a ser irrelevante. Con esta resolución pretendemos revivir las aspiraciones europeas de liderazgo global en importantes áreas industriales y de investigación", señaló el comisario.

Verheugen incidió además que el continente "ya no es el pariente pobre del espacio", aunque insistió en que se debe hacer un esfuerzo por "mejorar su rendimiento" y aumentar su eficiencia.

Por su parte, el director general de la ESA, Jean-Jacques Dordain, consideró que el consenso logrado entre los 29 países presentes en la Agencia Espacial Europea y la UE "es el mensaje más fuerte que Europa puede dar a sus ciudadanos y a los socios internacionales".

Según Dordain, la "novedad" de la resolución adoptada es que "integra todas las dimensiones europeas", incluida la ciencia, la educación y las actividades de seguridad y defensa.

El director de la ESA precisó además que el paso dado no significa que exista la intención de convertir a la Agencia Espacial Europea en una agencia comunitaria.

La resolución apuesta además por mejorar las sinergias entre los programas espaciales civiles y de defensa y en el uso de tecnologías.

También subraya la necesidad de que, tanto a nivel comunitario como europeo, aumenten los esfuerzos para animar a los jóvenes a seguir estudios técnicos, una formación indispensable en esta área.

Peor suerte ha corrido en el consejo el programa 'Galileo', el proyecto europeo para crear una red de satélites de navegación que pueda competir con el estadounidense GPS. El proyecto, que la semana pasada la Comisión decidió que será financiado íntegramente con dinero público después de los diversos fracasos de las empresas privadas para sacarlo adelante, fue calificado como una idea "estúpida" por el vicepresidente de la Comisión, que señaló que el proyecto "tiene unas funciones muy limitadas".

Guenter Verheugen, comisario de Industria de la Comisión, señaló en una rueda de prensa que el sistema no es tan importante para la política espacial europea como lo son otros. "'Galileo' es  una idea estúpida, porque sólo permite hacer una cosa: ayudarte a navegar, nada más", criticó tras la reunión del Consejo.

El sistema Galileo, que prevé la puesta en marcha de una red de 30 satélites, es responsabilidad del francés Jacques Barrot, vicepresidente de la Comisión Europea y Comisario de transportes.

Verheugen, que tiene un largo historial de encontronazos con otros comisarios, matizó después que "desde el punto de vista comercial, Galileo es un proyecto interesante, pero si se compara la complejidad tecnológica de otros proyectos espaciales, 'Galileo' es un proyecto estúpido".

Fuente: EFE, 23 de Mayo de 2007

 

 

-Wikia, por el software libre

imbo Wales ha dejado una importante huella en la Red de la mano de su creación, Wikipedia, fundada hace seis años. Aquel proyecto de enciclopedia cuyo software libre permitía editar sus entradas a cualquier persona, es hoy una web que consistentemente está entre las 10 más populares del mundo, según Alexa.com. Pero para este dinámico visionario de 41 años, su aventura en la Red continúa. Ahora ultima otro proyecto, basado, de nuevo, en software libre, y que puede cambiar el modelo de negocio de los buscadores. Calcula que esté listo para moverse a toda capacidad a finales de año.
 

Se trata de Wikia. Esta página web es el hogar de comunidades en la Red en la que éstas pueden leer, discutir, alterar, manejar, actualizar y compartir información de cuestiones que les unan. Es un foro de foros con formato de revista y con entradas elaboradas por los usuarios que cubren el mundo de la salud, el de los viajes o el entretenimiento, entre otros, y al que se le añadirá el buscador.

A diferencia de Wikipedia, Wikia es una empresa con ánimo de lucro, cuya primera fuente de ingresos es la publicidad. Varios inversores, entre ellos Amazon, han aportado los cuatro millones de dólares del capital inicial de esta compañía en la que Wales empezó a trabajar a fines de 2004 junto con Angela Beesley, miembro de la Fundación Wikipedia.

El gran reto de Wikia pasa por poner en marcha el buscador que Wales cree que estará listo a fin de año. Su código será abierto para que esté a disposición de quien lo quiera o necesite. Para que no sólo sea usado sino también copiado y que las búsquedas estén controladas por una comunidad de personas con sensibilidad y compromiso y no intereses comerciales.

¿Y cómo va a financiarse? 'Publicidad. Abriendo el contenido se incrementa el tráfico', aseguraba Wales en un encuentro con la prensa extranjera en Nueva York recientemente. Tiene claro es su opinión sobre el resto de los buscadores. Cree que hasta que llegó Google la calidad de las búsquedas había sido mala pero 'el éxito de ésta obligó al resto a hacer mejoras'.

Wales quiere dar la impresión de que es más un hombre con ideas y dotes para la organización que un gestor. Rápidamente asegura: 'No soy un empresario'. Para redondear esa percepción afirmó desconocer por qué el precio de Google está tan alto y expresó su sorpresa por un artículo publicado en la revista Fast Company sobre él en el que le presentaban como una amenaza para el líder de los buscadores. 'Es divertido, Google es inmenso. Yo solo soy yo'. Para ser preciso, el mundo de la economía no le es tan ajeno ya que si se ha dedicado a Wikipedia, una fundación sin ánimo de lucro, es porque la fortuna que hizo como intermediario de opciones y futuros en Chicago se lo ha permitido. Además tiene un máster en finanzas.

Tampoco está tan solo. Además de la legión de entusiastas que desean participar de forma desinteresada, en Wikia ya trabajan 33 personas con dedicación exclusiva, buena parte de ellas desde Polonia. Ha fichado a Gil Penchina, de Ebay, para que sea el consejero delegado, y a Jeremie Miller, fundador de una plataforma de mensajería instantánea de código abierto (Jabber) para trabajar en el buscador. Wales ve Wikia como una empresa con fuerte potencial pero muy pequeña frente a los grandes. Pero dice que su madre está orgullosa 'compró hasta cinco revistas en la que me llevaron a la portada'.

En su encuentro con corresponsales en Nueva York, Jimbo Wales no ahorró alabanzas para el browser Firefox por ejemplo. 'Hay un cambio que se está produciendo y que está empezando ahora, es la democratización de los medios y el conocimiento. Creo que la gente puede colaborar de forma libre y hacer un buen trabajo'.

Todo ello, el mundo de los blogs y la información online, ¿es el fin de las empresas de comunicación? El reto que plantea Internet es muy intenso en la prensa y la de EE.UU., acostumbrada a extensas tiradas, lo sufre como nunca ahora.

Wales no cree que el software libre y el acceso a la información online sea el fin de la prensa y el negocio de los medios. 'Mi visión es que los periódicos que tendrán éxito serán los que no metan la cabeza bajo la tierra', aludiendo al ineludible potencial de Internet.

'Si se compara la calidad de los productos de búsqueda de Google, Yahoo o Ask, uno se da cuenta de que todos son muy similares', afirmaba Jimbo Wales. De acuerdo con este nuevo empresario, ninguno tiene claramente el liderazgo en la calidad y todos tienen sus inclinaciones comerciales.

Fuente: Cinco días, 22 de Mayo de 2007

 

 

-La próxima guerra será por el agua

Los problemas en el abastecimiento de agua han disparado la importancia económica, social e incluso política de este recurso. Su escasez y su mala gestión son ya una amenaza para el crecimiento de la economía mundial, además de un riesgo de tensiones territoriales.

Los visionarios aseguran que en la próxima gran guerra se luchará por el petróleo. Sin embargo, a día de hoy no es estrafalario pensar que el agua podría adelantarse como causa de disputa.

Hay signos evidentes en todo el mundo de que la escasez en el abastecimiento de agua ya está produciendo conflictos o miedo a que se produzcan. El agua está en el corazón de las tensiones en Oriente Medio, afectando a Israel y los territorios palestinos, Siria, Líbano y Jordania. Todos tienen derechos sobre el río Jordán, del que dependen para la agricultura, el agua potable y los servicios sanitarios.

Otras zonas de peligro incluyen las cuencas de los ríos Nilo, Níger y Zambezi, en África; o la disputa entre Siria y Turquía por el Tigris y el Éufrates. Incluso en las zonas sin riesgo de violencia, los países con escasos recursos están pagando el precio a través de pérdidas de productividad y ralentización del crecimiento económico.

Este mismo verano, la amenaza de sequías catastróficas no se cernirá sólo sobre África, sino también en otras zonas, como Europa. El reto es encontrar soluciones a nivel internacional, antes de que la sequía se convierta en un desastre para la economía mundial.

La contundencia de las estadísticas basta para convencer del problema tanto a economistas como a ecologistas. La ausencia de agua potable y servicios sanitarios que sufre más del 40% de la población mundial supone unos 485 miles de millones de euros cada año, según datos de la
Organización Mundial de la Salud. Un informe del Banco Mundial sobre la sequía que padeció Kenia entre 1998 y 2000 asegura que uno de sus efectos directos fue la reducción en un 16% del PIB del país.

En países desarrollados, las restricciones de agua también pueden ser económicamente devastadoras. El Departamento Oceánico y Atmosférico de Estados Unidos asegura que las pérdidas en este país debidas a la sequía rondan los 8.000 millones de dólares anuales. Las restricciones en Europa en 2003 supusieron 13.000 millones de dólares para su economía, sobre todo por los efectos en las cosechas agrícolas.

Incluso en los lugares donde hay abundancia de agua, la mala gestión y la persistencia de sistemas de distribución injustos consiguen que haya gente que pase sed mientras otros llenan sus piscinas con agua mineral. Pero, ¿por qué se ha convertido de repente el agua en un elemento de preocupación para la economía mundial? Uno de los culpables es el cambio climático, que, además de disminuir las reservas de agua en algunas regiones, está causando inundaciones en las áreas donde los glaciares se están derritiendo.

Además, las necesidades de la agricultura moderna son inabarcables. Se necesitan mil toneladas de agua para producir una de cereal.

La industria también pasa sed: actividades como la producción de alimentos o la industria textil requieren enormes cantidades de agua.

La contaminación de las reservas de agua -ya sea por sal, por residuos humanos o animales o toxinas provenientes de la industria- es otro problema acuciante, particularmente en China, donde el agua destinada al consumo de 300 millones de personas, casi un cuarto de su población, está habitualmente contaminada por productos químicos, como incluso ha reconocido la agencia oficial de noticias Xinhua. Esta escasez de agua potable es uno de los pocos problemas que podrían frenar el crecimiento de China e India, asegura Bjron Stigson, presidente del Consejo Empresarial Mundial para el Desarrollo Sostenible: "Las propias autoridades chinas reconocen que es el mayor problema al que se enfrentan".

POSIBLES SOLUCIONES

Los avances tecnológicos podrían ser una gran ayuda para paliar las diferencias entre demanda y reservas de agua. El más importante es la reutilización de agua, mediante el tratamiento de aguas residuales para que se devuelvan con seguridad a los ríos, destinarlas a usos agrícolas o usarlas en procesos industriales. La desalinización -una opción que ha sido elegida en España- es otra posibilidad, pero tiene la contrapartida de que necesita grandes cantidades de energía. Otra alternativa es la implantación de cultivos que, gracias a modificaciones genéticas, pueden utilizarse en zonas de sequía o de alta salinidad. Tanto esta opción como la desalinización no convencen a los grupos ecologistas.

Sea cual sea la técnica utilizada, el ahorro de agua será un elemento vital, sobre todo si se tiene en cuenta que la Tierra albergará cerca de 9.000 millones de personas en 2050. La salud de muchas de ellas, y también la economía mundial, dependerá de las políticas hidrológicas que se emprendan.

¿TIENE LA CULPA EL CAMBIO CLIMÁTICO?

Constantemente se habla de los efectos que el cambio climático tendrá sobre los recursos hidrológicos en el planeta. Las previsiones son que en 2080 la temperatura media haya ascendido cuatro grados, con las consecuencias que eso puede tener: aumento del nivel del mar, deshielo de glaciares, sequías y lluvias torrenciales más acusadas, etcétera. Sin embargo, según los expertos, las grandes sequías que Europa ha conocido en los últimos tiempos responden, sobre todo, a la mala gestión que se hace del agua.

Juan Pablo Pérez, vocal de Medio Ambiente del
Colegio Oficial de Geólogos y gerente de Garrigues Medioambiente, explica que "estamos en una época en la que existe un excesivo afán por interpretar cualquier fenómeno natural como consecuencia del cambio climático.

Los problemas de la sequía surgen, en el 80% de los casos, de una mala gestión del agua. Hay mucho despilfarro. Sobre todo en el regadío. Además, en algunos países -entre ellos, España-, se paga hasta 20 ó 30 veces menos de lo que cuesta el agua, no hay conciencia de su precio real, sobre todo entre los agricultores, que consumen el 80% del total". Hay experiencias en otros países que demuestran la importancia del precio en el consumo. En Hungría el agua había sido subvencionada casi al completo hasta 1990, y se aumentó el precio unas quince veces. Esto provocó una reducción de la demanda del 50%. Según la OMS, la escasez de agua provoca pérdidas de 485 miles de millones de euros cada año.

Fuente
: Expansión, 22 de Mayo de 2007

 

 

-La ONU asegura que "estamos a las puertas de una extinción masiva de especies"

El apetito por los bienes de consumo y servicios por parte del segmento más privilegiado de la sociedad está exacerbando la presión sobre la Tierra, con consecuencias para todos. Si la presión demográfica y los niveles de consumo aumentan, la biodiversidad decrece, y la habilidad del mundo natural para continuar aportando bienes y servicios de los que depende la humanidad se irá debilitando cada vez más.

AL LÍMITE DE LA CAPACIDAD

Esto es lo que ha venido ocurriendo hasta ahora, pero el cambio climático pondrá al límite la capacidad de los ecosistemas para proporcionar bienes y servicios a la sociedad, a demás de los impactos mismos sobre los sistemas y especies naturales. Por eso, el Día Internacional de la Biodiversidad, que se celebra hoy auspiciado por Naciones Unidas, gira en torno a la «Diversidad biológica y cambio climático».

«La diversidad biológica es lo que sostiene la vida en la Tierra, pero estamos a las puertas de la sexta mayor extinción masiva de especies de la historia del planeta», según el secretario ejecutivo del Convenio sobre la Diversidad Biológica (CDB) de Naciones Unidas, Ahmed Djoghlaf. En vísperas de la celebración hoy del Día Internacional para la Diversidad Biológica, Djoghlaf subrayó que el cambio climático crea condiciones a las que la flora y la fauna no pueden responder con suficiente rapidez. A su juicio, la pérdida de especies agravará el calentamiento global en un círculo vicioso. Según la tendencia actual, un 30 por ciento de todas las especies conocidas desaparecerán antes de que finalice este siglo.

UN DECLIVE CONTINUO

La Lista Roja de especies amenazadas 2006 de la
Unión Internacional de Conservación de la Naturaleza (UICN) ya revelaba nítidamente el continuo deterioro de la biodiversidad del planeta y el impacto que tiene la humanidad en la vida sobre la tierra.

El número total de especies oficialmente declaradas extintas es de 784, y a otras 65 solamente se las puede encontrar en cautiverio o en cultivo. De las 40.177 especies evaluadas, 16.119 figuran en la lista de especies amenazadas con la extinción. Esto incluye a uno de cada tres anfibios y a una cuarta parte de los árboles de coníferas del mundo, además de una de cada ocho aves, y uno de cada cuatro mamíferos conocidos están en peligro.

POR TODO EL PLANETA

Todo indica que el oso polar será una de las víctimas más notorias del calentamiento global. El impacto del cambio climático se siente cada vez más en las regiones polares, donde se prevé que el hielo marino del verano se reducirá entre un 50 y un 100 por ciento en los próximos 50 a 100 años. Se pronostica que la población de osos polares, que dependen del flujo de hielo ártico para la caza de focas y que están especialmente adaptados a la vida en el ambiente marino ártico, sufrirá una disminución del 30 por ciento en los próximos 45 años. El oso polar, que anteriormente figuraba en la lista de la UICN como una especie dependiente de la conservación, se encuentra ahora clasificado como vulnerable.

La huella global que la humanidad deja en el planeta abarca hasta regiones que parecen estar muy alejadas de la influencia humana. Los desiertos y zonas áridas aparentan estar relativamente intactos, pero sus animales y plantas especialmente adaptados también se encuentran entre las especies más raras y amenazadas. Lenta pero inexorablemente, casi sin que nadie lo note, los desiertos se están quedando sin su vida silvestre diversa y especializada.

Un nuevo componente clave de la Lista Roja de especies amenazadas 2006 es la primera evaluación regional integral de algunos grupos marinos. Los tiburones y las rayas se encuentran entre los primeros grupos marinos evaluados sistemáticamente, y el 20 por ciento de las 547 especies que figuran en la lista están amenazadas con la extinción. Esto confirma las sospechas de que estas especies de crecimiento lento son particularmente susceptibles a la pesca excesiva y están desapareciendo en todo el mundo a un ritmo sin precedentes.
 

Fuente: ABC, 22 de Mayo de 2007

 

 

-Guerra entre Microsoft y Linux

Cuando parecían darse las condiciones para una coexistencia pacífica entre Windows y Linux, el abogado jefe de Microsoft, Brad Smith, ha vuelto a agitar las aguas con unas declaraciones que reafirman la doctrina de su consejero delegado, Steve Ballmer: Linux es una violación sistemática de patentes de Microsoft. Por consiguiente, está dispuesto a acudir a los tribunales en defensa de su propiedad intelectual, aunque por el momento confía en que los infractores se avengan a firmar acuerdos de licencia.
 

Para llevar adelante una demanda judicial debería añadir la identificación nominal de los infractores, pero es probable que los mayores usuarios de Linux sean, a la vez, grandes clientes de Microsoft. Subyace la idea de que éstos preferirán pactar una licencia barata antes que exponerse a la incertidumbre. En una hipótesis plausible, Microsoft podría optar por demandar a los distribuidores comerciales de Linux - la presa más gorda sería Red Hat, con el 65% de este mercado- abriendo un frente tan extenso como imprevisible. Aunque el software no está explícitamente recogido en la vetusta ley estadounidense sobre patentes, ha entrado en ella por la vía de la jurisprudencia. Pero las sentencias recientes del Tribunal Supremo parecen inclinarse por el principio de que la propiedad intelectual ha de ser un estímulo para la innovación, y no crear situaciones de monopolio. Por otra parte, un programa informático no es una innovación homogénea, sino que puede contener cientos, miles o millones de innovaciones singulares. De modo que lo primero que haría cualquier juez sería pedir a la parte demandante que desvele las líneas de su código que hayan sido violadas por la demandada.

Pero mientras el código de Linux es, por definición, abierto, el de Windows es secreto. Lo que significa que Microsoft, que no partió de cero, podría encontrarse en la rara situación de exponerse a ser denunciada, a su vez, por quienes desarrollaron los sistemas operativos predecesores de Windows. Varios gigantes de la industria, entre ellos Red Hat e
IBM, han sellado una alianza de apoyo mutuo en el caso de que alguno de ellos fuera demandado.

Brad Smith ha dejado claro que descarta por ahora la vía judicial. Según las primeras opiniones, su propósito sería forzar a otros distribuidores de Linux a sumarse al acuerdo firmado con
Novell en noviembre para facilitar la interoperabilidad de ambos sistemas operativos. El acuerdo incluye una renuncia expresa de Microsoft a litigar contra los clientes de Novell y debería servir de modelo para cerrar una guerra fría que afecta a los grandes usuarios, interesados en que sus sistemas informáticos sean mixtos. Secundariamente, podría ser una fórmula de recaudación de royaltis sobre aquellos elementos de su propiedad intelectual supuestamente incorporados a Linux. Si bien el acuerdo con Novell no ha suscitado la emulación que Microsoft esperaba, ha puesto de relieve el cisma de la familia Linux: por un lado, quienes procuran una evolución comercial del sistema operativo como producto de mercado - línea que defiende su inventor, Linus Torvalds- y, por otro, el sector intransigente, encarnado en el activista Richard Stallman. Éste, que guarda la llave del tabernáculo, ha procedido de inmediato a enmendar las reglas que rigen la licencia pública de Linux para que no cunda el ejemplo: quien se atreva a desafiar la ortodoxia será maldecido como cómplice del enemigo. En cuanto a Microsoft, quizá debería pensar sobre el popular refrán español: "Quien pleitos tiene, el sueño pierde".

Fuente: La Vanguardía Digital, 22 de Mayo de 2007

 

 

-Los polos podrían fundirse en mil años

Con los conocimientos actuales acerca del clima no se puede aún predecir qué va a pasar en el futuro, lo que sí se puede afirmar, según el geólogo Carlo Alberto Ricci, es que los polos "no se van a fundir en 50 años; al menos tardarían mil años en hacerlo si la temperatura sigue aumentando".
 

"Es evidente que la Tierra se está calentando pero aún no sabemos la magnitud de dicho calentamiento", aseguró el geólogo y presidente del European Polar Board, quien cree que la Tierra podría estar pasando "simplemente" por un ciclo de calor que puede acabar en cualquier momento.

Hasta 1970 la temperatura en el planeta descendía y, a partir de ese momento, ha ido en aumento, pero "no se sabe si es una tendencia o es sólo un fenómeno momentáneo", según Ricci, que viajó a Madrid esta semana para pronunciar una conferencia en CosmoCaixa sobre el cambio climático y su influencia en los polos.

"En la Edad Media hubo una época de calor similar a la actual seguida de la denominada pequeña Edad de Hielo entre 1600 y 1700, lo que indica que hay variaciones en el clima del planeta que ocurren en miles, cientos o sólo decenas de años", dijo Ricci.

Todos estos datos y muchos más han sido obtenidos gracias al análisis y estudio del hielo de los polos que son "archivos de la historia de la Tierra", en palabras del geólogo italiano, quien lleva décadas investigando acerca de las regiones polares.

"En los polos podemos rastrear el clima del último millón de años", aseguró el investigador, ya que en el hielo se encuentran encerradas partículas que indican la composición de la atmósfera y el comportamiento del clima.

A través del programa europeo EPICA, en el que Ricci participa, se ha extraído hielo de un millón de años de antigüedad y gracias a él se ha sabido que en este periodo de tiempo se han dado cambios climáticos en ciclos de 100.000 años.

En los últimos 8.000 años de la Tierra, en los que se ha desarrollado la civilización humana, ha habido cambios de varios grados de temperatura en periodos de menos de un siglo, explicó el presidente del European Polar Board.

"La variación de 2 ó 3 grados que se está dando en la actualidad podría explicarse en base a los ciclos climáticos pero los grandes cambios en la atmósfera no son corrientes y nunca se habían dado antes", dijo.

Ricci, que es presidente de la Comisión Italiana para la Antártida, confía que en el marco del Año Polar Internacional, que dio comienzo en 2007 y concluirá en 2009, se pueda avanzar en el estudio y conocimiento de las regiones polares y, por tanto, del comportamiento de la Tierra.

El profesor de la
Universidad de Siena (Italia) prevé que en unos 10 ó 15 años se habrá profundizado algo más en el estudio de los polos y se sabrá mucho más sobre el clima terrestre.

"A través de los polos podremos saber qué causó los cambios climáticos en el pasado y cómo va a cambiar el clima en el futuro pero aún es pronto", añadió.
 

 

-Fertilizar los océanos para obtener beneficios

¿Puede el plancton salvar el planeta? Algunos tecnócratas de Silicon Valley creen que sí. En un esfuerzo por mitigar los efectos del calentamiento global, varios grupos trabajan en iniciativas para cultivar grandes campos flotantes de plancton destinados a absorber el dióxido de carbono de la atmósfera y llevarlo a las profundidades del océano.
 

Es una teoría, debatida por los expertos durante años, que todavía suena a ciencia-ficción, y algunos eruditos creen que ésa es la categoría a la que pertenece.

Pero, aunque muchas preguntas siguen sin respuesta, se prevé que el primer proyecto comercial se ponga en marcha este mes, cuando el WeatherBird II, un barco de investigación de 35 metros, zarpe de Florida en dirección a las Galápagos y el Pacífico Sur.

El barco planea disolver varias toneladas métricas de hierro, un nutriente del plancton, en un área de 10.000 kilómetros cuadrados.

Cuando los restos de hierro fomenten el crecimiento y la reproducción del diminuto organismo, los científicos del WeatherBird II calcularán qué cantidad de dióxido de carbono ingiere el plancton.

La idea es similar a la plantación de bosques llenos de árboles inhaladores de carbono, pero en extensiones desiertas del océano.

"Esto es jardinería orgánica, no física cuántica", dice Russ George, consejero delegado de
Planktos, la empresa responsable del proyecto del WeatherBird II. "¿Es posible que resulte tan sencillo como nosotros decimos? Estamos a punto de descubrirlo", dice.

Para George, esto no es sólo ciencia y ecología, es un negocio, y posiblemente de los grandes. Nuevos tratados y regulaciones por todo el mundo obligan a las empresas a buscar sistemas para compensar sus emisiones de carbono, y tal vez Planktos y su competencia cobren millones por sus servicios.

Planktos y su rival
Climos, fundada por un ex millonario de las puntocom, quieren comercializar la fertilización oceánica. Sus iniciativas subrayan el cada vez mayor esfuerzo por eliminar carbono de la atmósfera. Las soluciones incluyen la reforestación de bosques y la recuperación de toneladas de carbono resultante de la quema de carbón para la electricidad y el petróleo, devolviéndolo al subsuelo.

Desde Silicon Valley, donde los innovadores desvían su atención hacia los negocios medioambientales, empiezan a llegar soluciones tecnológicas. Su rentabilidad económica podría ser considerable, afirma Daniel M. Kammen, catedrático de la
Universidad de California en Berkeley.

En Europa, donde existe un mercado de créditos de carbono, compensar una tonelada de emisiones de carbono sólo cuesta 1,4 euros. Pero no hace mucho, esa cifra era de 25,7. Planktos cree poder cosechar unos beneficios sustanciales si obtiene 3,6 euros la tonelada por capturar dióxido de carbono. "El coste de la compensación con estas tecnologías es inferior al de la construcción de placas solares o molinos de viento", dice Kammen.

Pero, según algunos expertos oceanográficos, existe el riesgo de hacer más mal que bien al estimular el crecimiento del plancton. Ken Buesseler, científico de la
Woods Hole Oceanographic Institution en Massachusetts, dice que, aunque al principio quizá se absorba el carbono, es probable que parte de él vuelva a la atmósfera cuando el plancton sea consumido o se descomponga.

A algunos académicos les preocupa que las floraciones de plancton puedan liberar metano y óxido nitroso, lo cual aumentaría los gases invernadero. Buesseler ha organizado una conferencia en otoño para reunir a los expertos en fertilización oceánica, evaluar los años de investigación en ese terreno y ver la manera de fomentarla.

Entra en escena George, de 57 años y fundador de Planktos, con sede en California. Después de trabajar como asesor medioambiental en Canadá, se le ocurrió el concepto de Planktos en 1997, el mismo año del Protocolo de Kioto, el tratado que ha impulsado el grueso de las normas para la reducción del carbono.

Según George, su objetivo iba más allá de mitigar las emisiones de carbono; también quería restaurar el plancton perdido por el cambio climático. Las iniciativas del WeatherBird II no implican que la ciencia esté lista para su comercialización, dice, pero pretenden ofrecer una investigación que podría probar su efectividad.

Destacados científicos están participando en los esfuerzos de comercialización. Margaret S. Leinen, ex directora adjunta de geociencia en la
National Science Foundation, actualmente dirige a los científicos de Climos. Y es la madre de Dan Whaley, su fundador.

Whaley, que hizo su fortuna durante el auge de las puntocom al fundar Get-There.com, ha organizado una junta de asesores científicos, que incluye al ex presidente de la American Association for the Advancement of Science y al director del National Center for Atmospheric Research.

Whaley no revela cuándo y cómo Climos ofrecerá pruebas al mercado de que puede utilizar la fertilización oceánica para una compensación del carbono a largo plazo. Sin embargo, eso no le impide plantear un reto a Planktos.

"Quien se tome esto en serio debe lograr que se involucren los líderes de la comunidad oceanográfica", asegura Whaley, "y no limitarse a navegar por ahí lanzando hierro por la popa de un barco".

 

 

-Dos nuevos barcos de investigación oceanográfica para España

El Instituto Español de Oceanografía convocará un concurso para construir dos nuevos buques de investigación, en los que se invertirán, según aprobó en su reunión el Consejo de Ministros, 30 millones de euros hasta 2010.

Los barcos, que desarrollarán su actividad en el ámbito regional y tendrán una autonomía máxima de diez días, se diseñarán para emitir "muy bajo nivel de ruido radiado", lo que permitirá que su navegación no afecte al comportamiento natural de los peces que se encuentren en los alrededores de su actividad.

El pliego de prescripciones técnicas aborda y desarrolla específicamente las medidas que el astillero deberá considerar en los aspectos de ruidos y vibraciones, orientados tanto a optimizar la capacidad científica de la plataforma como a asegurar "unos niveles adecuados de confort" a bordo.

El Instituto Español de Oceanografía (IEO) es un organismo público de investigación dependiente del
Ministerio de Educación y Ciencia, dedicado a la investigación en ciencias del mar, especialmente lo relacionado con el conocimiento científico de los océanos, la sostenibilidad de los recursos pesqueros y el medio ambiente marino.

El IEO tiene ocho centros oceanográficos costeros, una estación de biología pesquera, cinco plantas de experimentación de cultivos marinos, doce estaciones mareográficas, una estación receptora de imágenes de satélites y una flota compuesta por seis buques oceanográficos, entre los que destaca el 'Cornide de Saavedra', de 1.100 toneladas de desplazamiento y 68 metros de eslora.
 

 

-Crean un cerebelo artificial que permite a los robots comportarse como humanos

Investigadores de la Universidad de Granada trabajan en un proyecto europeo asociado con la multinacional de la electrónica SONY, que ha permitido hasta el momento diseñar microchips que emulan un cerebelo humano y que se puede insertar en robots. El descubrimiento permitirá a las máquinas adoptar algunos comportamientos humanos y mejorar la interacción con el exterior, así como, en un futuro, ser base de aplicaciones en las personas en el tratamiento de enfermedades como el Parkinson o el Alzheimer.
 

El ser humano no busca sólo crear máquinas a su servicio, sino robots inteligentes capaces de tomar decisiones propias. Lo que hasta hace no demasiados años no pasaba de ser un futurible bastante irreal, se puede convertir en cotidiano a pocos años vista. Al menos eso pretende demostrar el proyecto SENSOPAC, en el que toman parte empresas y universidades europeas, incluida la Universidad de Granada.

Investigadores del Departamento de Arquitectura y Tecnología de Computadores del mencionado centro han participado en el diseño y desarrollo de un cerebelo artificial basado en microchips. Aplicado a la robótica, permite a las máquinas interactuar con otros objetos y personas. De esta forma, los androides podrán realizar tareas propias de mamíferos, como atender y procesar lenguajes, música u otros estímulos.

La parte granadina del proyecto europeo está coordinada por el profesor Eduardo Ros Vidal, quien resalta que, "aunque los robots son cada vez más importantes en nuestra sociedad y cuentan con una tecnología más avanzada, aún no son capaces de realizar tareas similares a las de un mamífero sencillo".

APLICACIÓN A LOS HUMANOS

La importancia del descubrimiento reside en la aplicación futura que puede tener para el ser humano. El cerebelo humano es la parte responsable de las funciones cognitivas, por lo que la inserción de los microchips en los cerebros humanos ayudaría a mejorar la calidad de vida de enfermos de Parkinson o Alzheimer.

El proyecto SENSOPAC es continuador de otro anterior, denominado SpikeFORCE y en el que participaron expertos en neurociencia e ingenieros electrónicos. La esencia de ambas iniciativas consiste en dotar a los robots de habilidades de movimiento similares a las de los animales y puedan tener capacidades sensitivas de las que obtener una forma de conocimiento.

"A pesar de que llevamos años hablando de humanoides, todavía no los vemos por la calle, ni hacemos uso real de las infinitas posibilidades que nos ofrecen", lamentó Ros. Por eso, los proyectos robóticos no terminan ni mucho menos. Movimientos bioinspirados o piel artificial pueden ser los próximos pasos a dar en un camino en el que los robots irán ganando poco a poco capacidades hasta ahora sólo presentes en películas de ciencia ficción.
 

Fuente: ABC, 18 de Mayo

 

 

-Medio ambiente quiere convertir los zoos en centros de conservación

La gente que vive en las grandes ciudades tiene un conocimiento de los animales salvajes y sus hábitats un tanto peculiar: se limita, habitualmente, a lo que ven por la tele, leen en algunos medios o ven con sus propios ojos cuando visitan algún parque zoológico. Unos centros que, en los últimos años, se han convertido en unos de los principales adalides de la conservación de estas especies.
 

Para potenciar este tipo de trabajos, el Ministerio de Medio Ambiente, la Fundación Biodiversidad y la Asociación Ibérica de Zoológicos y Acuarios han firmado un acuerdo para desarrollar actuaciones conjuntas en materia de conservación de especies amenazadas, lo que supondrá una mayor participación de los centros españoles en programas de investigación y educación.

Muchos, sin embargo, ya llevan años aplicándolos. Es el caso del
Zoo de Madrid, que trabaja en colaboración con algunos de los más importantes centros europeos en distintos programas de cría en cautividad de especies amenazadas. «La idea que subyace en estos proyectos es crear poblaciones de animales nacidos en zoológicos que puedan ser una alternativa a poblaciones naturales, para que si se necesita reforzar la población de animales salvajes exista una reserva en los zoos», aseguró Enrique Sáez, biólogo y veterinario del centro.

Los frutos de este tipo de programas son múltiples, y algunos de ellos ya tienen un éxito visible in situ, como las gacelas dorca nacidas en las instalaciones madrileñas y que desde hace unas semanas corren libres en Senegal. O los pandas rojos, uno de los más fructíferos programas de investigación y conservación que se desarrolla en el zoo madrileño y que ya ha logrado repartir 'panditas' por medio mundo.

Y es que tanto para el Ministerio de Medio Ambiente como para los diferentes parques españoles se ha convertido en prioritaria la puesta en marcha de programas de conservación de especies amenazadas con fines de repoblación o reintroducción en el medio silvestre. 'El Acebuche', en Doñana, ya es un referente mundial por sus avances en la reproducción de linces, y fundaciones como la del Oso Pardo o la de Biodiversidad colaboran con zoos y centros de recuperación animal para evitar la desaparición de especies vitales en la Península, como el oso, el águila imperial o el quebrantahuesos.

Precisamente para tratar de impulsar aún más este tipo de programas, Medio Ambiente y la Fundación Biodiversidad han editado una guía para animar a los centros de toda España a que adopten todas las medidas recogidas en la normativa europea sobre conservación de fauna salvaje en parques zoológicos.

Un libro que pretende servir de ayuda a centros, visitantes y administraciones a aplicar la normativa para que estos centros no sean 'aparcaderos' de animales, y que también ayuda al gabinete de Narbona a salir al paso o de la denuncia efectuada por la Unión Europea hace tan sólo unas semanas, que abrió un procedimiento de infracción contra España por el mal estado en que reencuentran 96 zoológicos.

Sin embargo, según Agustín López, vicepresidente de la Asociación Ibérica de Zoológicos y Acuarios (AIZA), «la calidad de los parques ha aumentado muchos desde hace unas décadas», que en materia de educación, conservación y bienestar animal se encuentran al mismo nivel que el resto de los europeos.

Los objetivos de la directiva europea son proteger la fauna silvestre y conservar la biodiversidad mediante la adopción, por parte de los Estados miembros, de medidas relativas a la autorización e inspección de los parques zoológicos en la comunidad, potenciando así su papel en la conservación de la biodiversidad.

Sin embargo, según la ministra del ramo, Cristina Narbona, el grado de implantación en España es «claramente insatisfactorio».

Sólo tres comunidades autónomas -Madrid, Navarra y Andalucía- cumplen plenamente la ley de conservación de fauna silvestre en los parques zoológicos. De los 134 parques zoológicos españoles, sólo 47 están en estas regiones, «aunque eso no implica que el resto no cumpla la normativa, sólo que no han designado aún quién debe velar por ese cumplimiento», remarcó Narbona.
 

Fuente: El Mundo, 17 de Mayo de 2007

 

 

-Más de la mitad de los españoles no usan internet

El 17 de mayo se celebra el Día de Internet en España. Pero, ¿hay motivos para la celebración? Se dice que España es la octava potencia económica del mundo. Pero, en lo que a tecnología se refiere, estamos bastantes puestos más atrás.

La semana pasada, el Centro de Investigaciones Sociológicas daba a conocer los datos de su último barómetro, correspondiente al mes de marzo. La respuesta a la pregunta número 12 es descorazonadora. Un 54% de los españoles no usa Internet.

Hace tres años, en el barómetro de enero de 2004, el 53% de las personas decía conocer Internet pero que no lo utilizaban. A pesar de dos planes Info XXI del anterior Gobierno y un plan Avanza del actual, la situación no parece mejorar. Peor se ponen las cosas con la pregunta número 12b. Cuando se interroga a los que no hacen uso de la Red sobre los motivos, un tercio responde que ni le gusta ni le interesa. Otro tercio afirma que no sabe utilizarla.

Desconocimiento y desinterés por uno de los mayores inventos del hombre, según un centenar de investigadores y científicos preguntados hace unas semanas.

La labor de concienciación y promoción del Gobierno se hace casi obligatoria si se quiere evitar que la mitad de la población española se quede atrás, engordando las cifras de lo que se viene a llamar el analfabetismo digital.

INFRAESTRUCTURAS

En la misma encuesta del CIS, entre los que no usan Internet hay un 14,1% que dice no tener fácil acceso y otro 6,3% al que le parece caro conectarse a la Red. Estas respuestas llevan a otro de los grandes problemas de la Sociedad de la Información en España. Las infraestructuras de acceso han mejorado, es cierto, pero a un ritmo que, en vez de acercarnos a los países más avanzados de Europa, nos están alejando. Hoy, España ocupa el puesto 17 dentro de la Europa de los 25. Por no hablar de que la banda ancha española es más lenta y cara.

En España se está produciendo una paradoja. Aunque más de la mitad de los españoles no usa Internet, quienes lo hacen la quieren de calidad. En nuestro país, casi el 30% de los hogares tiene conexión de banda ancha. El problema es que este crecimiento es a costa de las conexiones de banda estrecha y no de que se incorporen más hogares.

"Persisten los mismos problemas", asegura Víctor Domingo, de la
Asociación de Internautas. "No hay universalización de la banda ancha, aún hay cuatro millones de españoles que no tienen posibilidad técnica de tenerla y otros 12 no pueden elegir entre tecnologías al no tener cobertura de las operadoras de cable", añade. Aparte de los problemas en las infraestructuras, Domingo recuerda la necesidad de una mayor información y formación sobre las ventajas de las TIC. Añade además que "en una sociedad de mileuristas, 50 euros por un ADSL sigue siendo demasiado".

CONTENIDOS

El barómetro del CIS de marzo también se ha preocupado por saber qué hacen los españoles cuando navegan. Aquí los resultados tampoco son buenos. El 80% de los internautas usa la Red esencialmente para buscar información o mandar correos electrónicos. Casi un 40% también recurren a ella para bajarse música y películas.

Pero las cifras de los que van algo más allá y aprovechan su conexión para tratar con la administración o utilizar las posibilidades del comercio electrónico son muy bajas. El 26% dice realizar gestiones con su banco y otro 15% ha comprado algún producto en línea.

Yendo a las cifras objetivas, el comercio electrónico en España está creciendo, pero parte de unas cifras ridículas. Según datos de la CMT, en 2006 se movieron en la Red casi 2.000 millones de euros. Pero, ¿qué es esa cifra comparada con los 102.000 millones que supuso el 'e-comercio' en Estados Unidos?

Se confía mucho en el DNI electrónico para animar el negocio en línea. Servirá para disipar la gran desconfianza que hay hacia las compras y gestiones por Internet.

ADMINISTRACIÓN ELECTRÓNICA

En cuanto a la ciberadministración, el ejemplo de buen hacer sigue siendo la Agencia Tributaria, como desde hace años. Cierto que no dejan de firmarse convenios entre las distintas administraciones para acelerar su implantación, pero aún queda mucho por hacer. Dos ejemplos recientes son la puesta en marcha de la receta electrónica en Madrid y el programa para digitalizar los registros civiles. Sin embargo, los ciudadanos no podrán aprovecharse de la mayoría de las iniciativas hasta 2008, como pronto.

Más vitalidad tienen los usuarios habituales de Internet que, por su cuenta, la están llenando de contenido y funciones. Aquí no se ha inventado casi nada de lo que denominan Web 2.0 pero sí somos de los primeros en usarla. Un estudio de
Novatris revela que los españoles están a la cabeza de Europa en el uso de la mensajería instantánea, la creación de blogs, el uso de los podcast, Youtube y más de la nueva Internet.

Fuente: El Mundo, 17 de Mayo de 2007



 

-Estados Unidos vetará en el G-8 todo compromiso sobre el cambio climático y ahorro de energía

Aunque, teóricamente, el foro que representa a las democracias más industrializadas del planeta debería ser un escenario obligado para abordar el problema sin fronteras del cambio climático, las aparatosas cumbres del G-8 hasta ahora solamente han servido para aportar sucesivas y frustrantes sobredosis de retórica vacía. Una tradición insustancial a la que, pese a las reticencias de la Administración Bush, se intenta poner coto aprovechando la itinerante cumbre de jefes de Estado prevista en Alemania para junio.

El principal desacuerdo se centra, de nuevo, en la inclusión de compromisos concretos dentro de la próxima declaración medioambiental del Grupo de los Ocho. Con la aspiración, impulsada por los anfitriones germanos con respaldo de la Unión Europea, de incluir la promesa de intentar limitar el calentamiento global a dos grados centígrados durante este siglo y reducir significativamente para el año 2050 las emisiones contaminantes de todo el mundo que contribuyen al cambio climático: un cincuenta por ciento por debajo de los niveles de 1990.

Durante la última ronda negociadora para consensuar esta declaración medioambiental del G-8, celebrada este fin de semana en Bonn, representantes del gobierno de Estados Unidos han expresado su oposición a incluir compromisos concretos, siguiendo la política de la Casa Blanca que, aunque empieza a reconocer el problema del cambio climático, rechaza la opción de limitaciones obligatorias como una injusta y multimillonaria carga sobre su economía. A pesar de que el creciente consenso científico insista en que un aumento superior a los dos grados centígrados de temperatura durante este siglo puede provocar consecuencias catastróficas, como la extinción en masa de especies de fauna y flora o el acelerado deshielo polar.

De acuerdo a diversas filtraciones sobre las negociaciones en curso de cara a la cumbre de junio del G-8, prevista en la localidad germana de Heiligendamm, la Administración Bush también rechaza con vehemencia la inclusión de pronunciamientos multilaterales del tipo: «Reconocemos que el marco de Naciones Unidas es el foro apropiado para negociar una futura acción global sobre cambio climático».

Washington tampoco desea que la declaración -titulada «Crecimiento y responsabilidad en la economía mundial»- empiece afirmando: «Nosotros destacamos que hacer frente al cambio climático es una cuestión imperativa, no opcional. Estamos firmemente de acuerdo en que se necesita una urgente acción internacional decida y concertada para reducir las emisiones globales contaminantes relacionadas con el efecto invernadero, y sustentar nuestras bases comunes de vida».

En su reiterada negativa a rubricar grandes y firmes pronunciamientos medioambientales, la Administración Bush incluso no respalda que esta declaración incluya un llamamiento contra el derroche de energía. Y se resiste incluso a incluir un compromiso para aumentar la eficiencia energética de las economías del G-8 para lograr, de cara a 2020, una reducción de al menos el 30 por ciento de su consumo.

Dentro de este complicado proceso negociador, la Casa Blanca se estaría quedando cada vez más en una posición solitaria dentro del Grupo de los Ocho. Gran Bretaña, Alemania e incluso Japón están de acuerdo en que la cumbre de junio debe incluir una declaración contundente sobre cambio climático. Y Nicolas Sarkozy, el electo presidente de Francia, en su primer discurso de victoria, destacó la importancia de este problema, animando a que Estados Unidos adopte un papel de liderazgo en la búsqueda de soluciones.

Fuente: ABC, 16 de Mayo de 2007

 



 

-Cómo combatir el cambio climático según Antonio Ruiz de Elvira

Estamos embarcados en un experimento involuntario, de posibles consecuencias catastróficas: El cambio climático. Se ha hablado mucho de cómo va acelerándose, de como nos va a afectar a cada uno de nosotros, de sus consecuencias para nuestros hijos. Pero, ¿es inevitable?

Pues no, se puede evitar. Tenemos todos los elementos técnicos en nuestras manos, aunque aún nos falta la decisión social, y su consecuencia, la decisión política. Con demasiada frecuencia se ven las medidas a tomar desde un aspecto negativo: se nos dice, interesadamente, que combatir el cambio climático es caro y conlleva un empeoramiento en la calidad de vida de los ciudadanos. ¿Puede ser esto cierto?

Combatir el cambio climático exige reducir el gasto e incrementar la inversión. Visto de un cierto prisma, reducir el gasto es vivir peor. ¿Cual es ese prisma? Se cuenta que uno de los últimos duques de una casa noble de España tiraba al río las vajillas de oro en las que comía, por indignas de volver a servirle. En pocos años este señor deshizo una de las grandes fortunas de España. Podemos gastar en grandes banquetes o circular en coches caros que no nos aportan ganancia alguna. O podemos disfrutar de coches cómodos y alegres que consumen un tercio de energía que aquellos. Podemos tirar las vajillas al río, o podemos limpiarlas con cuidado para volver a utilizarlas. Tirar el dinero, tirar la energía, es gasto, ahorrar energía es inversión para el presente y para el futuro.

Combatir el cambio climático es, por ejemplo, aislar bien las casas. Una casa bien aislada es infinitamente más cómoda que otra sin aislar. Esta última exige calefacción a tope en invierno, lo que produce problemas de respiración, grandes contrastes entre interior y exterior y resfriados, en invierno, y problemas similares, de signo opuesto, en verano. Y, por supuesto, un ahorro substancial de energía y de dinero.

Combatir el cambio climático es comprar coches de biofuel: De etanol y de bioaceite. No salen más caros y ahorran mucho CO2 emitido a la atmósfera.

Combatir el cambio climático es exigir a las administraciones que dejen de proteger el carbón, el petróleo y el gas natural y destinen recursos a hacer bajar el precio de mercado de las placas solares. Un edificio recubierto de placas solares es un edifico fresco en verano, pues la energía que entraría por las paredes se captura para generar electricidad que puede consumirse en el mismo edificio. ¿Podemos imaginar las ciudades con todos los vehículos de hidrógeno? Un aire limpio y húmedo, eliminación de los ruidos de la explosión en los motores.

Y combatir el cambio climático es trabajo y empleo para cientos de miles de personas. En vez de los empleos peligrosos y mal pagados de la construcción, empleos técnicos en todos los campos: desde el agrícola para llenar los campos españoles de nuevo de producción agraria a los de transformación de esa producción en bio-combustibles, a la distribución de los mismos. Desde la fabricación de placas solares a su instalación y mantenimiento. Desde la investigación en hidrógeno a su producción, transporte, distribución, mantenimiento y reparación.

La carestía y dificultad de la que se habla es, esencialmente, la resistencia de algunas, muy pocas empresas, en aceptar que deben cambiar sus inversiones, que deben dejar petróleo, carbón y gas natural y dedicarse a la energía sostenible. Es esencialmente vagancia mental, conservadurismo a ultranza, parálisis social y económica. Combatir el cambio climático es factible y rentable para los ciudadanos. ¿Lo hacemos?

Fuente: El Mundo, 16 de Mayo de 2007

(si quieres saber más sobre lo que piensa Antonio Ruiz de Elvira escucha nuestro programa sobre el cambio climático)

 

 

 

-SpeciesBase, nace una web para clasificar la vida

Qué especies viven sobre la Tierra? ¿Cómo se las puede distinguir? ¿Cómo responden al cambio?

Estas y otras preguntas son el núcleo del proyecto SpeciesBase, recién iniciado y apoyado por la Unión Europea en asociación con científicos de Australia, Brasil, Estados Unidos, la India y Sudáfrica.

Millones de especies forman nuestro entorno de vida y nos proporcionan el oxígeno, el alimento, la medicina y otros servicios de los que depende nuestra supervivencia sobre el planeta Tierra. El objetivo del proyecto es crear un sistema global de información sobre las especies que dé respuestas sobre la vida en la Tierra y que permita acceder a ellas por medio de un formato estandarizado y completo a través de Internet.

«Mejorar y utilizar nuestro entendimiento de la vida en la Tierra son los retos principales del siglo XXI. Una condición previa para el entendimiento de la vida es el acceso libre y fácil a todo el conocimiento y la experiencia existentes sobre todas las especies. Se necesita un sistema de información internacional y global sobre todas las especies que existen sobre la Tierra, que sea de confianza y público, donde la información clave esté estructurada de manera tal que pueda ser utilizada para el análisis científico y también para informar a la sociedad», se afirma en una declaración de los responsables del proyecto.

El objetivo del proyecto SpeciesBase no es sólo servir como fuente de información valiosa para científicos, proporcionando información sobre la tasa de crecimiento, la fertilidad, la tolerancia medioambiental y datos genéticos. Otro de sus propósitos será el de proporcionar fotos, mapas e información en varias lenguas europeas sobre la flora y la fauna europea. Los usuarios también podrán complementar la información de los expertos añadiendo sus propias observaciones.

El proyecto SpeciesBase se basará en el FishBase, el sistema de información biológica de más éxito, que atrae a dos millones de visitantes al mes y es citado regularmente en la literatura científica.

La información sobre las especies es importante para investigadores, responsables políticos, administradores del uso del suelo, agricultores, ecologistas y muchos otros grupos de la sociedad, así como para la sociedad en general. Conocer las especies existentes, dónde y cómo viven, como crecen e interactúan, ayuda a los científicos a comprender pautas de cambio y proporciona información sobre cómo podemos modificar nuestro comportamiento para proteger la frágil biodiversidad de la Tierra.

Esta iniciativa es parte del seguimiento de la reunión de ministros del G8 en torno a la biodiversidad, celebrada en Potsdam en marzo de 2007.

Para obtener más información, visite:
www.speciesbase.org/
www.fishbase.org

Fuente: Cordis, 15 de Mayo de 2007

 

 

-El Hubble permite descubrir la distribución de materia oscura alrededor de un cluster

El Hubble ha descubierto una de las mejores evidencias de la existencia de materia oscura. Se encuentra presente en forma de anillo nebuloso en un cluster de galaxias.

El anillo es el resultado del choque entre dos clusters.  Esta es la primera vez que se consigue detectar la distribución de la materia oscura. Esta difiere de la que tiene la materia ordinaria

En la foto se puede apreciar este fantasmagórico anillo alrededor del cluster  ZwCl0024+1652

El cluster es el ZwCl0024+1652, se encuentra a cinco mil millones de años luz de la Tierra. El anillo mide 2,6 millones de años luz de diámetro. Se encontró mientras el equipo hacia un análisis de la distribución de materia oscura en el cluster.

Los astrónomos creen que la materia oscura es la que produce la gravedad adicional que hace posible que mantiene las galaxias juntas en el cluster .

Se cree que la materia oscura está formada por un tipo de materia que impregna el universo.

Durante el análisis de las observaciones detectaron una extrañas formas parecidas a las ondas que se forman en un estanque al tirar una piedra. James Jee declaró que se sorprendió al ver esas misteriosas estructuras y pensó en un principio que se podía tratar de un error en las observaciones.

La posible explicación al anillo de materia oscura se puede encontrar en el choque de éste con otro, hace dos  mil millones de años.   Así lo parece confirmar un estudio realizado en el año 2002 hecho por astrofísicos de la Universidad de Bonn. El punto de vista que tenemos del cluster nos permite ver la materia oscura distribuida en forma de anillo, resultado de la distribución después del choque.

 

En la secuencia de imágenes de abajo se puede ver lo que posiblemente ocurrió, según suponen los astrónomos de la Universidad de  Hopkins, cuando chocaron los dos clusters. En el primero momento de la colisión, la materia oscura fue expulsada hacia fuera, después de caer hacia el centro. Más adelante, debido el empuje gravitatorio, fue desplazándose hacia el centro de la agrupación formada por los dos clusters y allí se concentró. Este es el mejor experimento que demuestra la influencia de la gravedad sobre la materia oscura.

La mayor parte de la materia del universo es oscura. Encontrarla es muy difícil a causa de que no refleja luz ni la emite. Gracias a la influencia gravitatoria que ejerce sobre la luz se puede tener constancia de ella. Estudiar las distorsiones de la luz que procede de lejanas galaxias es la mejor manera de tener información sobre la materia oscura. Este técnica recibe el nombre de lente gravitacional.

 

 

 

 

Secuencia del choque entre clusters

La concentración de materia oscura, producida por el choque,  modifica la luz de las galaxias que se encuentran detrás.  

El Hubble permite gracias a su elevada sesibilidad detectar galaxias muy lejanas. En este caso, ha permitido la detección de la materia oscura.

Fuente:  ESA, 15 de Mayo de 2007

 

 

-Descubren una de las estrellas más vieja del universo

13,2 mil millones de años tiene la estrella recién descubierta cuyo nombre es HE 1523-0901. A pesar de su edad, se encuentra bastante cerca de nosotros, en la Vía Láctea.  No es la estrella más longeva que se conoce ya que CS 31082-001 tiene unos 14 mil millones de años. Se trata de estrellas de primera generación, formadas unos pocos cientos de millones de años después que la formación del universo. Estas estrellas se acaban enfriando y empequeñecen convirtiéndose en enanas blancas. Este tipo de estrellas no son muy brillantes.

HE 1523-0901 (representación artística)

La estrella pudo ser detectada gracias a un espectrógrafo instalado en el Telescopio Muy Largo en el Observatorio Meridional Europeo de Chile.  La estrella tiene suficiente torio y uranio para ser medidos desde la Tierra. Comparando las proporciones de estos dos elementos con las pertenecientes a otros como osmio e  iridio se ha podido estimar su edad.

El estudio de estas estrellas aporta información sobre la formación del universo. Para los astrofísicos son laboratorios en los que observar diferentes procesos.

Las primeras estrellas que se generaron en el universo fueron 100 veces más masivas que el Sol. Fueron muy inestables y desaparecieron rápidamente, así que será difícil detectar estrellas más antiguas que HE 1523-0901.  

Fuente: Nature, 11 de Mayo de 2007

 

 

-Avistada una bola de fuego en la península

Ciudad Real, Cuenca, Toledo y Valladolid son algunas de las provincias del centro peninsular que a última hora de ayer atravesó una 'impresionante' bola de fuego dejando a su paso 'muy probablemente' meteoritos, dijo hoy a Efe el investigador Josep M.Trigo, de la Red de Bólidos y Meteoritos.

Trigo, del Instituto de Ciencias del Espacio (CSIC-IEEC), explicó a Efe que la central de emergencias del 112 se vio colapsada por las llamadas de los testigos pocos minutos después.

Todos los testigos coincidieron en que se trataba de la 'súbita aparición' de una bola de fuego 'excepcionalmente brillante', que provocó 'gran alarma' en pequeñas poblaciones.


'La luminosidad del fenómeno fue tal que incluso fue registrada por pilotos de la base de Torrejón de Ardoz en pleno vuelo (a 40.000 pies de altura)', según Trigo.

Trigo y José L.Ortiz, del Instituto de Astrofísica de Andalucía (CSIC), están actualmente intentando recopilar la mayor información posible de los testigos del fenómeno, que, al parecer, también fue presenciado en Málaga.

A su juicio, este caso es 'sumamente importante' dado que desde varias poblaciones de Ciudad Real se pudo incluso escuchar el estallido sónico producido por la entrada del meteoroide por debajo de la barrera de 25 o 20 kilómetros, lo que es 'indicativo de la probable llegada de meteoritos al suelo'.

Los investigadores hacen un llamamiento a los organismos oficiales para que comprueben sus grabaciones con cámaras de vídeo fijas, especialmente las que hubiera en Madrid enfocadas hacia el sur-suroeste.

Trigo explicó que muchos de estos bólidos no producen meteoritos porque se volatilizan por completo, pero que el avistado ayer es 'muy capaz de haber producido meteoritos al llegar al suelo'.

El investigador prefirió mantener absoluta discreción de los lugares en los que podría haber caído alguno, ya que el fragmento más grande del último que se avistó en España, en diciembre de 2004, fue 'sustraído' por un equipo francés de 'cazameteoritos' merced a la información que habían facilitado los testigos.

Ese meteoro, que cayó en torno a la localidad palentina de Villalbeto de la Peña, era el primero que conseguía recuperarse desde hacía más de 50 años, recalcó Trigo.

En julio del año pasado, los investigadores Jordi Llorca y Javier García Guinea publicaron un trabajo que describía las características de aquella 'bola de fuego' de 750 kilos que atravesó la península la tarde del 4 de diciembre de 2004 tras un viaje interestelar de 48 millones de años.

La noticia de que en España, donde no se encontraba un meteorito desde 1947, se había avistado un 'bólido', que según han demostrado los autores del trabajo entró en la atmósfera a 61.000 kilómetros por hora y estalló cuando estaba a 28 kilómetros del suelo, atrajo inmediatamente la atención de los 'investigadores' y coleccionistas extranjeros.

Así, según García Guinea, el alemán Jurgen Neu, enviado por el laboratorio de R.Bartozeswich, 'entró en España a los pocos días acompañado de varios 'mercenarios'' que se hicieron con varios de los 32 fragmentos que se han podido documentar.

Otro grupo francés, éste, de coleccionistas, 'cazó' el mayor de los pedazos días después, el que pesa 1,3 kilos, y consiguió despistar a la Guardia Civil, que vigilaba la zona, entrando por la sierra.

La Ley del Patrimonio Histórico Español, de 1985, protege todos los bienes, incluidos los naturales como pueden ser los meteoritos, y establece sanciones para quienes exporten ilícitamente cualquiera de ellos.-

 

Fuente: Terra.es, 11 de Mayo de 2007

 

 

-Las rutas del inconsciente

¿Podemos llegar a saber qué es la consciencia? Desde hace siglos, y desde diferentes ramas del conocimiento, ha existido un interés permanente por intentar comprender en qué consiste, cómo se manifiesta y, más allá de estas primeras reflexiones, dónde se ubica. En todo caso, sólo muy recientemente, quizás a lo largo de los dos últimos siglos, hemos conseguido hacer de la consciencia un objeto de estudio científico, abordable de forma experimental.
 

Además de lo ya recorrido por la filosofía, las aportaciones realizadas desde disciplinas pertenecientes al ámbito de la neurociencia han permitido entender la consciencia como un producto más de la evolución y avanzar notablemente en el conocimiento de sus bases neurológicas.

Desde esta aproximación, eso que podríamos denominar consciencia se perfila en su naturaleza no tanto como un fenómeno unitario, sino asociado a un conjunto de procesos y funciones, que se localizan en aquellas zonas de la corteza cerebral evolutivamente más recientes, la conocida como neocorteza y que conforman en gran medida la manera en que percibimos y procesamos la información de nuestro entorno físico y social, ponemos en marcha comportamientos, cogniciones y emociones y construimos una idea propia del mundo que nos rodea y de nosotros mismos.

LESIONES EN LA NEOCORTEZA

Si bien es cierto que en la actualidad disponemos de técnicas que nos permiten observar in vivo el funcionamiento del cerebro en personas sanas (nos referimos a la electroencefalografía y las más recientes como la tomografía de emisión de positrones, la resonancia magnética funcional y la magnetoencefalografía), la mayor parte de los conocimientos que tenemos acerca de cómo funciona la consciencia provienen del estudio y observación de aquellos sujetos que, debido al padecimiento de alguna lesión neurológica adquirida, han mostrado evidencia de carecer de alguna parte de la misma. Una de estas alteraciones es el llamado síndrome de "heminegligencia contralateral", producido por lesiones en la zona de la neocorteza que se corresponde con el lóbulo parietal derecho. Este síndrome se caracteriza por la incapacidad para atender todo lo que se sitúa en el lado contralateral al de la lesión cerebral, es decir, el izquierdo. Las personas que lo padecen tienen una representación del mundo visual, espacial y auditivo reducida a la mitad e incluso, en algunos casos, no parece pertenecerles ni su hemicuerpo izquierdo.

No obstante, algunos experimentos muestran que aunque aparentemente los sujetos no son conscientes de la información que se les presenta, existe algún tipo de procesamiento de la misma. Por ejemplo, si se les muestran dibujos de dos casas y una de ellas, la que se presenta en su lado izquierdo, está ardiendo, aunque no son capaces de describirla como tal, no la eligen como la casa a la que irían a vivir. Otro trastorno que aporta información interesante es el fenómeno conocido con el nombre de "visión ciega". La corteza visual primaria, situada en la zona posterior del cerebro, es la primera fase del procesamiento cortical de los estímulos visuales que nos permite identificar y reconocer los objetos que nos rodean. Las lesiones extensas en esta área producen partes ciegas, que no permiten la visión. Sin embargo, hay casos en los que al presentar objetos los sujetos no los reconocen, pero si posteriormente se pide que elijan el que crean que estaba situado en ese lugar, lo hacen correctamente. La "prosopagnosia" también nos permite aislar otro posible asiento neurológico de la consciencia. Esta alteración se produce por lesiones en corteza temporal de ambos hemisferios e impide a los sujetos reconocer caras familiares y conocidas. A veces, tampoco son capaces de reconocerse ellos mismos en fotos.

PREFERENCIAS AFECTIVAS

No obstante, incluso en estos casos, se ha encontrado que si bien los sujetos tienen dificultades para reconocer la identidad de la cara, son sin embargo capaces de mostrar preferencias afectivas y señalar quienes les parecen más o menos simpáticos o valorar como más o menos agradables. Por ejemplo, si se les pide que identifiquen la foto de Hitler además de otras fotos de personajes conocidos, no son capaces de hacerlo, pero si les pedimos que escojan quién les aparece menos agradable, sí la seleccionan. El estudio de la memoria también nos ayuda a comprender mejor los mecanismos de la consciencia. La memoria no es una capacidad unitaria y contamos con dos sistemas para almacenar la información a largo plazo. Una de ellas se corresponde con la llamada memoria explícita, aquella que codifica y almacena la información de manera consciente. La otra se conoce con el nombre de memoria implícita y es la que posibilitaría la codificación y almacenamiento de la información sin que necesariamente fuéramos conscientes de ello. Dentro de esta última memoria se incluyen algunos tipos de condicionamientos que no son más que aprendizajes producidos por la asociación de un evento u objeto neutro, que inicialmente no provoca una respuesta emocional determinada, con algo desagradable.

De alguna manera, todos hemos sufrido una situación de este tipo, un miedo que no sabemos por qué se produce e incluso algunas fobias conocidas. Otro aspecto de la memoria implícita es el conocido como efecto de facilitación o priming. En estos casos sucede que una exposición previa a una situación facilita el recuerdo de la misma sin que seamos conscientes de que realmente hemos estado expuestos a ella. En ocasiones creemos reconocer vivencias o lugares, que en principio son nuevas para nosotros. Es el conocido como efecto dejá vu y se explica en parte por este proceso no consciente.

Si hasta este punto hemos tratado de responder a la pregunta con la que comenzamos, en el intento de saber qué es la consciencia, quizás debamos finalizar con otro interrogante, que se deriva de forma natural de los argumentos y evidencias que han sido expuestas. ¿Dónde y cómo se produce este procesamiento de la información que parece ser no consciente y que, sin embargo, de forma parecida a la consciencia también afecta a nuestros procesos y funciones?

EVOLUCIÓN MÁS ANTIGUA

Recurriendo a una metáfora común, y considerando los casos de lesiones que hemos descrito previamente, podríamos decir que lo consciente y lo no consciente constituyen las dos caras de la misma moneda, si bien cada uno de estos procesos está ligado a diferentes estructuras y sistemas cerebrales. De los que sustentan la consciencia, ya conocemos algunos. Respecto a lo no consciente y a las zonas relacionadas con esta forma de procesar el mundo, las investigaciones apuntan a la participación de estructuras que se sitúan en la zona media del cerebro (sistema límbico, diencéfalo y ganglios basales), evolutivamente más antiguas que las que median la parte consciente de los procesos y funciones y que constituyen la subcorteza.

También sabemos que estas "dos mentes", aparentemente separadas, mantienen constantes y complejas interrelaciones neuroquímicas, desde sus propias localizaciones. La activación de zonas corticales, relacionadas con la consciencia, requiere de la participación de las zonas subcorticales, correlato de lo no consciente. Parece ser un procesamiento de la información en paralelo y/o sucesivo, pero compartido, que, en ausencia de lesiones cerebrales u otros procesos patológicos nos permite sentir que disponemos de una construcción mental del mundo y de nosotros mismos, unitaria, sólida y coherente.
 

Fuente: Elcultural.es, 11 de Mayo de 2007

 

 

-La NASA se enfrenta con los problemas del espacia en  el fondo del mar

El grupo que realiza la misión NEEMO 12 (NASA Extreme Environment Mission Operations 12) está formado por la astronauta Heidemarie Stefanyshyn-Piper, el astronauta hispano José Hernández, el médico Tim Broderick, de la Universidad de Cincinnati, y el cirujano de la NASA Josef Schmid, según ha informado la Administración Nacional de Aeronáutica y del Espacio (NASA) de EE.UU.

A bordo del sumergible Laboratorio Sumbarino Acuario, de la
Administración Nacional Oceánica y Atmosférica (NOAA), el grupo realizará una serie de experimentos de tecnología médica avanzada, incluyendo "telecirugía robótica" en pacientes simulados, dijo la NASA.

"La experiencia única de Schmid en medicina espacial ayudará a la misión así como al desarrollo de técnicas de atención para las tripulaciones durante misiones tripuladas de larga duración", según Bill Todd, director del proyecto NEEMO 12, en el
Centro Espacial Johnson de la NASA en Houston (Texas).

Según la agencia espacial, las demostraciones de tecnología "telequirúrgica" desarrolladas y refinadas en esta misión ayudarán a los médicos a superar los problemas de la comunicación interplanetaria.

"Las tecnologías como la función robótica automatizada y guiada por un cirujano mejorarán la atención de los astronautas en las futuras misiones a la Luna y a Marte", según señala la NASA en Internet.

La tripulación del laboratorio submarino también realizará "caminatas lunares" para poner a pruebas los conceptos sobre la exploración lunar del futuro.

Durante esas caminatas, construirán una estructura submarina con la ayuda de un vehículo operado de manera remota y practicarán la recolección de muestras geológicas con el fin de desarrollar instrumentos para llevar a cabo esa tarea en la Luna.

Similar en tamaño a los dormitorios de la Estación Espacial Internacional (ISS), 'Acuario' es el único hábitat y laboratorio submarino permanente.

El complejo, de alrededor de 15 metros de largo y cuatro metros de diámetro, se encuentra a unos 20 metros de la superficie marina en Cayo Largo, en el extremo meridional de la península de Florida.
 

Fuente: EFE, 10 de Mayo de 2007
 

 

-El planeta más caliente

Un equipo de científicos de la Universidad Central de Florida, capitaneado por Joe Harrington, ha encontrado el planeta extrasolar más caliente de los registrados hasta ahora: 3.700 grados centígrados en la superficie, muchísimo más caliente que astros como Mercurio, donde el termómetro puede subir hasta los 400 grados, o Venus, donde se registran temperaturas de hasta 485 grados, suficientes como para fundir el plomo.

Utilizando imágenes y datos obtenidos por el telescopio 'Spitzer', de la NASA, Harrington y su equipo observaron al diminuto planeta, denominado HD149026b, desaparecer detrás de una estrella, para luego volver a aparecer. Para poder medir su temperatura, los científicos tuvieron que observar la radiación que emite, y de ahí deducir la temperatura que se registra en el lado del planeta que está de cara a su estrella.

' Los resultados de la investigación, que publica esta semana la revista 'Nature', desvelan que el planeta HD 149026b, descubierto por los astrónomos en 2005, es de un tamaño algo menor que Saturno, lo que le convierte en el más pequeño de los planetas extrasolares medidos hasta la actualidad. Su masa es mayor de la de Saturno, y se sospecha que tiene un núcleo entre 70 y 90 veces mayor que el planeta Tierra. Según los astrónomos, el planeta tiene más elementos sólidos (material distinto del hidrógeno y el helio) de los que existen en todo el Sistema Solar, a parte del Sol.

La temperatura registrada por los científicos en la zona del planeta más cercana a la estrella es de unos 3.700 grados centígrados, una temperatura altísima pero muy alejada de estrellas como el Sol, donde se pueden llegar a registrar unos 6000 ºC.

Por el momento, los astrónomos han detectado más de 230 planetas extrasolares, pero ésta es la cuarta ocasión en la que han tenido ocasión de medir la temperatura directamente. "Es el planeta más extraño y exótico que hemos encontrado nunca", señaló Harrington. "Es pequeño, muy denso y además extremadamente caliente", apuntó.

Para alcanzar esa temperatura, que implica que el planeta absorbe prácticamente toda la luz solar que llega hasta él, significa que la superficie debe ser negra como el carbón, lo que es un hecho insólito en los planetas conocidos hasta ahora. "Esto provocaría que el calor emanante provocara un efecto como de brillo que sale del planeta, lo que le hace ser como una especie de brillante en el espacio, absorbiendo toda la luz entrante y brillando con un ligero tono rojizo", explicó Harrington

Fuente: El Mundo, 9 de Mayo de 2007

 

 

-Una supernova espectacular es descubierta por la NASA.

La explosión estelar más brillante hasta ahora registrada podría ser la de un nuevo tipo de supernova, de acuerdo con los cálculos del Observatorio Chandra de rayos X, informó la agencia espacial estadounidense NASA.


El descubrimiento, dijeron los científicos en una conferencia de prensa, indica que las explosiones de estrellas enormes fueron relativamente comunes en las etapas tempranas del universo y que una explosión similar podría ocurrir en la propia galaxia en la que se encuentra la Tierra, la Vía Láctea.

"Ésta fue una explosión verdaderamente monstruosa, cientos de veces mayor que la de una supernova típica", dijo Nathan Smith, de la
Universidad de California (Berkeley), quien encabeza el equipo de astrónomos de esa universidad y de la de Texas. "Esto significa que la estrella que explotó podría tener el mayor tamaño que puedan alcanzar los astros, unas 150 veces el tamaño del Sol", añadió. "Jamás antes habíamos visto algo así".

Los astrónomos han descubierto unas 500 supernovas tan sólo en 2006, dijo Alan Smale, del programa Chandra en la sede central de la NASA. "Pero ésta es extraordinariamente grande y brillante", añadió Smith.

El observatorio Chandra, que orbita a unos 139.000 kilómetros de la Tierra, es el telescopio de rayos X más poderoso y se diseñó para observar las radiaciones procedentes de regiones de alta energía en el Universo, tales como los restos de estrellas que han estallado.

Los astrónomos creen que las estrellas de primera generación fueron gigantescas y la observación de esta supernova podría brindar una vista inusitada de la forma en que "murieron" las primeras estrellas. Hasta ahora no se había podido observar, en nuestra región del Universo, una supernova de tales dimensiones y en el proceso hacia su muerte.


Línea evolutiva de una estrella


El descubrimiento de la supernova denominada SN 20006gy proporciona pruebas de que la muerte de las estrellas de tal magnitud es un fenómeno totalmente diferente del descrito por las predicciones teóricas. Dave Pooley, quien dirigió las observaciones de Chandra en la Universidad de California, dijo que los datos recogidos hasta ahora "dan pruebas firmes de que la SN 2006gy fue, de veras, la muerte de una estrella extremadamente grande".

Los astrónomos explicaron que, al parecer, SN 2006gy expelió una gran cantidad de masa antes de la explosión. Esta erupción es similar a la ya observada desde Eta Carinae, una estrella gigantesca en la Vía Láctea, y por eso algunos científicos creen que la Eta Carineae también se encamina a una explosión como supernova.

La SN 2006gy bien puede ser la supernova más brillante observada hasta ahora, pero se encuentra en la galaxia NGC 1260 y a unos 240 millones de años luz de la Tierra. En cambio la Eta Carinae se encuentra a apenas 7.500 años luz y es vecina de la Tierra en la misma Vía Láctea.

Mario Livio, del
Instituto de Ciencia de Telescopio Espacial en Baltimore (Maryland), dijo que "no puede saberse con certeza si Eta Carinae explotará pronto, pero es mejor que mantengamos la vigilancia por si acaso". "La explosión de Eta Carinae podría ser el mejor espectáculo estelar de la civilización moderna", añadió.

Las supernovas ocurren cuando las estrellas más grandes agotan todo su combustible y se destruyen por su propia gravedad, pero los astrónomos creen que en el caso de SN 2006gy las circunstancias pueden haber sido diferentes.

Bajo ciertas condiciones, el núcleo de una estrella mayor produce tanta luz de rayos gamma que una porción de la energía de la radiación se convierte en pares de partículas y anti partículas. La disminución de energía que resulta de ello hace que la estrella se comprima por su propia gravedad.

Después de la compresión ocurren reacciones termonucleares y la estrella explota, dispersando los restos en el espacio. Los datos de la SN 2006gy indican que las supernovas resultantes de las primeras estrellas, en lugar de colapsarse completamente en agujeros negros, pueden ser más comunes que lo que hasta ahora se creía.

"En términos de su efecto sobre el Universo, la diferencia es enorme entre estas dos posibilidades", dijo Smith. "Una dispersa por la galaxia una gran cantidad de nuevos elementos y la otra los aprisiona para siempre en un agujero negro".

Fuente: EFE, 8 de Mayo de 2007

 

 

 

-La Universidad hebrea de Jerusalén anuncia el descubrimiento de la tumba de Herodes

La Universidad Hebrea de Jerusalén ha anunciado en un comunicado remitido a la prensa que ha sido descubierta la tumba y fosa donde fue enterrado el rey Herodes, que gobernó Judea bajo el Imperio Romano y que ordenó, según la Biblia, la 'Matanza de los Inocentes' para asesinar a Jesús a los pocos días de su nacimiento

El hallazgo se produjo en la zona arqueológica conocida como Herodium, próxima a Jerusalén y de él informará en detalle la Universidad en una conferencia de prensa a lo largo de hoy, martes, en Jerusalén.

La tumba de Herodes ha sido durante años uno de los restos arqueológicos más codiciados en la zona y el descubrimiento fue hecho por el profesor israelí Ehud Netzer, según informa la edición electrónica del diario '
Haaretz', que adelantó la noticia.

El Evangelio de San Mateo señala que Herodes ordenó la 'Masacre de los Inocentes'. Por entonces, el monarca había sido declarado 'rey de los judíos' por el Senado romano en el año 40 a.C. Según la Biblia, cuando supo del nacimiento de Jesús, al que popularmente se le conocía como el 'nuevo rey de los judíos', por temor a perder su trono Herodes decretó la muerte de todos los niños varones de Belén. De acuerdo a San Mateo, José y María huyeron hacia Egipto con su bebé Jesús para escapar de la matanza, la cual se conmemora en el calendario el 28 de diciembre.

Herodes, nacido en el 73 a.C. en la población de Ashkelon, hoy al sur de Tel Aviv, se declaró judío a pesar de que sus padres no lo eran, y fue nombrado gobernador de Galilea a la edad de 25 años. Reinó entre 34 y 40 años, según las distintas fuentes.

Las crónicas del historiador judío Flavio Josefo sitúan la muerte de Herodes en torno al año 4 ó 5 a.C. Durante su reinado también se cree que promovió la expansión del Segundo Templo de Jerusalén.

Fuente: EFE, 8 de Mayo de 2007

 

 

-Cinco grandes proyectos impulsan una nueva etapa en la genómica

A finales de este mes se espera que los Institutos Nacionales de Salud de Estados Unidos (NIH) establezcan las prioridades de inversión para 2008-2009 de su programa 'Roadmap initiative', que pretende identificar las brechas de la investigación biomédica y financiar, con una dotación muy superior a la normal, aquellos trabajos encaminados a cerrarlas. La genómica es una de las áreas clave.

La creación de una biblioteca molecular y el rediseño de la maquinaria de investigación clínica se llevaron la palma en las iniciativas de 2004. Entre ambos proyectos sumaron más de 1.300 millones de dólares (unos 1.000 millones de euros), poco comparado con los 450.000 millones de gasto militar de aquel año y mucho al lado de los 3.700 millones de dólares que invirtió en investigación médica en 2000 la Unión Europea.

Cinco proyectos han sido seleccionados por los directores de estos institutos de salud para competir esta primavera como 'principales propuestas' (Major proposals) por las ayudas económicas de los NIH.

MICROBIOMA: NUESTROS 'OTROS' GENES

En el cuerpo humano viven 10 veces más microbios que células. Estos organismos están relacionados con la salud y la enfermedad, pero aún no sabemos hasta qué punto. Un primer y esencial paso para desentrañar este misterio sería secuenciar el genoma de estos seres, uno de los proyectos elegidos.

Hongos, protistas y, sobre todo, bacterias viven con nosotros, dentro de nuestro cuerpo o en la superficie. Se han identificado cerca de 400 especies distintas de microbios en el organismo humano aunque se cree que puede haber hasta 10.000. Juntos, todos sus genes suman muchos más que los 30.000 del ser humano.

Constituyen lo que siempre se ha conocido como flora bacteriana. Unos cumplen funciones tan importantes como la síntesis de vitaminas o la digestión de alimentos y otros son un enigma ya que, como la mayor parte, no se pueden cultivar en el laboratorio por lo que estudiarlos es muy complicado.

Algunos de estos organismos ya se han secuenciado, pero suponen una parte ínfima del total. Este proyecto, que pretende embarcarse en la secuenciación de la microbiota humana, ahondará además, según la descripción del NIH, en "el conocimiento de estas comunidades microbianas para determinar cómo afectan a la salud humana".

EL PROTEOMA HUMANO

Buena parte de los genes contiene información para fabricar proteínas. En nuestro cuerpo hay más de dos millones de estas moléculas, cada una con su función, y el conjunto recibe el nombre de proteoma. Su conocimiento exacto sería el paso lógico siguiente a la secuenciación del ADN, en opinión de muchos expertos.

Las proteínas son macromoléculas, cadenas de más de 100 aminoácidos que adoptan diferentes configuraciones espaciales y constituyen más del 50% del peso seco de una célula. Hay proteínas tan 'famosas' como la insulina o el colágeno y tan importantes como la hemoglobina o la p53, que controla el ciclo celular y evita la formación de tumores. Pero existe un amplio e ignoto espectro compuesto por decenas de miles.

Identificar la misión de cada proteína y las interacciones entre ellas, como pretende este proyecto, permitirá conocer su papel en la salud y la enfermedad. A partir de ahí, será posible establecer, entre otras cosas, cuáles son dianas para el tratamiento de enfermedades como el sida o la malaria.

POR QUÉ SOMOS COMO SOMOS

La apariencia física y constitución se denomina fenotipo. Podría haber casi tantos fenotipos humanos como personas y cada uno de ellos estaría determinado por una carga genética concreta y la influencia del ambiente, lo que da idea de la complejidad de catalogarlos.

La primera clasificación, muy rudimentaria, data de la Antigua Grecia donde clasificaban a los individuos como tísicos o delgados (predominio del eje vertical) y atléticos o musculosos (con predominio del horizontal). Kretschmer, psiquiatra alemán, los dividió en pícnicos, atléticos, asténicos y displásicos, y la escuela americana en endo, ecto y mesomórficos.

Estos son algunos ejemplos, más o menos complejos, de cómo se ha catalogado a los individuos en función de su aspecto físico. Profundizando en este campo será posible caracterizar enfermedades y trastornos complejos.

MÁS ALLÁ DE LOS GENES

Otro de los proyectos finalistas se embarcará en el estudio de la epigenética. Esta rama de la biología estudia los cambios que sufre el ADN que resultan en la alteración de la expresión y función de los genes sin que estos sufran una modificación estructural.

Estos cambios son reversibles y heredables y pueden estar relacionados con la aparición de enfermedades como los producidos por algunos teratógenos, que provocan malformaciones en el feto. También intervienen en procesos biológicos normales como el silenciamiento de uno de los dos cromosomas X de las células femeninas mediante un 'empaquetamiento' que lo mantiene inactivo.

Aunque ya se han hecho algunos progresos en este ámbito, para seguir avanzando "es necesario desarrollar mejores métodos para la detección de estas modificaciones y un entendimiento más claro de los factores que inducen estos cambios", según apuntan las conclusiones de los directores de los institutos de salud.

UN FENÓMENO COMÚN PERO POCO CONOCIDO

Rubor, calor, tumor y dolor; estas son las manifestaciones clínicas de la inflamación, una reacción muy frecuente de la que, sin embargo, no se sabe demasiado. Esta respuesta inespecífica del organismo frente a las agresiones está implicada en muchas enfermedades por lo que su comprensión sería de gran utilidad para la medicina.

Esta reacción del cuerpo es una de las armas defensivas de que dispone, vital para la supervivencia. Durante mucho tiempo identificada a través de sus signos, los científicos están empezando ahora a esbozar la compleja y sincronizada cascada de fenómenos que conforman la inflamación.

El valor de esta iniciativa radica, según los NIH, en la posibilidad de "desenmascarar los mecanismos inmunes y los mediadores de la inflamación, así como los factores genéticos y ambientales y la relación entre inflamación y enfermedad".
 

Fuente: El Mundo, 7 de Mayo de 2007

 

 

-Frenar el cambio climático es posible y más barato que renunciar a la acción

A esto se refirió durante la presentación del informe Rajendra Pachauri, presidente del IPCC: «En una democracia, en último lugar serán los ciudadanos los que presionen para el cambio y las iniciativas». La pelota la recogía el comisario europeo de Medio Ambiente, Stavros Dimas: «Ya no hay excusa para esperar».

HAY UN «ALTO GRADO DE ACUERDO»

Y es que «con las medidas actuales de mitigación y las prácticas asociadas de desarrollo sostenible, las emisiones globales de gases de efecto invernadero continuarán creciendo en las próximas décadas», dice el informe. Una situación en torno a la que hay un «alto grado de acuerdo» y «mucha evidencia», según la terminología usada en el documento por el IPCC. Esto se traduciría en un aumento de emisiones de entre 9,7 gigatoneladas de CO2 equivalente (los seis gases de efecto invernadero medidos en unidades de dióxido de carbono) y 36,7 gigatoneladas, en 2030 sobre 1990.

Contando sólo el CO2 procedente de las actividades energéticas, el crecimiento hasta 2030 lo aglutinarán los países en desarrollo (entre dos tercios y tres cuartos). Eso sí, sus emisiones per cápita (2,8-5,1 toneladas de CO2 por habitante) seguirán siendo más bajas que las de los desarrollados (9,6-15,1).

Esta matización ha sido clave para que los países en desarrollo, que en esta reunión han vuelto a sacar a relucir la responsabilidad histórica de las naciones industrializadas en el problema de la contaminación, encabezados por China y la India, apoyaran este texto, pues tener en cuenta las emisiones per cápita y por unidad de PIB es la única forma de que estos países pudieran aceptar compromisos de reducción futuros en la revisión del protocolo de Kioto. Hay que tener en cuenta que China es el segundo emisor mundial, tras Estados Unidos, pero pronto puede ser el primero.

La escasez de medidas de mitigación ya ha llevado a que, entre 1970 y 2004, las emisiones se hayan incrementado en un 70%, desde 28,7 gigatoneladas de CO2 equivalente a 49. Por tanto, es necesario poner en marcha todas las medidas para estabilizar la concentración de CO2 en la atmósfera.

COSTES Y BENEFICIOS

Los costes han sido calculados por el IPCC, y pasan por ejemplo por un 3% del PIB mundial en 2030 si se quieren mantener los niveles de CO2 en 445 partes por millón (ahora es de 430), lo que supondría empezar a reducir las emisiones en 2015 para alcanzar una disminución de un 50-85% en 2050 sobre el año 2000 y lograr no superar así los 2 grados de aumento de temperatura con respecto a la etapa preindustrial; y de un 0,2 a un 2,5% del PIB si esa estabilización es de 535-590 partes por millón, lo que elevaría la temperatura entre 2,8 y 3,2 grados, más acorde con la mejor estimación del primer informe del IPCC, que situaba el aumento de temperatura para final de siglo en 3 grados.

«Son costes relativamente moderados», afirmó Pachauri. Lo que está claro es que a tenor de los informes anteriores, que presentaban un panorama desolador de sequías, olas de calor, inundaciones..., será más caro no hacer nada. Además, los beneficios para la salud a corto plazo originados por la reducción de la contaminación del aire, como resultado de la reducción de emisiones, pueden ser sustanciales y compensarían buena parte de los costes de mitigación. La inclusión de otros beneficios distintos, como el aumento de la seguridad energética y del empleo, puede reducir más los costes.

EL INFORME IDENTIFICA CLARAMENTE LAS MEDIDAS PARA LUCHAR CONTRA EL CAMBIO CLIMÁTICO

Suministro de energía. Es uno de los capítulos más importantes, puesto que las emisiones por su uso pueden aumentar entre un 45 y un 100% hasta 2030. Las soluciones que plantea el IPCC pasan por una menor dependencia del carbón en favor del gas natural; la eficiencia energética, las energías renovables (hidroeléctrica, solar, eólica, geotermal y bioenergía) como recursos mitigadores que ya están disponibles. Asimismo, sugiere que la energía nuclear puede jugar un papel a corto y medio plazo, pronosticándole un 18% del suministro eléctrico en 2030, si bien advierte de que existen incertidumbres sobre la seguridad, la proliferación de armas y los residuos. En cuanto a la captura y almacenamiento de CO2, reconoce que puede jugar un papel importante antes de 2030.

Transporte. En este sector, que es la fuente de gases de efecto invernadero que más rápidamente aumenta, destaca como opción la fabricación de los vehículos híbridos, que ya están en el mercado; mayores impuestos para los aceites derivados de fósiles; los incentivos para la mejora de los sistemas de transporte público, y el empleo de medios de transporte no motorizados, como la bicicleta. También considera importante el papel de los biocombustibles. En cuanto a la aviación, reconoce la dificultad de rebajar sus emisiones, pues además de tecnología y gestión del tráfico aéreo es necesario que reduzca otros impactos que no tienen que ver con el CO2.

Vivienda. Apuesta por un sector de la construcción ecológico, con normas más severas y viviendas con sistemas de calefacción y climatización más limpios. Así se podrían evitar el 30% de las emisiones de dióxido de carbono producidas por el sector antes de 2020. Además, y por primera vez en un informe de estas características, se reconoce que pequeños cambios en nuestro estilo de vida son importantes para frenar el calentamiento.

Industria. El IPCC identifica medidas como la imposición de nuevos controles a los contaminantes, incluidos el metano y el óxido nitroso, y a los productos químicos que también contribuyen al efecto invernadero. El documento pide reducir las emisiones de la industria con incentivos fiscales y certificados de emisión de CO2.

Agricultura y bosques. Los expertos señalan que la mejora de la gestión del suelo rústico y los bosques, con énfasis en la reforestación y la prevención de la deforestación, ofrece una de las alternativas «más fáciles y baratas» para la reducción de emisiones.

El informe deja claro que todos los sectores económicos tienen un potencial importante de reducción de emisiones de aquí a 2030. Según Bert Metz, co-presidente del grupo de trabajo de mitigación del IPCC, «ese potencial es tal que permitiría compensar el crecimiento de las emisiones con las tecnologías actuales». Y «los costes de reducción son totalmente asequibles», añadió. Por tanto, sólo hace falta voluntad.

Este cuarto Informe de Evaluación del IPCC, cuya síntesis se presentará en Valencia en noviembre, será llevado a la próxima Cumbre del Clima, que se celebrará en diciembre en Bali, y constituirá un texto clave para fijar los compromisos para después del año 2012.

Fuente: ABC, 7 de Mayo de 2007

 

 

-La huella de Tartessos conduce a Doñana

La escasez de restos arqueológicos y la abundancia de testimonios literarios han convertido Tartessos, la civilización que ocupó el suroeste peninsular entre los siglos X y VI antes de Cristo, en territorio legendario, en el que el mito completa las preguntas que la ciencia aún no alcanza a responder.
 

Un grupo de investigadores españoles busca restos arqueológicos en Doñana, aunque todavía no se atreven a hablar de Tartessos. En 2004, un científico alemán ubicó allí una gran ciudad tartésica a partir de unas imágenes de satélite que mostraban figuras circulares que pueden esconder debajo esos restos. Es la primera vez que se busca en Doñana, porque la teoría hasta ahora decía que siempre estuvo inundada.

El estudio del subsuelo refleja que debajo no hay sólo arcilla, como se creía hasta ahora En invierno, el agua cubre todo y miles de aves acuáticas, como la garza real o el pato cuchara, pueblan el lugar. Pero en verano, la marisma de Hinojos, en el corazón del Parque Natural de Doñana, se convierte en un secarral. Un paseo por allí un día de agosto no excitaría la imaginación de ningún arqueólogo. Hay que alejarse bastante, y tomar imágenes a partir de 100 metros de altura. Es entonces cuando el estudioso se da cuenta de que las fotografías tomadas desde 1956 muestran siempre lo mismo en la parte sur de la marisma: extrañas formas circulares de distintos tamaños (hasta 200 metros de diámetro) y, sobre todo, figuras rectangulares (es casi imposible que la naturaleza forme líneas rectas) que pueden ser fruto de asentamientos humanos anteriores, tal vez, a la colonización del Imperio Romano de la península Ibérica.

Ya desde el siglo XVI, multitud de estudiosos han situado una gran ciudad de la civilización prerromana de Tartessos en los alrededores del actual Parque Natural de Doñana, aunque estas teorías han estado descartadas por el pensamiento predominante durante los últimos 60 años. Ahora, un grupo de investigadores del
CSIC, la Fuhem y la Universidad de Huelva no se atreve a aventurar si Tartessos puede o no estar en Doñana, pero sí están convencidos de que el subsuelo de la marisma de Hinojos puede esconder restos arqueológicos. Las formas que se vislumbran en unas imágenes aéreas tomadas el verano pasado se suman a las fotografías anteriores. Además, las pruebas electromagnéticas les han confirmado que en el subsuelo hay algo más que arcilla, como se creía hasta ahora.

Los científicos alemanes W. Wickbolt, en 2003, y R. W. Kühne, en 2004, a partir de algunas imágenes de satélite en las que vieron esas extrañas formas circulares, se lanzaron a situar allí la ciudad de Tartessos, e incluso se atrevieron a decir que se correspondía con la mítica Atlántida descrita por Platón. Sin ir tan lejos, los investigadores españoles Sebastián Celestino y Juan Villarías Robles, ambos del CSIC, y Ángel León, historiador y profesor de secundaria de la Fundación Hogar del Empleado (Fuhem), que había puesto a Villarías en la pista de las imágenes aéreas, empezaron hace dos años a trabajar con el objetivo inicial de comprobar si hay allí restos de asentamientos humanos. Y hasta que reúnan más pruebas, no quieren empezar a lanzar teorías.

Pero de tratarse, como han sostenido los alemanes y tantos otros eruditos, de la gran ciudad tartésica por descubrir, significaría un enorme salto en un debate que aún mantiene divididos a los investigadores entre los que creen que aquella civilización prerromana, que existió entre los siglos X y VI antes de Cristo, tenía una marcada entidad propia, que era un híbrido con la cultura fenicia, apenas un apéndice de ésta o que, como algunos dicen, no existió como tal.

Ya se han encontrado en los alrededores de Doñana restos tartésicos, fenicios y romanos. Pero no se ha llegado a buscar dentro del parque porque la mayoría de los arqueólogos sigue trabajando con la premisa de que aquello siempre estuvo inundado. Esta teoría dice que durante cientos de años, desde después de la última glaciación, aquello era agua, del mar, al principio, y de un gran lago, después. Pero esta idea está siendo revisada por los geólogos desde hace más de una década, explica el profesor de la Universidad de Huelva Antonio Rodríguez, miembro también del equipo que investiga en Doñana.

Los resultados de las muestras del subsuelo tomadas el verano pasado les confirmaron lo que ya esperaban: "Donde tenía que haber sólo arcilla [procedente de la sedimentación normal de una zona permanentemente anegada por el agua], hay dos capas que pueden tener un metro de concentración de arena", explica Rodríguez. Esto quiere decir que se produjeron dos episodios violentos, probablemente tsunamis. Los resultados de la prueba que datará esos episodios aún no han llegado, pero trabajos anteriores han encontrado muy cerca evidencias de otros dos posibles tsunamis: el primero, sobre el año 1500 antes de Cristo; el otro, en el siglo II después de Cristo.

Así, uno de los tsunamis registrado en la marisma de Hinojos estaría entre esas dos fechas. "Esto cuadra perfectamente con la teoría de una ciudad prerromana borrada del mapa", añade Rodríguez, gran conocedor del parque no sólo por sus trabajos, sino porque creció allí (su padre fue uno de los guardas de Doñana y su abuelo trabajó en el coto). En definitiva, la revisión de la teoría y la de la formación de toda la costa andaluza indican que Doñana no estuvo siempre anegada por el agua, sino que se sucedieron en los últimos 7.000 años periodos de inundación con otros secos que permiten situar allí un asentamiento.

Las pruebas previas van respaldando la existencia de restos. El siguiente paso, que probablemente se dé este verano, es hacer un sondeo arqueológico (un agujero de 10 por 3 metros de lado y 7 de profundidad) para comprobar definitivamente si allí hay algo. El Parque de Doñana estableció este proceso de estudios previos, explica Fernando Hiraldo, director de la estación biológica. "Creo que el impacto ambiental en la zona sería pequeño, dado que se trata de un espacio reducido en unas marismas de 40.000 metros cuadrados. Aun así, siempre hay que tener mucho cuidado al tratarse de Doñana", un espacio de máxima protección ambiental, recuerda.

Sebastián Celestino, el investigador principal del proyecto, es uno de los grandes expertos españoles en Tartessos. Admite que es inevitable hablar de esta civilización al investigar en Doñana, aunque insiste en "no crear falsas expectativas". "Estamos convencidos de que allí puede haber restos de asentamientos, pero no sabemos de qué época". Aun así, "ya me parece muy importante empezar a comprobar si hay algo donde siempre se creyó que no lo había", añade.

LAS BRUMAS DE LA BIBLICA 'TARSHISH'

"Una época fascinante por su propia realidad y por el halo legendario con que se rodeó en la antigüedad y la sigue en alguna medida caracterizando aún en nuestros días"; así se refiere Manuel Bendala, una de las principales autoridades en la materia, a la época de Tartessos -la cultura que representa "la aurora de un proceso histórico, en el que se puso en marcha la organización territorial y urbana que alcanza hasta nuestros días"- en el libro Tartesios, iberos y celtas (Temas de Hoy, 2000).

Se cree que Tartessos, desarrollado en la zona sur de la península Ibérica, puede ser anterior a la llegada de los fenicios, cuando aparecen las primeras referencias de esta civilización, entre el siglo X y el IX antes de Cristo. Que su desarrollo posterior se produjo de la mano de los fenicios gracias al comercio de minerales (los propios y los llegados de las costas atlánticas). Y su declive y desaparición está generalmente aceptado que se inició en el siglo VI antes de Cristo, aunque muchos de los restos encontrados están datados en el siglo V. Que los cartagineses la arrasaron por haberse aliado con los griegos, que desaparecieron por agotamiento económico o por culpa de un cataclismo (un terremoto o un tsunami) son las razones que las distintas corrientes dan a su extinción. Lo cierto es que cuando el Imperio romano colonizó la Península en el siglo III antes de Cristo, aunque llamaron Tartessius Sinus a la bahía de Cádiz, ya no existía.

La investigación de todo ese periodo estuvo centrada durante muchos años en el estudio de textos en los que se hacía referencia a Tartessos, que le han conferido al tema el halo legendario del que habla Bendala en su libro. Muy discutida la relación entre la Tarshish que cita el Antiguo Testamento con el Tartessos ibérico, las referencias principales provienen de la tradición grecolatina, que citan fuentes indirectas y lo hacen siglos después de su desaparición. Éstas describen una civilización en la frontera del mundo conocido, es decir, el Mediterráneo, otro punto éste que aumenta su carácter legendario. Heródoto, en el siglo V antes de Cristo, que habla del mítico rey Argantonio, Avieno, en su Ora Marítima del siglo IV antes de Cristo, o Estrabón, en el siglo I antes de Cristo, son algunos de los principales testimonios.

Pero en los últimos 50 años, la investigación ha ido dejando en cierta medida de lado estos trabajos filológicos para concentrarse en el arqueológico. Los textos hallados de la época no ayudan mucho, ya que los expertos no han podido descifrarlos.

Se han descubierto joyas en distintos puntos, como el Carambolo, en Sevilla, pero los yacimientos más importantes probablemente sean la necrópolis hallada en Huelva, el santuario de Coria del Río (Sevilla) y, sobre todo, el palacio-santuario de Cancho Roano, cerca de Badajoz, la estructura mejor conservada. Sin embargo, aún no se ha encontrado ningún vestigio de núcleo urbano importante, lo que deja abierta una de las cuestiones fundamentales: ¿hasta qué punto Tartessos dependía de otros pueblos como el fenicio o se trataba de un Estado autónomo cuya importancia en el mundo mediterráneo del primer milenio antes de Cristo está aún por determinar?
 

Fuente: El País, 7 de Mayo de 2007

 

 

-El gobierno de Canarias edita el libro historia de la ciencia

La Vicepresidencia del Gobierno de Canarias, a través de la Oficina de Ciencia, Tecnología e Innovación, junto con la Viceconsejería de Educación, a través de la Fundación Canaria Orotava de Historia de la Ciencia, han colaborado en la edición del libro Historia de la Ciencia (Volumen I) del que son autores Miguel Hernández González y José Luis Prieto Pérez.

Recientemente, se ha incluido como asignatura optativa dentro del currículo educativo de la Comunidad Canaria la Historia de la Ciencia, una decisión pionera en el panorama educativo de nuestro país. En ese sentido, la principal idea de este proyecto fue elaborar un Manual de Historia de la Ciencia que pudiera servir de referencia a los alumnos de Bachillerato que cursaran esta asignatura.

Al respecto, la Oficina de Ciencia, Tecnología e Innovación repartirá un total de 300 ejemplares de este libro entre los centros educativos de enseñanza y bachillerato de Canarias.

Los autores, según expresan en el Prólogo a medida que escribían los diferentes capítulos también valoraron que su contenido podría interesar a un público más amplio, dado que el conocimiento de la Ciencia, no suele considerarse imprescindible para ser culto, de manera que su apasionante historia sigue siendo muy poco conocida, pese a la importancia que posee no sólo en la vida diaria y en la configuración y articulación de la sociedad en la convivimos.

Por ello, el texto que se muestra al público posee un doble reto: dar a conocer un material que sirva como libro de texto destinado a una asignatura reglada y que pueda leerse con cierta facilidad por una persona de cultura media.

El libro consta de cuatro bloques cuyos títulos son: La Ciencia Antigua: el Cosmos cerrado y el Mundo vivo; La Ciencia Moderna: el Universo abierto y el Hombre máquina; La Ciencia Contemporánea: el siglo XIX; y La Ciencia Contemporánea: el siglo XX.

En esta primera entrega se acomete el estudio de los dos primeros, y en cada uno de ellos se han articulado cuatro líneas de trabajo que permiten al profesor enfocar el curso desde alguno o algunos de ellos de manera privilegiada.

Esta nueva asignatura se estudiará desde diversos enfoques: El filosófico, el físico-tecnológico, el de la medicina y las ciencias de la naturaleza (o de la vida) y el matemático.

Fuente: Infonorte digital, 5 de Mayo de 2007

 

 

-Toca ser hereje en la ciencia

Joao Magueijo ha sido llamado héroe y hereje a la vez. Este cosmólogo portugués, nacido en 1967, doctorado en Cambridge y profesor del Imperial College de Londres, ha cuestionado la validez de la teoría de la relatividad especial de Albert Einstein. Sin corbata ni pelos parados, con jeans y camiseta, el físico portugués recibió a SEMANA en Buenos Aires, donde presentó su libro Más rápido que la velocidad de la luz, publicado por el Fondo de Cultura Económica. En él cuenta cómo una fría mañana de invierno inglés, en medio de un guayabo feroz, se le vino a la cabeza la idea de la velocidad variable de la luz (VSL, por su inicial en inglés), una verdadera herejía. Tanto es así, que cuando apenas se conocieron sus trabajos, alguien dijo que la sigla quería decir very silly, puras sandeces.

Su herejía consiste en cuestionar nada menos que la teoría especial de la relatividad, que se basa en la afirmación de que la velocidad de la luz siempre es constante. Es decir, que la luz siempre viaja a la misma velocidad, sin importar si el foco que emite la luz se acerca o se aleja del observador. Esto significa que, en un escenario en el que la velocidad es constante, el tiempo y el espacio son relativos. Estos son fenómenos imperceptibles en la vida diaria de una persona normal, que se desplaza a velocidades ínfimas si se comparan con la velocidad de la de la luz. Pero, de acuerdo con Einstein, a medida que aumenta la velocidad, el espacio se comprime más y más y el tiempo se hace cada vez más lento.

Esta paradoja tiene muchas consecuencias, porque entonces el tiempo y el espacio no son absolutos, como lo suponía la física de Newton. Si la velocidad de la luz es absoluta, se necesita un espacio y un tiempo relativo.

SEMANA: ¿En qué consiste la teoría de la velocidad variable de la luz, VSL?
JOAO MAGUEIJO: La física del siglo XX se basa en esta constante de la velocidad de la luz, pero esto causa muchos problemas para la cosmología. En la teoría del 'big bang' sobre el origen del universo, esta constante de la velocidad de la luz no permite entender muchas cosas, porque es un límite de velocidad. Nosotros pensamos que la velocidad de la luz puede ser constante hoy, pero tal vez fue más rápida en el principio del universo, cuando era muy caliente.

SEMANA: ¿Qué explicaría la teoría de la VSL?
J.M.: Resolvería uno de los principales problemas de la cosmología, que es el del horizonte inmediatamente después del big bang. La velocidad constante de la luz tiene un aspecto muy antisocial, porque si las cosas no se mueven muy rápido, si el tiempo del universo está fijo, nada se puede mover más allá de un horizonte, que es muy pequeño al principio. Esto es lo que impide a los cosmólogos explicar la uniformidad del universo. Tenemos que hacer algo con este límite de velocidad para dar una explicación de conjunto de lo que pasa en el universo.

SEMANA: Usted es muy crítico con los científicos. ¿Por qué?
J.M.: La ciencia está regida por el instinto de la oveja. Si alguien hace algo, todo el mundo lo sigue, y esto pasa porque un grupo de gente toma el poder en las instituciones, las universidades, las fundaciones. Crean una mafia y luego empujan afuera a todo el que quiera hacer algo distinto. Yo creo que la ciencia debería moverse más rápido, con menos formalismos. Las personas con las ideas más innovadoras con mucha frecuencia se encuentran en las fronteras, en el borde de la ciencia. La gente hace cosas que se vuelven una religión después de un tiempo, que dejan de ser ciencia, y luego controlan todas las ciencias, lo que se publica, lo que no, aunque esto no tenga razones científicas.

SEMANA: ¿Cómo se definiría, como héroe o hereje?
J.M.: Siempre hay que ser hereje en la ciencia. La ciencia siempre ha sido hereje. Yo tampoco estoy casado con la VSL. Nuestro papel es proponer nuevas cosas y luego tratar de probarlas. Esa es la ciencia.

Fuente: Semana.com, 5 de Mayo de 2007

 

 

-A Coruña celebra el Día de la Ciencia

Todo está listo ya para que hoy, a las once de la mañana, comiencen las celebraciones del duodécimo Día de la Ciencia en la Calle en el parque de Santa Margarita. Alrededor de mil alumnos y profesores de 21 centros educativos de gran parte de la provincia coruñesa participarán en la edición de este año, en la que se instalarán un total de 32 carpas y espacios de ocios, en donde los visitantes podrán entretenerse realizando juegos y todo tipo de experimentos científicos.
 


Una maqueta de aerogenerador movido por energía solar, talleres de geometría y matemáticas, trucos de magia basados en la química, demostraciones sobre las propiedades de la harina de maíz o la disección del ojo de una vaca son algunas de las actividades que se ofertarán en esta feria divulgativa.

El Día de la Ciencia en la calle no sólo se celebrará en el parque de Santa Margarita, sino que se extenderá a todos los Museos Científicos Coruñeses, que abrirán sus puertas de manera gratuita durante toda la jornada. A ellos también se sumarán el Instituto Español de Oceanografía del dique de abrigo, en el que se podrá visitar un barco de salvamento, y el Instituto Nacional de Meteorología (zona de Ciudad Jardín), desde el que se lanzará un globo sonda a las 12.30 horas.

Más información

Fuente: La Voz de Galicia, 5 de Mayo de 2007

 

 

-"Nemo" sabe como volver a casa

El extraordinario instinto hogareño que tienen los peces de arrecifes de coral ha sido dado a conocer por un grupo de investigadores.

Los científicos monitorearon a dos especies de larva de pez de arrecife coralino para ver hacia dónde se dirigían los jóvenes luego de pasar semanas, e incluso meses, madurando en el océano abierto.

El grupo descubrió que la mayoría de los peces payaso color naranja -vueltos famosos por la película Buscando a Nemo- y los peces mariposa vagabundos regresaban al arrecife en el que habían sido incubados.

En el estudio, que se puede leer en la publicación Science, el equipo investigador dijo que el descubrimiento podría tener implicaciones para la protección marina.

"Los peces marinos ponen huevos muy pequeños, y cuando lo hacen, son soltados dentro de la columna de agua", explicó el coautor del estudio, el profesor Geoff Jones, de la Universidad James Cook en Queensland, Australia.

"Se desarrollan dentro dentro de larvas realmente diminutas que, pensamos, viajan a la deriva en las corrientes de agua, algunas veces por meses".

"El eslabón que estaba perdido en nuestra comprehensión de los peces de arrecifes coralinos siempre ha sido: ¿y a dónde van las larvas?".

La ayuda de mami

Sin embargo, hasta ahora, encontrar la respuesta ha sido extremadamente trabajoso: adherir monitores a las minúsculas larvas no es una tarea fácil.

Así que el equipo internacional de investigadores enfrentaron el problema con la ayuda de la madre.

Lo hicieron de esta manera: recogieron hembras en un área de 0.3 kilómetros cuadrados de arrecife en la Bahía de Kimbe, Papúa Nueva Guinea, y les inyectaron con un raro isótopo estable de bario.

Las hembras pasaron el isótopo a sus vástagos en desarrollo, y así la sustancia se acumuló en sus huesos, dándole al pez bebé marcas químicas únicas.

Pocas semanas después, el equipo retornó al coral y recogió a los peces jóvenes para hacerles pruebas y revisar si portaban el "monitor".

"Encontramos que el 60% -más de la mitad- habían regresado a la reserva de la pequeña isla, lo cual fue un resultado inesperado", dijo a la BBC el profesor Jones.

Hazaña

Los científicos no saben bien cómo es que los coloridos peces payaso naranja y los peces mariposa vagabundos lograron esta hazaña, pero esperan descubrirlo con nuevas inevstigaciones.

"Quizá se mantienen de alguna manera en contacto sensorial con su isla de origen y son capaces de seguir en su posición sin terminar lejos a la deriva", dijo Jones.

"O quizá continúan yéndose lejos, pero tienen un mecanismo hogareño para nadar de regreso a su arrecife original".

Aunque el estudio fue realizado en dos especies, el profesor Jones piensa que el hallazgo podría aplicarse a otros peces de arrecife de coral, y si ése es el caso, podría tener consecuencias para la conservación marina.

El experimento muestra que las pequeñas reservas marinas son una buena forma de proteger especies que están siendo pescadas en exceso, dijo, porque habría suficientes peces jóvenes regresando al área como para sostener un buen número con el paso del tiempo.

Fuente: BBC MUNDO, 4 de Mayo de 2007

 


 

-El rover Spirit encuentra evidencias de explosiones volcánicas del pasado

Spirit ha descubierto evidencias de vulcanismo explosivo marciano en los estratos de una meseta (Home Plate) de las Colinas Columbia.

Hay evidencias muy claras que demuestran que estas capas proceden de una erupción volcánica. El área cercana a Home Plate está dominada por basaltos, algo que puede ser una muestra más de la existencia de vulcanismo explosivo. Una de las formas en la que se genera erupciones explosiones es cuando la lava contacta con el agua. La creciente concentración de vapor es lo que finalmente produce la explosión.

Los científicos sospechan que Home Plate se formó por la interacción de lava basáltica y agua. La composición de la roca de los alrededores muestran señales relacionadas con la existencia de agua. Un ejemplo es la alta cantidad de cloro contenida en las rocas, quizás por el contacto entre el basalto y salmuera.

Uno de los fragmentos que con más evidencia demuestra el origen explosivo de Home Plate es una especie de abombamiento o depresión observado en los estratos de la meseta. Este tipo de marca se produce por el impacto en el pasado de rocas que eran expulsadas hacia el cielo por volcanes y caen sobre suelos blandos donde dejan marcada esa depresión.

Spirit decidió volver hacia Home Plate, después de pasar el largo invierno en   Low Ridge. Es una zona interesante para ser investigada. El pasado año exploró las caras norte y este. Ahora investigará las del sur y oeste.

Con este nuevo hallazgo se añade otra prueba que indica la existencia de agua en Marte ( en el pasado y/o actualmente).

Fuente: NASA, 3 de Mayo de 2007

 

 

-La energía nuclear centra el debate sobre el cambio climático

El uso de la energía nuclear como herramienta de mitigación de los gases de efecto invernadero mantiene abierto el debate para redactar la conclusión del Tercer Grupo de Trabajo del IV Informe del Panel Intergubernamental de Cambio Climático (IPCC), que se reúne desde el lunes en la capital tailandesa, Bangkok.

Delegados de 150 países se han enfrentado esta semana a la redacción final del que presumiblemente será el más significativo de los tres informes que este año presentará el IPCC. En este caso se centra en las recomendaciones que 3.000 científicos hacen a la comunidad internacional para mitigar los gases de efecto invernadero.

Concepción Martínez López, subdirectora de Cambio Climático del Ministerio de Medio Ambiente, declaró telefónicamente a elmundo.es desde la misma sala del Plenario, que "estamos a punto de cerrar el texto general, aunque quedan muchos corchetes y párrafos por acordar". Eran las 23.00 horas en aquella ciudad asiática.

Uno de ellos es el referido a la energía nuclear, que no emite gases de efecto invernadero, y que numerosos países dirigidos por EEUU quiere designar como una de las fuentes energéticas capaces de mitigar el cambio climático. Sin embargo, Martínez López no considera tan importante el debate aunque haya finalmente una referencia a la energía nuclear.

"Aquí se ha acordado que lo más importante de todo es la eficiencia energética. Después y más o menos por orden de importancia se dará un espaldarazo a las energías renovables, a la captura y secuestro de carbono y habrá, seguramente, una referencia a la energía nuclear", dijo.

Al margen de cuáles son las energías que reciben más apoyo de los científicos para mitigar el calentamiento global, el documento que hoy se dará a conocer contiene una llamada a la esperanza: "La mitigación es urgente, pero es factible", dirá la comunidad científica. Los reunidos han concluido que se puede frenar el nivel de emisiones de gases de efecto invernadero con las tecnologías actuales, y crecerá esa capacidad si se potencia la I+D en este terreno y se añaden incentivos de implantación.

Además, el documento contendrá una novedad también positiva: los costes para detener el nivel de emisiones son inferiores a los que se habían previsto en el III Informe del IPCC, hace seis años. Esta rebaja viene motivada en gran parte a la fuerte expansión de las energías renovables en todo el planeta.

El informe que se conocerá hoy ha sido precedido por el presentado en París en febrero, dedicado a las causas físicas del cambio climático; y al presentado en Bruselas en abril, que se centraba en los impactos. Una vez conocidos los tres documentos, el IPCC celebrará una cumbre en noviembre en Valencia para hacer el definitivo documento de síntesis, que tendrá vigor durante los próximos cinco años.

Fuente: El Mundo,  3 de Mayo de 2007

 

 

-La nanotecnología se apresta a utilizar la luz que pasa por agujeros pequeños

En la segunda parte de sus aventuras, A través del espejo, Alicia le comenta a su gato: "¡Imagínate que el espejo se ablandara hasta convertirse en una especie de gasa, de manera que pudiéramos franquearlo con toda facilidad!". Quienes piensen que Lewis Carroll padecía un exceso de imaginación, sepan que al final no iba tan desencaminado.
 

El físico-químico Thomas Ebbesen (Oslo, 1954) descubrió en 1989 algo digno del magín del escritor británico, aunque con más aplicaciones prácticas. Iluminó una fina película de oro en la que había practicado millones de agujeros microscópicos. Midió la luz que conseguía pasar a través de ellos y... la cantidad de luz que se encontró al otro lado era entre cien y mil veces mayor que la que cabría esperar. Cada agujero parecía aliarse con los demás para hacer pasar mucha más luz que si estuviera aislado.

Aquel descubrimiento se le antojó a Ebbesen "un espejo mágico". Y lo explica: "Normalmente, en un espejo te ves a ti mismo. Pero en este caso, a determinadas longitudes de onda [o lo que es lo mismo], iluminados por luz de ciertos colores, la luz atravesaba el metal y proyectaba la imagen al otro lado de la superficie". Dicho de otro modo, la luz conseguía atravesar el espejo.

"Nadie me creía al principio. Y yo no tenía ninguna explicación". En aquel entonces, Ebbesen trabajaba en nanotubos de carbono, otra aplicación de la nanotecnología: "¡Es que ni siquiera soy óptico!", afirma divertido. "Si eres científico, te debes a tu campo de estudio... Claro que yo he cambiado muchas veces de terreno". Le llevó nueve años tener una explicación para el fenómeno, que se publicó como artículo en la revista
Nature en febrero de 1998. Con la ayuda de la teoría óptica, dio con la clave: "La luz atravesaba la lámina porque de hecho quedaba atrapada por los electrones de la superficie del metal, que la transportaban al otro lado y la liberaban allí".

El fenómeno físico que lo explica son los plasmones: fotones atraídos y atrapados por electrones libres. Los plasmones hacen que la luz resulte moldeable, algo difícil de imaginar para los profanos: "Es cierto que la luz es un espíritu libre, pero haciéndola interactuar con electrones libres en el metal, se queda atrapada y consigues tener control sobre ella hasta cierto punto. Puedes lograr que cambie de dirección o incluso que gire en círculo". El siguiente paso es construir cauces por los que hacerla correr a voluntad.

Ebbesen, ahora director del Laboratorio de Nanoestructuras de la
Universidad Louis Pasteur de Estrasburgo, se ha reunido recientemente en Madrid con otros miembros del proyecto europeo PLEAS (acrónimo inglés de Fotónica Desarrollada por Plasmones), que agrupa a su universidad con la Autónoma de Madrid y la de Zaragoza, centros de investigación de Alemania, Reino Unido y Suiza, y dos empresas del sector de la iluminación y la tecnología de la información, Osram y Sagem.

Confinar la luz para usarla para transmitir información es cosa corriente en el caso de la fibra óptica. El volumen de información que la luz es capaz de transportar la hace bien apetecible a la industria. Pero en la escala de lo nano, la de los chips y los componentes electrónicos, la luz empieza a comportarse de manera caprichosa: "Cuando la introduces en un tubo, si su tamaño es menor que el de la longitud de onda, comienzas a tener problemas. La luz no quiere estar ahí, se siente incómoda y escapa", explica el científico noruego. Ésta ha sido la mayor dificultad para desarrollar circuitos ópticos, mucho más rápidos, que sustituyan a los actuales electrónicos.

La construcción de esos canales para la luz es labor del escultor más minucioso, el que trabaja a escala microscópica, y empleando materiales metálicos capaces de controlar el flujo de luz. Amigo de metáforas, Ebbesen ilustra: "Es como si construyéramos valles microscópicos para que fluya el agua por ellos". Unos valles y cauces con sus grutas. "Sí, también diseñamos grutas microscópicas", por las que la luz puede sumergirse.

Este carácter maleable de la luz ha llevado a algunos teóricos a plantear incluso la invisibilidad. Si se consigue curvar un haz de luz que se dirija a un observador de modo que esquive un objeto que encuentre en el camino, el observador no vería ese objeto, sino sólo el haz de luz. Es decir: el objeto no existiría para él. Ebbesen considera esta idea "conceptualmente interesante, pero es improbable que tenga ninguna aplicación". "Aunque", insiste, "lo que hemos visto ya es casi ciencia-ficción".

Lo cierto es que la plasmónica ha abierto un nuevo campo de posibilidades tecnológicas, como demuestra el proyecto PLEAS. El objetivo es crear nuevos fotodetectores para todo tipo de aplicaciones, desde teléfonos móviles hasta cámaras más sensibles y baratas. También aportan su grano de arena contra el calentamiento global, creando unos nuevos LED (diodos emisores de luz como los habituales en los semáforos modernos) más eficientes y de menor consumo energético.

"Podemos lograr fotodetectores capaces de medir el tamaño de las moléculas, ver por ejemplo la membrana, una sola capa molecular, de una célula", dice Ebbesen. Preguntado acerca de su mayor reto para los próximos años, enmienda la cuestión: "Más que de retos, hablemos de sueños".

Su sueño, pues, es la construcción de un chip óptico tan pequeño que quepa entero sólo en la zona de contacto de un chip electrónico actual. El objetivo es optimizar la transferencia de información: "Actualmente, un chip tiene que convertir su señal eléctrica en óptica, esta señal viaja por fibra óptica de aquí al otro extremo del mundo, y el chip receptor tiene que traducir de nuevo esa señal óptica a eléctrica". Unos chips totalmente ópticos evitarían esas conversiones y ahorrarían tiempo.

Las aplicaciones de esta nueva tecnología trascienden la domótica y la informática. Se apunta a nuevas terapias contra el cáncer, por medio de dianas fotosensibles que viajarían por el flujo sanguíneo y se fijarían sobre las células malignas. Un haz de luz desde fuera lograría destruirlas.

Ebbesen se encuentra en uno de los salones de un hotel madrileño, iluminado por lucernarios. ¿Cómo contempla uno de estos rayos de luz alguien que la conoce tan bien? "Ningún científico es capaz de pensar en términos totalmente abstractos. Necesitamos hacernos una imagen. Y para mí la luz tiene muchas facetas, cada día aprendo cosas nuevas de ella, cada día completo la imagen que tengo de la luz. Lo primero que me anima a jugar con ella es la belleza. La belleza estética y la del modo que tiene de interactuar con la materia".

Fuente: El País, 3 de Mayo de 2007


 

-Internet, los cohetes y la radio: los mejores inventos del hombre 

Más de 100 investigadores, comunicadores y profesionales ligados a la ciencia acaban de elegir, a petición de la revista británica Spiked, la innovación más importante de la Historia, con resultados tan dispares como el cohete o la radio en directo.

Lo único que parece tener en común los inventos seleccionados es que, de forma no muy sorprendente, todos pertenecen al pasado reciente de nuestra especie. Muchos de ellos, de hecho, son casi unos recién nacidos tecnológicos, como las búsquedas en Internet o la manipulación de ADN.

Los participantes en la encuesta, entre los que se hallan seis premios Nobel, contestaron por 'e-mail' cuál es, en su opinión, la revolución más importante dentro de su área de trabajo. Por ello, las respuestas van desde lo evidente -el microscopio, señalado por el biólogo Lewis Wolpert- hasta lo más especializado -el matemático Benoit Mandelbrot se decantó por la teoría del caos, de la que él mismo es padre-.

El Nobel Tim Hunt, que investiga la división celular y su relación con el cáncer, aseguró en su respuesta que "no podríamos haber llegado a ninguna parte" sin la tecnología para recombinar ADN, según publica el diario
The Guardian. Algo más antiguo, aunque aún debe ser perfeccionado para llevar personas a Marte y más allá, es el cohete, seleccionado por el astrobiólogo Christopher McKay.

Los expertos del ámbito de la comunicación destacaron innovaciones que quizás llamen la atención en el contexto de una lista de avances científicos, pero que, sin embargo, han cambiado la vida de todos, y no sólo de los profesionales de la información.

Así, el periodista de la BBC Paul Parsons señaló la capacidad de editar y borrar errores, algo que hoy se da por hecho pero que no resultaba tan sencillo antes de la era digital. "Con la habilidad de corregir nuestros fallos viene la confianza de arriesgarse a errar, de experimentar", indica Parsons.

Por su parte, el escritor y divulgador Matt Ridley eligió la búsqueda aleatoria de información; en otras palabras, los buscadores de Internet. Ahora cuesta imaginarlo, pero hace sólo 10 años la mayoría de estudiantes se documentaban en la biblioteca del barrio y escribían sus trabajos en máquinas que no permitían volver atrás. "La búsqueda aleatoria ha revolucionado la comprobación de datos, el descubrimiento de nueva información, el seguimiento de pistas", según relata Ridley.

Otro periodista científico, el locutor británico de la cadena BBC Quentin Cooper, destacó "la radio, y en especial la radio en directo", por su capacidad para contactar "con casi todo el planeta de forma inmediata y sin filtros", algo que hoy es más fácil que nunca gracias, una vez más, a la tecnología digital e Internet.

Fuente: El Mundo, 3 de Mayo de 2007



 

-COROT detecta su primer planeta

La sonda COROT ha cogido a los científicos por sorpresa regalándoles un magnífico descubrimiento: un exoplaneta, el primero de lo que puede ser una larga lista.

Representación artística del nuevo planeta descubierto

La precisión de las observaciones realizadas por COROT muestran que está capacitada para detectar planetas rocosos del tamaño de la Tierra y posiblemente de su composición.

Pero esta sonda no busca sólo descubrir nuevos planetas, también ha sido diseñada para el análisis del interior de las estrellas (astrosismología). Los dos objetivos se cumplen cuando capta la luz de una estrella. Al producirse una disminución en la intensidad de la señal luminosa, el satélite detecta al cuerpo que se introduce en el haz. Entonces se detecta algo parecido a la gráfica de abajo.

Los estudios sobre astrosismología se basan en el análisis de las oscilaciones producidas en la luz detectada de la estrella. Estas oscilaciones se generan por vibraciones del interior de la estrella. Su precisión hace que pueda captar pequeñas variaciones en la luminosidad de la estrella.

COROT hace observaciones continuas de un objetivo dentro de un área del espacio. Sus observaciones científicas empezaron hace 60 días. 

El planeta descubierto es un gigante gaseoso con una temperatura muy cálida. Lo han bautizado con el nombre de Corot-Exo-1b. Su radio es 1,78 veces el de Júpiter. Gira entorno a una estrella similar al Sol, en un periodo de traslación de 1,5 días. Se encuentra a una distancia de 1500 años luz de nosotros siguiendo la dirección de la Constelación de Unicornio. Su masa es 1,3 la de Júpiter.

La gran cantidad de datos enviados por la sonda requieren un tiempo para ser digeridos por el equipo de científicos que está al frente de COROT. A pesar de eso, los resultados de los primeros datos vistos son extraordinarios. El equipo está trabajando mejor de lo esperado según afirma Malcolm Fridlum, Científico del Proyecto COROT.

 Fuente: ESA, 3 de Mayo de 2007

 

 

-Astrónomos estadounidenses descubren un enorme planeta extrasolar

Astrónomos del Centro de Astrofísica Harvard-Smithsonian (CfA) anunciaron hoy el descubrimiento del planeta extrasolar más grande jamás detectado.

En un comunicado difundido a través de su sitio en internet, los científicos de CfA señalaron que el gigantesco planeta, identificado como HAT-P-2b, tiene ocho veces la masa de Júpiter, el más grande de los planetas del sistema solar, además de una enorme fuerza gravitatoria.

Según explican los astrónomos, en la Tierra una persona de 70 kilos pesaría en ese planeta alrededor de una tonelada.

Además, HAT-P-2b, que tiene un movimiento de traslación de sólo 5,63 días, se mueve en una órbita elíptica que lo acerca a casi cinco millones de kilómetros de su sol para alejarse luego a unos 15,3 millones de kilómetros.

HAT-P-2b gira en torno de una estrella tipo F, que son casi dos veces más grandes y más candentes que nuestro Sol y fue ubicado a unos 440 años luz en la constelación de Hércules.

Se le llama planeta de tránsito porque cada cinco días y 15 horas pasa frente a su sol mirado desde la Tierra, causando lo que los astrónomos califican como "un mini eclipse".

Ese movimiento les ofreció una "oportunidad única" de medir su tamaño, señalan los astrónomos en el sitio de CfA.

"Este planeta es tan extraño que al principio pensamos que se trataba de una falsa alarma, algo que parecía ser un planeta pero que no lo era", manifestó Gáspár Bakos, astrónomo de CfA.

"Eliminamos todas las posibilidades y al final determinamos que estábamos en presencia de un planeta extraño", manifestó.
 

Fuente: Iblnews, 3 de Mayo de 2007

 

 

 -La NASA celebra el aniversario de sus satélites con fotos espectaculares

La NASA parece haber adoptado la política de celebrar los aniversarios de sus satélites con la publicación de fotografías, cada una más espectacular que la anterior. Esta semana, la agencia espacial estadounidense tuvo la oportunidad de realizar una de esas celebraciones por partida doble.

Por una parte, publicó impactantes imágenes de las lunas de Júpiter tomadas por su sonda 'New Horizons' y, por otra, la de una galaxia captadas por el satélite 'Galaxy Evolution Explorer' (GALEX).

La publicación de esas fotografías en la web de la NASA se produjo una semana después de que la agencia espacial difundiese las imágenes de una inmensa nebulosa en la Vía Láctea que muestra un caos cósmico en el que nacen y mueren las estrellas.

Esas vistas fueron publicadas al cumplirse 17 años desde que el observatorio espacial 'Hubble' fuera instalado en una órbita terrestre para iniciar lo que los astrónomos consideran una de las misiones científicas más productivas de la agencia espacial.

La imagen cubre una distancia de 50 años luz en la nebulosa Carina, que contiene al menos una docena de estrellas que, según los cálculos, serían entre 50 y 100 veces más grandes que el Sol de nuestro sistema.

La más importante, a unos 7.500 años luz de la Tierra, es 'Eta Carinae' que se encuentra en la última etapa de su vida, según lo evidencian las nubes de gas y polvo que son el presagio de su muerte explosiva que la convertirá en una supernova.

Júpiter y sus lunas

Io fotografiado por New Horizon

La otra serie de fotografías publicadas el martes corresponden al inmenso planeta Júpiter y a sus lunas mayores: Io, Europa, Ganimedes y Calisto.

La NASA señaló que en su largo viaje hacia Plutón, 'New Horizons' ha proporcionado a los astrónomos no sólo datos "asombrosos" sobre el planeta, sino también perspectivas "nunca antes vistas" de la atmósfera del planeta, sus anillos, lunas y magnetosfera.

Entre esas imágenes figuran la de una enorme tormenta en la superficie de Júpiter, los anillos del planeta y, en uno de ellos, los indicios de polvo cósmico que delatan el impacto reciente en términos astronómicos de un cuerpo externo.

"Aparte de preparar nuestra llegada a Plutón en 2015, la aproximación a Júpiter fue una prueba para nuestra nave y para nuestro equipo científico. Ambos la han superado con excelentes calificaciones", dijo Alan Stern, principal investigador y director de la misión 'New Horizons' en una conferencia de prensa en Washington.

En su acercamiento a unos 2,2 millones de kilómetros de Júpiter, la sonda aprovechó la fuerza gravitatoria del planeta para reducir en tres años su largo viaje hacia Plutón, el hasta hace poco considerado noveno planeta del sistema solar.

Ese encuentro más cercano con Júpiter ocurrió el 28 de febrero y en él la nave que tiene el tamaño de un piano enfocó sus siete cámaras sobre el planeta y sus cuatro lunas mayores.

La galaxia 'M81'

La última imagen, y la más espectacular por su profundidad y colorido, corresponde a la de la galaxia 'M81' tomada por GALEX y que la NASA dio a conocer este martes para celebrar el cuarto año de observaciones astronómicas del satélite en el espacio.

En el centro de esa imagen se puede ver la galaxia en espiral y a su izquierda hay otra constelación llamada 'Holmberg IX' que es invisible al ojo humano pero se le ve brillar mediante los ojos ultravioleta de GALEX.

"Se trata de una vista espectacular de M81. Cuando nos propusimos observar esta galaxia con GALEX esperábamos ver conjuntos globulares y estrellas jóvenes. Esto es mucho más de lo que esperábamos", señaló John Huchra, del Centro de Astrofísica Harvard-Smithsonian, en Cambridge (Massachusetts).

La imagen es sólo una de miles captadas por el satélite que fue lanzado al espacio el 28 de abril de 2003 con la misión de utilizar la longitud de onda ultravioleta para contar la historia de la formación de las estrellas casi desde el momento en que surgió el universo con el 'Big Bang', según informó la NASA.

Fuente: El Mundo, 2 de Mayo de 2007