|
NOTICIAS CIENTIFICAS
--Nuevas Noticias Próximamente--
TITULARES DE LAS NOTICIAS DEL MES :
Identifican la proteína que nos hace sentir frío
¿Cuál es la alternativa a los combustibles fósiles?
El Gran Telescopio de Canarias estará listo dentro de un año
El telescopio "Spitzer" de la NASA descubre nuevas galaxias enanas
Chip Power6 , el nuevo invento revolucionario de IBM
El futuro energético está en las papas
Crean un mapa del cuerpo humano tridimensional
Kioto pasa factura a los aviones
Nuevas imágenes de Cassini nos acercan a Titán
El dinosaurio nadador de La Rioja
Estados Unidos da Luz Verde a la primera píldora anticonceptiva que elimina la menstruación
Estrellas naciendo en Orión vistas por el telescopio Spitzer
Gro Harlen Brundtland: Hay que pasar ya a la acción porque el cambio climático está fuera de control
La UE da el primer paso para la creación de una Política Espacial Europea
La próxima guerra será por el agua
La ONU asegura que "estamos a las puertas de una extinción masiva de especies"
Guerra entre Microsoft y Linux
Los polos podrían fundirse en mil años
Fertilizar los océanos para obtener beneficios
Dos nuevos barcos de investigación oceanográfica para España
Crean un cerebelo artificial que permite a los robots comportarse como humanos
Medio ambiente quiere convertir los zoos en centros de conservación
Más de la mitad de los españoles no usan internet
Estados Unidos vetará en el G-8 todo compromiso sobre el cambio climático y ahorro de energía
Cómo combatir el cambio climático según Antonio Ruiz de Elvira
SpeciesBase, nace una web para clasificar la vida
El Hubble permite descubrir la distribución de materia oscura alrededor de un cluster
Descubren una de las estrellas más vieja del universo
Avistada una bola de fuego en la península
La NASA se enfrenta con los problemas del espacia en el fondo del mar
Una supernova espectacular es descubierta por la NASA
La Universidad hebrea de Jerusalén anuncia el descubrimiento de la tumba de Herodes
Cinco grandes proyectos impulsan una nueva etapa en la genómica
Frenar el cambio climático es posible y más barato que renunciar a la acción
La huella de Tartessos conduce a Doñana
El gobierno de Canarias edita el libro historia de la ciencia
A Coruña celebra el Día de la Ciencia
"Nemo" sabe como volver a casa
El rover Spirit encuentra evidencias de explosiones volcánicas del pasado
La energía nuclear centra el debate sobre el cambio climático
La nanotecnología se apresta a utilizar la luz que pasa por agujeros pequeños
Internet, los cohetes y la radio: los mejores inventos del hombre
COROT detecta su primer planeta
La NASA celebra el aniversario de sus satélites con fotos espectaculares
-Identifican la proteína que nos hace sentir frío
Han conseguido identificar al responsable de que sintamos frío: es la proteína TRPM8, presente en las células del sistema nervioso y que se activa con las bajas temperaturas y al entrar en contacto con agentes químicos refrescantes como el mentol.
Este logro, que recoge en su edición de
Internet la revista científica británica
Nature, es resultado de
una investigación que científicos de las Universidades de
California y
Yale
y del
Instituto Médico de Wisconsin,
todos en EE.UU., llevaron a cabo con ratones.
Al estudiar el comportamiento de los roedores, los expertos vieron que aquellos
que carecían de la proteína TRPM8, que se activa con temperaturas inferiores a
los 26 grados centígrados, tenían problemas para sentir frío cuando el
termómetro marcaba los 10 grados centígrados.
Esto, sin embargo, no sucedió con temperaturas extremas, circunstancia que,
según los científicos, los ratones carentes del TRPM8 trataban de evitar a toda
costa. "Nuestro estudio da muestras del papel esencial y predominante que la
TRPM8 desempeña en las sensaciones térmicas en un amplio espectro de
temperaturas", afirman los investigadores en su artículo.
Esto hace válida la hipótesis de que los canales TRP, encargados de controlar la
entrada de calcio a la célula, "son los principales sensores de los estímulos
térmicos en el sistema nervioso periférico", añaden. El 17% de las neuronas de
los roedores dotados de esta proteína reaccionaron al frío o al mentol -alcohol
refrescante-, mientras que las de aquellos carentes de la TRPM8 no ofrecieron
respuesta alguna.
Esta diferencia en la respuesta a los cambios de temperatura es mucho menor en
el caso del calor: en torno a un 40 por ciento de las neuronas de ambos tipos de
roedores reaccionaron a un ascenso del mercurio del termómetro.
Fuente: EFE, 31 de Mayo de 2007
-¿Cuál es la alternativa a los combustibles fósiles?
Muchos son los que consideran que los biocombustibles pueden ser la panacea para nuestras carencias energéticas y las crisis de pobreza mundial. Sin embargo, un nuevo informe de las Naciones Unidas sugiere que, sin una buena planificación, estos nuevos recursos energéticos pueden llegar a causar tantos problemas como los que solucionan.
Las tecnologías bioenergéticas modernas
que producen calor, electricidad y combustibles para el transporte están
avanzando rápidamente. Recientemente han despertado gran interés los
biocombustibles líquidos, concretamente el etanol y el biodiésel. Los últimos
cinco años, la producción mundial de estos biocombustibles se ha doblado, y
probablemente lo volverá a hacer en los próximos cuatro años.
Muchos países de todo el mundo, desde Argentina hasta Malasia, pasando por la
India o Zambia, han promulgado nuevas políticas a favor de los biocombustibles
durante los últimos años. La política energética de la UE dicta que antes de
2020 al menos un 10% de todos los combustibles deberán ser biocombustibles.
No resulta sorprendente que el interés mundial por la bioenergía haya crecido
rápidamente durante estos últimos años, afirma Mats Karlsson, Presidente del
programa ONU-Energía, que publicó el informe "Sustainable
Bioenergy: A Framework for Decision Makers".
"¿Qué puede ser más atrayente que la energía producida en casa, basada
esencialmente en la fotosíntesis basada en la luz y el agua y que ofrece nuevos
empleos y oportunidades de desarrollo?".
En efecto, el desarrollo de las industrias bioenergéticas, incluidos los
biocombustibles, podría ofrecer un suministro de energía limpia a millones de
personas que actualmente carecen de tal suministro, según sugiere este informe.
Por ejemplo, el hecho de cocinar con fuentes tradicionales de bioenergía como la
madera ha causado muchos problemas de seguridad y de salud a muchas personas que
viven en el mundo en vías de desarrollo, especialmente a las mujeres, quienes se
han visto encerradas en un ciclo de pobreza. El acceso a fuentes energéticas más
modernas podría ayudar a reducir estos problemas y sacar a muchas poblaciones de
la pobreza.
Las nuevas industrias bioenergéticas también podrían ofrecer un potencial
importante de creación de empleo y generar ingresos, especialmente en zonas
rurales de algunas de las regiones más pobres del mundo, dado que la gran
mayoría del empleo relacionado con la bioenergía se produce en la agricultura,
el transporte y el procesamiento.
Sin embargo, este informe alerta de que esta prosperidad acarrea otros
problemas. En primer lugar, la demanda de terreno para cultivos bioenergéticos
podría ejercer presión sobre otros usos, principalmente en los cultivos de
alimentos, lo que probablemente comportaría un aumento de los precios de
alimentos básicos como los cereales. De forma similar, dado que la producción de
materias primas para biocombustibles también requiere un importante
abastecimiento de agua, esto puede disminuir la disponibilidad de ésta para el
uso doméstico, lo que amenazaría la salud y la seguridad de gran parte de la
población.
En segundo lugar, dado que los biocombustibles se producen y se tratan a gran
escala, los autores temen que una transición hacia estos combustibles desplace
fuera de sus tierras a los agricultores más pobres del mundo y agudice su
pobreza.
El informe también señala las repercusiones que la producción de biocombustibles
podría tener sobre el medio ambiente. Dependiendo de la elección de materias
primas y de lo que éstas sustituyeran, unos buenos métodos agrícolas, como los
cultivos intercalados y la rotación de cultivos, podrían tener repercusiones
neutras e incluso positivas para el medio ambiente circundante, se afirma en
este documento.
Sin embargo, los cultivos que tienen finalidades energéticas generalmente suelen
presentarse en forma de monocultivos de gran escala, cosa que, según se alerta
en el estudio, podría llevar a una pérdida importante de biodiversidad, una
erosión del suelo y la lixiviación de nutrientes. Se destacan los casos de la
India, Sri Lanka y Tailandia, donde los cultivos de biocombustibles ya han
llevado a una deforestación a gran escala.
Incluso cultivos más variados y sostenibles que tengan finalidades energéticas
podrían perjudicar el medio ambiente si sustituyen las selvas y praderas, se
señala en este informe. Otros impactos potenciales son la eutrofización del
agua, la acidificación de los suelos y las aguas superficiales e incluso la
disminución del ozono.
Este informe concluye sugiriendo un marco de trabajo para que las autoridades
políticas fomenten la producción y el uso sostenibles de biocombustibles y otras
fuentes de bioenergía para generar los máximos beneficios para los pobres y para
el medio ambiente. En el ámbito de la investigación y el desarrollo, este
documento hace un llamamiento a los gobiernos para que financien actividades que
fomenten el bien público, incluidas actividades de investigación fundamental sin
aplicaciones comerciales inmediatas, y la identificación de las necesidades de
bioenergía y de ámbitos para la investigación de políticas.
La energía nuclear es la solución
James Lovelock, considerado como un gurú de los verdes, asegura que la energía nuclear es la única manera de detener el calentamiento global y que ya no hay tiempo para desarrollar otras fuentes renovables.
Lovelock es el autor de la Hipótesis
Gaia, que desde la década de 1970 es aceptada por la comunidad científica a la
hora de entender y explicar los fenómenos climáticos de nuestro planeta.
Según esa hipótesis, la Tierra funciona como un organismo que se regula a sí
mismo, como si todos los organismos que en ella viven fueran responsables de que
sea apta para la vida.
Este cientifico es uno de los pioneros en la concienciación universal sobre el
calentamiento global, opuesto a los reactores nucleares como fuente de energía
para el planeta.
PASADO COMPROMETIDO
Lovelock se contaba entre los científicos que advirtió en 1989 a la primera
ministra Margaret Thatcher sobre el efecto invernadero.
El diario británico
The Independent recogía unas declaraciones de
Lovelack en las que el experto ecologista aseguraba que ahora cree que los
recientes fenómenos climáticos muestran que el planeta se está calentando a una
velocidad mucho mayor de la que predijeron los científicos del
Panel
Intergubernamental sobre Cambio Climático, de
las Naciones Unidas, en 2001. Sobre la base de esos datos, Lovelack sostiene que
no hay tiempo para reconvertir las fuentes de energía tradicionales -generadoras
de grandes emisiones de dióxido de carbono y que producen el efecto invernadero-
en otras como la eólica, la solar o la mareomotriz.
Lovelack sostiene que será una extensión de las centrales nucleares la que
permita evitar el rosario de catástrofes climáticas que pueden producirse por el
calentamiento global. En la línea del último éxito de Hollywood en cine
catastrófico -El día de mañana-, Lovelack cita el alarmante crecimiento de los
mares, los desastres climáticos, las inundaciones y la desaparición de grandes
áreas agrícolas. El científico asegura estar preocupado principalmente por dos
fenómenos recientes: el derretimiento de los hielos en Groenlandia, que eleva
los niveles de los mares, y la ola de calor que sacudió a Europa Central el año
pasado. El experto añade que los temores sobre la seguridad de la energía
nuclear "son irracionales y exagerados" y que "los verdes deben dejarlos de lado
por el bien del planeta".
Algunos grupos ecologistas ya han respondido a Lovelack: Greenpeace coincide en
la preocupación de Lovelock y en sus exigencias de respuestas drásticas frente a
los cambios climáticos. Sin embargo, Stephen Tindale, director ejecutivo de
Greenpeace en Inglaterra,
asegura que el gurú "está equivocado si piensa que la energía nuclear es parte
de la solución. La energía nuclear crea enormes problemas; no sabemos qué hacer
con los desechos, ni con las emisiones radiactivas, además de los riesgos de
accidentes y de ataques terroristas".
Fuente: Cordis, Expansión, 30 de Mayo de 2007
-El Gran Telescopio de Canarias estará listo dentro de un año
Para el próximo 13 de julio está previsto que el Gran Telescopio de Canarias (GTC), una de las principales instalaciones científicas españolas, afronte su prueba de fuego, la denominada primera luz, en la que la máquina astronómica capta por primera vez la luz de los astros en su espejo principal, o en parte del mismo en este caso.
Seguramente se
apuntará a Polaris, estrella que, por su posición en el cielo, exige poco
movimiento del telescopio para seguirla, explicó la semana pasada José Miguel
Rodríguez Espinosa, director científico del GTC, durante el congreso Astrid de
instrumentación científica celebrado en Madrid. Pero también se tomarán imágenes
de otros objetivos celestes que están aún por decidir, comentó. Tras 10 años de
trabajos, incluidos cuatro de retraso sobre el plan inicialmente previsto, el
GTC debe demostrar ahora que funciona. Su operación científica rutinaria tendrá
que esperar otro año más.
Con una decena de grandes telescopios del mismo rango -de espejo de ocho a 10
metros de diámetro- ya funcionando en el mundo, el observatorio español tiene
ahora el doble reto de desempeñar un papel clave para el avance de la astronomía
española y de ser competitivo en el marco científico internacional.
Tras la primera luz, el plan de los responsables del GTC, impulsado por el
Instituto de Astrofísica de Canarias, es
optimizar el telescopio e ir incorporando y probando los instrumentos de
observación previstos, algunos de los cuales están listos y otros en diferentes
fases de su desarrollo.
La primera luz se hará con la caja de guiado del telescopio y las cámaras se
instalarán después, aunque la cámara espectrógrafo Elmer, planeada como
instrumento de reserva, está ya lista. El instrumento Osiris tiene que pasar las
últimas pruebas y se instalará en el telescopio dentro de seis meses, y el
multiespectrógrafo Emir está previsto para 2009. Estos tres equipos se han
desarrollado en España, y a ellos se añade la cámara CanariCam, desarrollada y
construida en la
Universidad de Florida (EE.UU.),
que está terminada.
El GTC, cuyo coste es de 104 millones de euros (sin apenas encarecimiento sobre
lo previsto), está financiado al 90% por España, con un 70% a cargo de la
Administración Central y un 30% de la Comunidad Autónoma de Canarias, explica
Pedro Álvarez, director del telescopio. El 10% restante lo aportan la
Universidad
Autónoma de México y la Universidad de Florida.
Sin embargo, cuando en la década de los años noventa el entonces Consejo Asesor
de Grandes Instalaciones dio luz verde al proyecto, especificó que debía tener
una implicación de socios extranjeros abultada. "No pudo ser, las previsiones
iniciales fracasaron y sólo se consiguió la participación de México y Florida",
explica Miguel Angel Quintanilla, secretario de Estado de Universidades e
Investigación. "Pero ahora hay gran participación internacional en el GTC
gracias a la entrada de España en el
Observatorio Europeo Austral (ESO) y, de hecho,
parte de nuestro pago en especies de la cuota de ingreso en dicha organización
la hacemos en horas de utilización del GTC para ESO".
El espejo del telescopio estará formado por 36 segmentos exagonales que
compondrán una superficie de 10,4 metros de diámetro. Esta opción, frente a la
inicialmente considerada de espejo de una sola pieza, facilita enormemente su
transporte hasta el observatorio del Roque de los Muchachos (La Palma). Pero con
el tiempo la idea ha resultado además ser una gran ventaja tecnológica, porque
la siguiente generación de telescopios gigantes, como el ELT (de 40 metros) del
ESO y el futuro James Webb espacial, tendrán espejos segmentados. Por esto
adquiere valor añadido notable la experiencia del telescopio español, que heredó
la idea del espejo principal múltiple de los dos Keck estadounidenses, el
primero de ellos estrenado en 1990.
En la otra cara de la moneda, los espejos han supuesto no pocos quebraderos de
cabeza para los responsables del GTC, dadas las dificultades que ha tenido la
empresa francesa que los fabrica. Los problemas de pulido de los bordes están ya
solucionados, asegura Rodríguez Espinosa.
Los espejos han tenido bastante que ver en el retraso acumulado del proyecto,
que "pecó de excesivo optimismo inicial, aunque no podemos estar descontentos en
comparación con otros proyectos similares", dice Quintanilla. Pero no han sido
el único escollo.
Álvarez argumenta que el GTC ha afrontado los problemas normales de cualquier
proyecto de esta envergadura. Parte de los defectos de fabricación de la cúpula
se han subsanado y otros "ya sabemos como arreglarlos y lo haremos este verano,
pero optamos por aplazar las modificaciones necesarias para que no afectaran al
avance de la construcción y montaje del telescopio". También algunas piezas
estructurales dieron problemas. Ahora es el software de control del telescopio
el que preocupa, con el agravante de la escasez de personal para abordar esta
tarea que reconocen responsables del proyecto. En el proyecto trabajan 58
personas.
Con talante de mirar hacia adelante y de confiar en que las fases más
problemáticas han quedado atrás, muchos astrónomos españoles esperan la hora de
empezar a usar el GTC. "Es un elemento crítico en el desarrollo de la astronomía
española, hay científicos que ya están pensando en las observaciones que harán",
comenta Jordi Torras, gestor del Programa Nacional de Astronomía.
Quintanilla señala: "Ahora que se está terminando la puesta en marcha del
telescopio, esperamos que sea lo más provechoso posible; vamos a preparar los
protocolos para optimizar su utilización con los criterios de calidad científica
que deben tener todas las grandes instalaciones".
El GTC cuenta con explotar con éxito lo que se consideran sus especialidades,
frente a los telescopios hermanos o competidores que ya observan el cielo tanto
desde el hemisferio Sur como desde el Norte. "Con el instrumento Osiris podrá
destacar en el estudio de las galaxias activas, el universo violento", adelanta
Rodríguez Espinosa. "CanariCam es idóneo para estudiar discos protoplanetarios
fríos y Emir para observar galaxias en las que la formación estelar es intensa",
añade.
LOS ASTRÓNOMOS ESPAÑOLES PIDEN APOYO PARA LA INSTRUMENTACIÓN
La astronomía de primera línea internacional no se puede limitar a estudiar el
cielo con los mejores telescopios, sino que debe desarrollar a la vez
instrumentación avanzada para los mismos y poder abordar así los retos
científicos más candentes. La astronomía española, aunque ha alcanzado un buen
nivel, tiene todavía pendiente el salto hacia esa faceta instrumental para
seguir avanzando. En ambos puntos se mostraron de acuerdo los participantes en
la sesión de debate sobre el tema que se celebró la semana pasada en el congreso
'Desarrollo de Instrumentación Astronómica: futuros retos científicos y
tecnológicos', organizado por la red científica
Astrid de Madrid, con
participación de más de 150 expertos.
El reciente ingreso de España en el Observatorio Europeo Austral (ESO) parece
ser el catalizador que da carácter de urgencia a este reto de la instrumentación
astronómica si se quieren aprovechar plenamente las oportunidades que esa
organización brinda en cuanto a alta tecnología y experiencia en sus desarrollos
e instalaciones.
"Hacer un instrumento para un telescopio grande es un trabajo de muchos años y
exige mucha dedicación", señaló Carlos Eiroa, coordinador del debate. "¿Estamos
dispuestos, al propia comunidad científica, a crear el clima necesario para que
los jóvenes investigadores se involucren en esta vertiente de la astronomía?
¿Estamos dispuestos a presionar a las instituciones para que se apoye y se
promocione?", planteó.
Manuel Serrano, del
Centro para el Desarrollo Tecnológico e Industrial (CDTI,
del Ministerio de Industria) recordó que aunque se han hecho progresos en los
últimos años, "el sector no está aún estructurado. En el Gran Telescopio de
Canarias se están dando pasos importantes", y añadió: "El desafío ahora es ESO".
Varios expertos apuntaron la necesidad de incorporar personal técnico en las
instituciones científicas y mejorar el trabajo conjunto con las empresas
tecnológicas. Pese a que diferentes grupos españoles participan ya con éxito en
la creación de instrumentos internacionales, sobre todo de misiones de la
Agencia Europea del Espacio (ESA)
y de la astronomía solar, es un buen indicador del camino que aún queda por
recorrer el hecho de que no haya habido ni un investigador principal español en
misiones o proyectos internacionales.
"Astrid es un programa de coordinación de actividades de I+D, del programa
Regional de Ciencia y Tecnología de la Comunidad de Madrid, y se centra en el
desarrollo de instrumentos astronómicos, con 11 grupos científicos participantes
de universidades, instituciones y empresas", explicó Jesús Gallego, coordinador
de Astrid.
Fuente: El País, 30 de Mayo de 2007
-El telescopio "Spitzer" de la NASA descubre nuevas galaxias enanas
Las observaciones del telescopio espacial 'Spitzer', de la NASA, y el 'William Herschel', situado en la isla canaria de La Palma, han permitido calcular la existencia de miles de galaxias enanas hasta ahora desconocidas a algo más de 350 millones de años luz, una distancia casi inconcebible para nuestra mente pero relativamente cercana cuando se trata de estudiar esta clase de objetos.
Nuevas galaxias detectadas por Spitzer
Las galaxias enanas tienen un gran interés astronómico porque los científicos creen que fueron las primeras en surgir cuando el Universo aún era un recién nacido, de modo que las galaxias más grandes, como nuestra propia Vía Láctea, se formaron después como consecuencia de la acumulación de las más pequeñas.
Las miles de galaxias enanas recién descubiertas se encuentran en el llamado cúmulo de Coma, una densa estructura de forma esférica, con una longitud de 20 millones de años luz (la Vía Láctea mide unos 100.000 años luz, lo que significa que la radiación tarda ese tiempo en recorrerla). Los expertos ya sospechaban que dicho cúmulo, situado en la constelación de Coma Berenices, estaba formado por más de 1.000 galaxias, pero los nuevos datos recogidos por la cámara de infrarrojos del Spitzer han cuadruplicado esta cifra, según los sorprendentes resultados que presentó ayer la investigadora estadounidense Leigh Jenkins, en una conferencia de la Sociedad Americana de Astronomía en Honolulu, Hawai.
El 'Spitzer', que lleva casi cuatro años estudiando la energía de infrarrojos (es decir, calor) proveniente de los confines del cosmos, tomó una serie de 288 instantáneas del cúmulo de Coma.
Jenkins y su colega Ann Horschemeier, ambas pertenecientes al Centro de Vuelo Goddard de la NASA, construyeron un mosaico con estas imágenes y descubrieron cerca de 30.000 objetos, muchos de los cuales parecían galaxias enanas. El cosmólogo iraní Bahram Mobasher, del Instituto Científico del Telescopio Espacial, en Baltimore, partió de estos datos y empleó el observatorio 'William Herschel', situado en el punto más alto de isla de La Palma, para medir la distancia entre estas galaxias y calcular cuántas formaban parte del mismo cúmulo.
El resultado fue 1.200, aunque hay que tener en cuenta que sólo se estudió una fracción del cúmulo, por lo que el cómputo final asciende a un mínimo de 4.000 galaxias. Aun así, los investigadores ya están usando telescopios aún más potentes, como los Keck de Hawai, en busca de galaxias todavía más pequeñas que hayan pasado desapercibidas. "Estamos liquidando los anteriores estudios de cúmulos cercanos", explica Hornschemeier. "Gracias al 'Spitzer', podemos observar con profundidad cúmulos cercanos como el Coma en un corto periodo de tiempo".
Las galaxias que forman el cúmulo Coma tienen unos 15.000 millones de años de antigüedad, y forman parte de una constelación muy poco vistosa a simple vista -Coma Berenices- situada al oeste de Leo y al norte de Virgo, ambas mucho más populares.
La historia conocida de Coma Berenices, también llamanda Cabellera Berenices (coma, en latín, significa cabellera), se remonta al siglo III antes de Cristo. Mientras el faraón egipcio Ptolomeo III, apodado el Bienhechor, se encontraba en Siria combatiendo a sus enemigos, su esposa Berenices realizó un solemne juramento ante el altar de Afrodita: si su marido volvía sano y salvo, se cortaría sus largos cabellos y los entregaría a la diosa como ofrenda. El faraón, en efecto, regresó, y Berenices no tardaría en cumplir su promesa, pero se dice que un sacerdote egipcio, celoso de que una divinidad griega recibiera semejante honor, robó la melena del templo.
Berenices quedó desconsolada, pero pronto acudiría en su ayuda el astrónomo Conón de Samos, quien le aseguró que acababa de aparecer en el firmamento una nueva constelación, y que ésta era en realidad su antigua cabellera, recuperada y llevada a los cielos por Afrodita. Hoy en día, el inmenso cúmulo de galaxias continúa sorprendiendo a los científicos, pero aún debe su nombre a esta leyenda.
Fuente: El Mundo, 29 de Mayo de 2007
-Chip Power6 , el nuevo invento revolucionario de IBM
El sector de los chips vuelve a
agitarse. A principios de esta semana,
IBM
presentó en Londres su nuevo Power6, un microchip para servidores que opera a
una velocidad de 4,7 gigahercios (GHz), el doble que su antecesor, el Power5.
Eso sí, consumiendo la misma energía. Como medida de comparación, algunos
analistas recordaban que el Itanium 2 de
Intel tiene una velocidad de 1,66 GHz.
Con este movimiento, el gigante azul
quiere revolucionar el mercado. El microchip, que se comercializará en junio
(para la línea de servidores Unix incluida), tiene un acceso de ancho de banda
de 300 gigas por segundo.
Y mientras IBM trata de fortalecerse en el segmento de chips para servidores,
Intel y
AMD mantienen su disputa.
Esta última está ultimando el lanzamiento de los chips de cuatro núcleos de la
denominada Serie Barcelona. La firma está en disposición de empezar a producir
en masa sus nuevos procesadores, que se introducirían en los servidores durante
el tercer trimestre de este año.
Con la llegada de estos nuevos equipos, AMD aspira a volver a tener beneficios y
a recuperarse en bolsa. De momento, la compañía se ha visto favorecida por la
mejora en su recomendación por parte de los analistas de Think Equity Partners,
que han justificado su decisión en los pedidos recibidos por AMD de parte de
Dell.
Mientras, Intel ya prepara su respuesta industrial. En los próximos meses, la
multinacional lanzará los procesadores Penryn, presentados ya en el Intel
Developer Forum de Pekín. Una de las características que la empresa ha querido
destacar es la eliminación definitiva del plomo.
Además, Intel anunció esta semana una alianza con la europea ST Microelectronics
en el ámbito de los chips de memoria flash, usados sobre todo en los teléfonos
móviles, para integrar en una sociedad los activos de ambas en esta área. En la
nueva empresa, que tendría unos ingresos anuales de 3.600 millones de dólares,
va a entrar el grupo de capital privado Francisco Partners, que tomará un 6,3%
del capital (a través de la compra de acciones preferentes), valorado en 150
millones.
-El futuro energético está en las papas
Aunque la tecnología del hidrógeno es,
teóricamente, limpia e inagotable, aún pesa un importante obstáculo sobre esta
alternativa que -según el Departamento de Energía de EE.UU.- debería haberse
implantado ampliamente en vehículos a motor para el año 2020.
El impedimento está en el propio combustible: el hidrógeno libre no existe como
recurso, y debe obtenerse por descomposición de fuentes tales como gas natural,
agua, biomasa -mediante su fermentación a etanol- o hidrocarburos, siempre a
través de un proceso energéticamente costoso. Otro inconveniente es la
logística: el almacenamiento, transporte y manipulación. Para empeorar el
problema, expertos del
Instituto Tecnológico de California
advirtieron hace cuatro años que, en una hipotética «economía del hidrógeno»,
los escapes de este gas podrían «comerse» hasta un 10 por ciento del ozono de la
atmósfera.
¿PATATA NORMAL O SUPER?
El procedimiento detallado por Zhang y su equipo en la revista digital «Public
Library of Science» usa como materia prima el
almidón, un compuesto vegetal de reserva abundante en cultivos como la patata o
los cereales. Según el científico, cualquier otro polisacárido vegetal, como la
celulosa, sería una fuente válida. El secreto reside en el uso de una vía
biológica sintética, reuniendo trece enzimas que no se encuentran juntas en la
naturaleza.
Añadiendo el «cóctel» a una mezcla de almidón y agua, y mediante una reacción de
alta eficiencia a baja temperatura y a presión atmosférica, los reactivos se
descomponen en dióxido de carbono e hidrógeno. El primero es recogido en una
membrana, y el segundo alimenta la pila que genera electricidad para mover, por
ejemplo, el motor de un coche.
«Ecológico, eficiente y seguro: hemos matado tres pájaros de un tiro», declaró
Zhang. Y todo con un «combustible» que podría venderse en cualquier
supermercado.
Fuente: ABC, 29 de Mayo de 2007
-Crean un mapa del cuerpo humano tridimensional
Investigadores de una universidad
canadiense han creado el primer modelo virtual en cuatro dimensiones del cuerpo
humano, un dispositivo que no sólo permitirá comprender mejor la evolución de
ciertas enfermedades, sino incluso visualizar cómo tienen lugar en tiempo real.
La imagen, creada por ordenador,
permite ver un cuerpo humano en el que los órganos internos y el sistema
circulatorio aparecen coloreados en distintos tonos. La imagen se proyecta como
una especie de holograma en una sala oscura donde el modelo virtual parece
flotar. Precisamente el proyecto ha sido bautizado como 'CAVE man', un juego de
palabras con el 'hombre de las cavernas' que hace alusión a la oscuridad de la
sala que lo acoge.
La iniciativa, presentada esta semana en la universidad canadiense de Calgary,
comprende más de 3.000 elementos del cuerpo humano. Tal y como explican sus
creadores, el modelo puede ser manipulado a voluntad, como si de un videojuego
se tratase, para poder observarlo desde diversos ángulos o enfocar ciertos
órganos al detalle.
"La imagen está casi viva", se felicita Andrei Turinsky, especialista del
departamento de Bioquímica y Biología Molecular en la
Universidad de Calgary. "Esto nos permite
disponer por primera vez de un modelo completo del cuerpo humano, desde el punto
de vista anatómico, químico y de los tipos de tejidos que lo componen", ha
señalado Turinsky, uno de los padres del diseño.
Empleando técnicas de programación informática, los creadores han llegado a la
creación esta imagen que puede examinarse con unas gafas especiales. El
resultado es una especie de atlas completo del cuerpo humano en cuatro
dimensiones (las tres espaciales y el tiempo) que permite observar la evolución
de ciertas enfermedades o, por ejemplo, estudiar la reacción del organismo a los
medicamentos.
Fuente: El Mundo, 29 de Mayo de
2007
-Kioto pasa factura a los aviones
La UE prevé incluir a las aerolíneas en
el mercado de emisión de dióxido de carbono en 2011, lo que conllevará un gasto
medio anual cercano a los 50 millones de euros entre 2011 y 2017. La lucha
contra el cambio climático que, supuestamente, provocará en el futuro todo tipo
de catástrofes naturales, tal y como se esfuerzan en advertir los ecologistas,
tiene un precio.
El plan de la Comisión Europea (CE)
para incluir, en el año 2011, las emisiones de dióxido de carbono (CO2) que
genera la aviación continental en el mercado de derechos del Protocolo de Kioto
podría suponer, como mínimo, un coste cercano a los 350 millones de euros para
la economía nacional de 2011 a 2017. Además, según la CE, el precio de los
billetes podría incrementarse en 40 euros, en caso de que las aerolíneas estén
obligadas a comprar derechos de emisión para poder volar.
Según los últimos datos publicados por el
Ministerio de Medio Ambiente,
el tráfico aéreo español produjo 4,13 millones de toneladas de CO2 en 1990
-fecha base empleada por Kioto para limitar la emisión de gases de efecto
invernadero (GEI) de cara al futuro-. En 2005 (última cifra disponible), la
aviación nacional emitió 6,9 millones de toneladas de CO2 (el 1,57% del volumen
total de GEI generados por España en ese año)-, lo que representa un incremento
del 66,9% (un 3,5% anual), en quince años.
El próximo octubre, el Parlamento Europeo se expresará sobre la inclusión del
transporte aéreo en el mercado de emisiones a partir de 2011, una fecha que el
Gobierno español espera que se retrase hasta 2013. A partir de entonces, las
aerolíneas europeas estarían obligadas a entrar en el mercado de CO2, si sus
emisiones superan el volumen alcanzado en 2005 (año base para el cálculo en el
sector aéreo). Así, para 2011, suponiendo que el ritmo de crecimiento de las
emisiones del sector se mantuviera constante, España superaría en 1,58 millones
de toneladas (un 22,9%) el límite de Kioto.
Dicho volumen alcanzaría un precio aproximado de 31,6 millones de euros en 2011,
tomando como referencia el coste medio de 20 euros por tonelada de CO2. "El
precio más probable que está barajando el mercado en cuanto a la venta de
derechos de emisión de cara al futuro", explica el director de
CO2
Spain, Larry Philp.
COSTE
Esta tendencia al alza supondría un coste total acumulado de 353 millones de
euros para la economía nacional desde 2011 hasta 2017 (una de las fechas que se
barajan para aplicar la tercera fase de Kioto), unos 50 millones al año. Esta
factura se sumaría a los cerca de 3.000 millones de euros que calcula el
Gobierno para cumplir el segundo Plan Nacional de Asignaciones de 2008 a 2012,
aprobado recientemente por la UE, y que afecta a cerca de mil empresas del
sector industrial y energético.
Sin embargo, la cifra podría resultar, incluso, muy superior a estos cálculos
iniciales, teniendo en cuenta que los aeropuertos españoles atendieron 750.000
vuelos en los cuatro primeros meses del presente año (un 8,3% más que en el
mismo período de 2006), y que el tráfico aéreo internacional crecerá de media un
3,5% hasta 2020, según
Boeing. Mientras, la CE
no descarta recortar aún más el volumen de emisiones permitidas a los Estados
miembro.
Por ello, las aerolíneas españolas comienzan a preparase para el futuro. Spanair
prevé un aumento aproximado de sus emisiones de CO2 cercano al 7,3% de aquí a
2011, que espera compensar con la introducción de "avances tecnológicos en los
aviones, el uso de combustibles alternativos y la mejora de la gestión del
tráfico aéreo y demás instrumentos económicos como comercio de emisiones y tasas
reguladoras, etcétera". Todavía queda saber cuándo se verá afectado el tráfico
por carretera, otro de los sectores exentos de Kioto, que, en España, generó 95
millones de toneladas de CO2 en 2005 (más del 20% del total).
BRUSELAS BUSCA LA MANERA DE COBRAR EL CO2
La Unión Europea trabaja en la inclusión del transporte aéreo en el comercio
desde hace casi cinco años. A lo largo de este periodo, los países han
presentado doce sistemas distintos para tratar de limitar los gases que emiten
los aviones en la atmósfera. No obstante, actualmente, se barajan sólo dos
posibilidades: la ecotasa o la entrada en el comercio de emisiones. La primera
iniciativa implica gravar los billetes que adquieren los viajeros, con un
impuesto verde por la contaminación del vuelo.
Otra posibilidad, que según el director de CO2 Spain, Larry Philp, supondría un
sistema más práctico y sencillo, hubiera consistido en gravar con más impuestos
el consumo de combustible de los aparatos, en contraposición "al complejo
sistema de derechos de emisión". Sin embargo, todo apunta a que será esta última
propuesta la que salga adelante. Según la Comisión Europea, "los operadores
aéreos podrán comprar créditos de emisión de otros sectores dentro de la UE para
cubrir el límite de emisiones".
Esto afectará a todos los vuelos que se realicen entre países europeos a partir
de 2011 y, desde 2012, a todos aquéllos con destino o salida en cualquier país
de la UE. La cifra exacta de derechos de emisión para el sector aéreo se fijará
en relación a la media de emisiones de la industria entre 2004 y 2006, si bien,
"un porcentaje fijo quedará exento de pago". La asignación de derechos para los
dos primeros años (2011 y 2012), vendrá determinada por lo que hayan establecido
los miembros de cada Estado, que estarán representados en un único órgano
comunitario.
Además, los operadores aéreos deberán llevar un control de sus emisiones, cuyo
informe será remitido a la autoridad competente cada 31 de marzo. No obstante,
hasta el próximo octubre no se sabrá la propuesta final.
Fuente: Expansión 28 de Mayo de 2007
-Nuevas imágenes de Cassini nos acercan a Titán
Titán, la luna mayor de Saturno, tiene mares, montañas, islas y bahías y su topografía es similar a la de la Tierra, según revelan fotografías transmitidas por la nave espacial 'Cassini' y publicadas por la NASA.
Sin embargo, los mares de Titán no son azules ni son de agua, sino que son negros intensos debido a que sus componentes principales son metano y etano, señaló la agencia estadounidense en un boletín.
Imagen
de Cassini del pasado 12 de Mayo donde se muestra una línea de costa y numerosas
islas en un gran mar
Según los científicos de la NASA, la ausencia de brillo en algunas regiones
mostradas por las fotografías sugiere que la profundidad del líquido "marino"
sería de varios metros al menos.
Por otra parte, el contorno de las islas sigue la misma dirección de las
penínsulas, lo que indicaría que han sido formadas por una inundación.
Las imágenes fueron captadas por el radar de 'Cassini' el pasado 12 de mayo
cuando la nave realizaba su aproximación número 31 a Titán.
La misión de 'Cassini' es un proyecto conjunto de la NASA, la
Agencia Espacial
Europea y la
Agencia Espacial
de Italia.
La sonda inició su misión el 15 de octubre de 1997 y entró en la órbita de
Saturno en julio de 2004.
En enero de 2005 se desprendió de la sonda 'Huygens', que descendió sobre Titán
y de inmediato comenzó a transmitir información sobre sus condiciones
ambientales.
Titán no sólo es la luna más grande de Saturno sino también la segunda más
grande del sistema solar, sólo comparable a Ganímedes, uno de los 16 satélites
de Júpiter.
Pese a estar clasificado en la misma categoría que, por ejemplo, la Luna, Titán
es más grande que planetas como Mercurio o Plutón.
La temperatura de la superficie de Titán parece ser de unos -178 °C. Tiene una
atmósfera más densa que las de Mercurio, la Tierra, Marte y Plutón, y la presión
atmosférica es de unos 1.6 bares, un 60% mayor que la de la Tierra.
Fuente: EFE, NASA, 28 de Mayo de 2007
-El dinosaurio nadador de La Rioja
Hubo dinosaurios que volaban, pero ahora también sabemos que eran capaces de nadar con soltura. Así lo demuestran las huellas halladas en La Rioja, primera evidencia científica de que aquellos grandes seres del Cretácico flotaban sobre las aguas.
El dinosaurio nadador podía ser así
El hallazgo de unos arañazos fosilizados en el yacimiento de la Virgen del Campo, en el municipio riojano de Enciso, fueron la pista que llevó al paleontólogo español Rubén Ezcarra, de la Fundación Patrimonio Paleontológico de La Rioja, y al francés Loic Costeur, de la Universidad de Nantes (Francia) a la confirmación de algo que ya se sospechaba, pero que no había podido demostrarse con certeza.
El equipo encontró 12 huellas consecutivas del mismo ejemplar en un rastro de unos 14 metros. Se trataba, según explican en la prestigiosa revista Geology, de la Sociedad Americana de Geología, de un dinosaurio terápodo no volador que iba flotando, dado que las huellas se corresponden con la señal que dejaron sus uñas al rozar el fondo de la laguna en cuyos alrededores vivía.
El rastro revelador lo forman seis pares asimétricos de arañazos de un promedio de 50 centímetros de longitud por 15 de ancho. El espacio entre ellos sugiere que el dinosaurio daba los pasos a un intervalo de entre 2,43 y 2,71 metros y a una profundidad de unos 3,2 metros dentro del agua, como indican los sedimentos.
Fuente: El Mundo, 25 de Mayo de 2007
-Estados Unidos da Luz Verde a la primera píldora anticonceptiva que elimina la menstruación
La Agencia Federal del Medicamento (FDA) ha aprobado la venta en las farmacias de los Estados Unidos de la primera píldora anticonceptiva que suprime de forma indefinida el ciclo menstrual de las mujeres. El producto, que se comercializará con la marca Lybrel, utiliza una combinación en bajas dosis de las hormonas sintéticas utilizadas por otros anticonceptivos orales. Pero con la peculiaridad de que los envases de 28 píldoras para un mes no incluirán los múltiples placebos que normalmente permiten el ciclo menstrual.
El fármaco, desarrollado por la
compañía
Wyeth Pharmaceuticals y
que se espera comercializar a partir del mes de julio con receta, es presentado
como ideal para aquellas mujeres que sufren de excesivas molestias y
complicaciones durante sus periodos, pero también para las interesadas en
eliminar de sus vidas esta parte incómoda de la biología reproductiva. Según ha
recalcado Amy Marren, portavoz de los laboratorios fabricantes, «hay muchas
mujeres que consideran esto como una gran opción».
A tenor de las investigaciones facilitadas a la FDA, durante dos pruebas
clínicas realizadas con 2.400 voluntarias durante un año, este producto
farmacéutico ha demostrado ser tan efectivo a la hora de evitar embarazos como
otras píldoras anticonceptivas estándares. Logrando suprimir completamente la
menstruación durante el primer año de consumo, aunque con el desagradable efecto
secundario de hemorragias y pérdidas de sangre esporádicas.
Grupos de activistas a favor de los llamados derechos reproductivos han dado la
bienvenida al lanzamiento de Lybrel. Según ha insistido al
Washington Post Vanesa Cullins, de la
Federación de Paternidad Planificada de Estados Unidos,
«las necesidades de control de natalidad de cada mujer son diferentes y los
mejores métodos son aquellos que encajan dentro del estilo de vida y las
necesidades de cada mujer».
OTRAS PÍLDORAS
Durante los últimos años, la FDA ya ha venido aprobando otras píldoras
anticonceptivas que reducen los días de menstruación, o incluso limitan el
número de periodos de una mujer a cuatro veces por año. En el caso de Lybrel,
como las mujeres que utilicen estas píldoras pueden desconocer si están
embarazadas, la FDA insiste en realizar los correspondientes análisis para
descartar o confirmar tal posibilidad.
Con todo, la aprobación de Lybrel -todavía sin precio fijado de venta al
público- no ha dejado de plantear su corresponde dosis de reproches y críticas.
Empezando por dudas sobre la existencia de suficientes estudios sobre su
seguridad y sobre la sabiduría de suprimir indefinidamente el ciclo menstrual de
las mujeres.
A juicio de algunos especialistas médicos, en la actualidad no se conoce por
completo la relevancia de estos ciclos como para aventurar que su eliminación no
tendrá consecuencias negativas en el futuro.
NATURALEZA CONDICIONADA
Aunque según ha enfatizado Daniel Shames, subdirector del centro de evaluación e
investigación de fármacos de la FDA, «los riesgos de usar Lybrel son similares a
otros contraceptivos orales, no sospechamos que vayan a existir sorpresas a un
largo plazo de este producto». En este sentido, se ha recordado que
tradicionalmente las mujeres no han tenido trece periodos naturales, año tras
año, por la sucesión de consecutivos embarazos y periodos de lactancia.
La polémica de Lybrel se ha trasladado incluso hasta el terreno de la psicología
y el feminismo. Como ha cuestionado la profesora Ingrid Johnston-Robledo, de la
Universidad Estatal de Nueva York, este fármaco
«plantea un mensaje equivocado sobre la menstruación en las vidas de las
mujeres, especialmente para las más jóvenes, al perpetuar numerosas actitudes
negativas y tabúes que coinciden en presentar el ciclo femenino como algo que
roza lo sucio, debilitador y vergonzoso».
Fuente: ABC, 24 de Mayo de 2007
-Estrellas naciendo en Orión vistas por el telescopio Spitzer
Las imágenes, que han sido objeto de una nota de prensa por parte de NASA, muestran una nueva población de estrellas y de enanas marrones que posiblemente han sido creadas a partir de la explosión de una supernova hace aproximadamente 3 millones de años.
Barnard 30, localizada a unas 1300 años luz
La investigación ha sido liderada por
un equipo de astrónomos dirigido por el español David Barrado Navascués del
Laboratorio de Astrofísica Espacial y Física Fundamental de INTA.
Spitzer es un satélite astronómico de NASA (lanzado en 2003) que permite
analizar el rango infrarrojo del espectro. El estudio del infrarrojo es
especialmente adecuado para comprender los momentos iniciales del Universo así
como el nacimiento de nuevas estrellas, de sistemas planetarios o de objetos
fríos, ya que la radiación infrarroja es capaz de atravesar las densas nubes de
polvo y gas interestelar, que se forman alrededor de estos objetos y que los
hacen invisibles a otros instrumentos.
Las imágenes del Spitzer proceden de
una región denominada Barnard 30, situada en la constelación Orión. Se
trata de una zona que contiene varias nubes formadas por polvo y gas
interestelar muy fríos. Su estructura regular, casi circular, indica que su
origen se debe a la explosión, hace unos 3 millones de años, de una estrella
supermasiva, que expulsó ingentes cantidades de materia y energía en un final
apocalíptico.
Spitzer ha atravesado esta densa nube de polvo y ha descubierto la formación de
una nueva asociación estelar, un conjunto de estrellas de baja masa y de enanas
marrones (objetos de apariencia estelar, que no tienen masas suficiente como
para poder generar energía en su interior a partir de reacciones nucleares y que
se pueden catalogar como verdaderos eslabones entre las estrellas y los
planetas). Además, un número apreciable de estas estrellas y enanas marrones
presentan discos de polvo alrededor de las mismas, que es el material a partir
del cual se forman los planetas. Por tanto, nos encontraríamos también ante el
incipiente nacimiento de nuevos sistemas planetarios.
Fuente: Redacción, mi+d, 23 de Mayo de 2007
-Gro Harlen Brundtland: Hay que pasar ya a la acción porque el cambio climático está fuera de control
Gro Harlem Brundtland vuelve a la senda
del medio ambiente. Hace 20 años, la dos veces primera ministra noruega y luego
directora de la
Organización Mundial de la Salud
fue la encargada de dirigir una comisión de la ONU para buscar caminos que
compaginaran la empresa humana y los límites del planeta. La población mundial
rozaba en ese momento los cinco mil millones de personas. Los científicos
alzaban las primeras voces preocupantes sobre el cambio climático. A sus 68
años, la doctora Brundtland ha sido llamada para atacar una vez más los
problemas ambientales.
Ahora, la población del planeta supera
los 6.500 millones de personas, y casi la mitad de ellas viven con menos de dos
dólares diarios. Las emisiones contaminantes están creciendo sin freno en las
potencias económicas ya establecidas y en las que aspiran a serlo, en un mundo
en el que la expansión económica es la principal meta a alcanzar.
El secretario general de la ONU, Ban Ki-moon, ha elegido a Gro Harlem Brundtland como
enviada especial para el cambio climático, con la tarea de estimular a los
gobernantes a actuar para reducir las emisiones de gases de efecto invernadero.
Una de sus primeras paradas ha sido Madrid para participar en la iniciativa
«Liderazgo Global para la Acción Climática», auspiciada por la
Fundación Naciones Unidas y el
Club de Madrid.
Pregunta. Es una de las autoras del concepto de desarrollo sostenible. Ahora,
con la urgencia del cambio climático ¿es necesario dar un impulso a este
concepto?
Respuesta. El análisis y las recomendaciones del informe «Nuestro futuro común»
de hace 20 años, en el que se establecen las bases del concepto de desarrollo
sostenible, siguen siendo relevantes ahora. Si mira a lo que se dijo en ese
momento, los mensajes son los mismos. Por tanto, la cuestión no es un nuevo
mensaje, sino más acción. Y de hecho todo lo que el mundo ha acordado en las
cumbres de Río y Johanesburgo sobre lo que debía hacerse sigue vigente, pero el
nivel de acción debe ascender a otro punto, porque estamos perdiendo tiempo
mientras el problema climático está fuera de control.
P. ¿Cómo ve todo lo ocurrido desde la Cumbre de Río en 1992?
R. Bueno, ha habido cosas positivas y negativas. Ha habido cambios en la
dirección correcta en cuanto al número de contaminantes ambientales, como el
sulfuro, los policlorobifenilos, etc., y en algunas áreas el mundo
industrializado ha cambiado. Pero en muchos aspectos que están más relacionados
con la biodiversidad y con el desarrollo de unos patrones más sostenibles en el
mundo en desarrollo la situación ha cambiado muy poco o ha ido en la dirección
errónea. Así, en África, la situación es peor que hace veinte años: hay más
desertificación, mayor escasez y contaminación del agua y un problema casi
irreversible de erosión del suelo. Y la cuestión del clima y el calentamiento
global no harán más que sumarse a estos problemas y empeorarlos.
P. ¿Proteger el medio ambiente a escala global requiere nuevas políticas
económicas?
R. Sí. En el mundo desarrollado debemos entender que invertir en nuestro propio
futuro, en el futuro de nuestros hijos y nietos, significa compartir algunos de
nuestros recursos con los países pobres. Por ejemplo, en Noruega se paga
alrededor del 1% del Producto Interior Bruto (PIB) cada año en cooperación al
desarrollo. Muchos de los países industrializados no lo hacen y debemos
conseguirlo. El acuerdo de hace 30 años hablaba de un 0,7% del PIB para esta
cuestión, pero sólo muy pocos países han alcanzado este nivel. No debería ser
imposible y marcaría una gran diferencia, puesto que la salud y la educación son
las bases del desarrollo, también del desarrollo sostenible.
P. El protocolo de Kioto incluye mecanismos para invertir en países en
desarrollo...
R. Sí, por supuesto, pero esos mecanismos que acordamos en Kioto no se están
usando en todas sus posibilidades y lo que es seguro es que no se están
utilizando en beneficio de las naciones en desarrollo o, por lo menos, no de las
realmente necesitadas. No es lo mismo China que África.
P. ¿Cree que ha llegado el momento para que algunos países en desarrollo
renuncien a la idea de que los desarrollados son los únicos responsables del
cambio climático?
R. Tenemos que cambiar la filosofía de base, porque históricamente es
absolutamente cierto y sólo en los últimos años las emisiones de los países en
desarrollo son cuantificables. Pero si hablamos de lo que tenemos que hacer
desde ahora hasta 2012, los escenarios cambian. Históricamente tenemos que
avergonzarnos, pero si miramos hacia adelante nos necesitamos unos a otros para
buscar las soluciones, aunque el mundo industrializado tendrá que llevar la
mayor carga.
P. ¿Cuál será exactamente su labor como enviada especial de la ONU para el
cambio climático?
R. Ayudar al secretario general a conseguir un consenso global en las cuestiones
sobre las que debe girar la nueva negociación. Esta es su agenda durante este
año hasta la Cumbre Mundial del Clima de Bali, en diciembre. Él necesita la
ayuda de gente como yo, que pueda viajar y tener contactos directos con los
gobiernos, para intentar sacar a relucir las sensibilidades y ver dónde están
los problemas para poder llegar así a terrenos comunes.
P. ¿Qué países visitará usted?
R. No queremos dar detalles sobre esto porque hay países a los que no interesa
que estas visitas sean un asunto público, pero sí le puedo decir que ya he
hablado con los representantes del grupo de los pequeños Estados insulares, con
varios países africanos y con Canadá, que debe cambiar algunas de sus políticas
si no quiere parecerse a Estados Unidos.
P. ¿Es posible el acuerdo en Bali para reducir emisiones después de 2012?
R. Pensamos que sí, pero yo añadiría que es necesario.
P. Parece que en los últimos años la gente es más consciente del problema.
Después de tantos años trabajando en esto, ¿no le ha sorprendido que se haya
tardado tanto tiempo?
R. No del todo. Los científicos y algunos políticos lo han sabido desde hace
años, pero el público en general sólo lo ha sabido o ha querido saberlo cuando
ha empezado a ver las consecuencias, como el «Katrina» o el hecho de que el
hielo se esté derritiendo en Groenlandia. Y por eso pienso que Al Gore ha hecho
un buen trabajo revelando la realidad, hablando con el público y enseñándoles
las imágenes del desastre.
P. Antes de esta misión usted luchaba contra el sida, la malaria, el
tabaquismo... ¿Es un desafío tratar ahora con la salud del planeta en sí mismo?
R. Siento que siempre lo he hecho. Desde el principio mi trabajo ha girado sobre
desarrollo, salud y medio ambiente.
Fuente: ABC, 23 de Mayo de 2007
-Marte tuvo agua en abundancia
'Spirit', el vehículo explorador de la NASA en Marte, ha revelado la existencia de sílice en el planeta, lo que demuestra que éste tuvo agua en abundancia durante su pasado remoto, según ha informado el Laboratorio de Propulsión a Chorro (JPL) de la agencia espacial estadounidense.
Este descubrimiento se agrega a las
pruebas casi concluyentes de que en un momento de su evolución Marte albergó
condiciones favorables al desarrollo biológico como lo conocemos en la Tierra.
Un boletín de JPL señaló que los yacimientos de sílice fueron descubiertos en
las cercanías del cráter Gusev, donde 'Spirit' descendió hace más de tres años.
Científicos de ese organismo de la NASA indicaron que para que se produjeran
concentraciones de hasta 90% de sílice el ambiente en las cercanías de Gusev
tuvo que haber sido muy húmedo.
"Nuestra gente quedó asombrada" cuando se conocieron los resultados del
analizador químico instalado en un extremo del espectrómetro de rayos X de 'Spirit',
señaló Steve Squyres, responsable del programa de los robots exploradores de
Marte.
'Spirit' y el vehículo explorador gemelo 'Opportunity' descendieron sobre la
superficie marciana en enero de 2004 y a los pocos meses revelaron que el
actualmente árido planeta tuvo agua en su pasado.
Esas pruebas estuvieron constituidas por la existencia de altas concentraciones
de azufre, la alteración de minerales e indicios de actividad volcánica
explosiva que hubiesen requerido agua.
Pero la presencia de sílice "es la mejor prueba de que hubo agua en el cráter
Gusev", indicó Albert Yen, geoquímico de la NASA en JPL.
Según los científicos de JPL, es posible que el sílice se haya formado tras la
combinación del suelo con vapores ácidos producidos por una actividad volcánica
en presencia de agua.
La otra es que el material haya sido creado por un ambiente de aguas termales.
"Lo más importante de esto es lo que nos dice acerca de la existencia de
ambientes que tuvieron similitudes con lugares en la Tierra donde se han
desarrollado algunos organismos", dijo David Des Marais, astrobiólogo del
Centro Ames de Investigaciones
de la NASA.
Doug McCuistion, director del Programa de Exploración de Marte, señaló que la
presencia de sílice refuerza la idea de el agua fue abundante en Marte e
"impulsa nuestra esperanza de que podamos demostrar que el planeta fue alguna
vez habitable y tal vez posibilitó la existencia de vida".
Entre tanto, en la antípoda del planeta, 'Opportunity' ha completado la
exploración del cráter Victoria, iniciada hace ocho meses.
John Callas, director del proyecto para los vehículos exploradores, dijo que el
vehículo se desplaza ahora hacia una zona llamada 'Duck Bay' para buscar un
sendero seguro hacia el cráter.
Fuente: El Mundo, 23 de Mayo de 2007
-La UE da el primer paso para la creación de una Política Espacial Europea
La UE y la Agencia Espacial Europea (ESA) han sentado las bases de una política espacial común al adoptar un acuerdo que mejorará la coordinación entre sus actividades y evitará la duplicación de esfuerzos.
La decisión se tomó en la cuarta sesión
del Consejo Espacio y se plasmó en una resolución sobre 'Política Espacial
Europea' que incide en la importancia de ese sector "como elemento estratégico
que contribuye a la independencia, seguridad y prosperidad de Europa".
El comisario europeo de Industria, Gunter Verhuegen, opinó que con la decisión
adoptada, Europa se suma a Estados Unidos, Rusia y China, países que están
apostando por una política espacial fuerte.
"Sin una política espacial europea, Europa pasaría a ser irrelevante. Con esta
resolución pretendemos revivir las aspiraciones europeas de liderazgo global en
importantes áreas industriales y de investigación", señaló el comisario.
Verheugen incidió además que el continente "ya no es el pariente pobre del
espacio", aunque insistió en que se debe hacer un esfuerzo por "mejorar su
rendimiento" y aumentar su eficiencia.
Por su parte, el director general de la ESA, Jean-Jacques Dordain, consideró que
el consenso logrado entre los 29 países presentes en la Agencia Espacial Europea
y la UE "es el mensaje más fuerte que Europa puede dar a sus ciudadanos y a los
socios internacionales".
Según Dordain, la "novedad" de la resolución adoptada es que "integra todas las
dimensiones europeas", incluida la ciencia, la educación y las actividades de
seguridad y defensa.
El director de la ESA precisó además que el paso dado no significa que exista la
intención de convertir a la Agencia Espacial Europea en una agencia comunitaria.
La resolución apuesta además por mejorar las sinergias entre los programas
espaciales civiles y de defensa y en el uso de tecnologías.
También subraya la necesidad de que, tanto a nivel comunitario como europeo,
aumenten los esfuerzos para animar a los jóvenes a seguir estudios técnicos, una
formación indispensable en esta área.
Peor suerte ha corrido en el consejo el programa 'Galileo', el proyecto europeo
para crear una red de satélites de navegación que pueda competir con el
estadounidense GPS. El proyecto, que la semana pasada la Comisión decidió que
será financiado íntegramente con dinero público después de los diversos fracasos
de las empresas privadas para sacarlo adelante, fue calificado como una idea
"estúpida" por el vicepresidente de la Comisión, que señaló que el proyecto
"tiene unas funciones muy limitadas".
Guenter Verheugen, comisario de Industria de la Comisión, señaló en una rueda de
prensa que el sistema no es tan importante para la política espacial europea
como lo son otros. "'Galileo' es una idea estúpida, porque sólo permite hacer
una cosa: ayudarte a navegar, nada más", criticó tras la reunión del Consejo.
El sistema Galileo, que prevé la puesta en marcha de una red de 30 satélites, es
responsabilidad del francés Jacques Barrot, vicepresidente de la Comisión
Europea y Comisario de transportes.
Verheugen, que tiene un largo historial de encontronazos con otros comisarios,
matizó después que "desde el punto de vista comercial, Galileo es un proyecto
interesante, pero si se compara la complejidad tecnológica de otros proyectos
espaciales, 'Galileo' es un proyecto estúpido".
Fuente: EFE, 23 de Mayo de 2007
imbo Wales ha dejado una importante
huella en la Red de la mano de su creación,
Wikipedia, fundada hace
seis años. Aquel proyecto de enciclopedia cuyo software libre permitía editar
sus entradas a cualquier persona, es hoy una web que consistentemente está entre
las 10 más populares del mundo, según
Alexa.com.
Pero para este dinámico visionario de 41 años, su aventura en la Red continúa.
Ahora ultima otro proyecto, basado, de nuevo, en software libre, y que puede
cambiar el modelo de negocio de los buscadores. Calcula que esté listo para
moverse a toda capacidad a finales de año.
Se trata de
Wikia. Esta página web es
el hogar de comunidades en la Red en la que éstas pueden leer, discutir,
alterar, manejar, actualizar y compartir información de cuestiones que les unan.
Es un foro de foros con formato de revista y con entradas elaboradas por los
usuarios que cubren el mundo de la salud, el de los viajes o el entretenimiento,
entre otros, y al que se le añadirá el buscador.
A diferencia de Wikipedia, Wikia es una empresa con ánimo de lucro, cuya primera
fuente de ingresos es la publicidad. Varios inversores, entre ellos Amazon, han
aportado los cuatro millones de dólares del capital inicial de esta compañía en
la que Wales empezó a trabajar a fines de 2004 junto con Angela Beesley, miembro
de la Fundación Wikipedia.
El gran reto de Wikia pasa por poner en marcha el buscador que Wales cree que
estará listo a fin de año. Su código será abierto para que esté a disposición de
quien lo quiera o necesite. Para que no sólo sea usado sino también copiado y
que las búsquedas estén controladas por una comunidad de personas con
sensibilidad y compromiso y no intereses comerciales.
¿Y cómo va a financiarse? 'Publicidad. Abriendo el contenido se incrementa el
tráfico', aseguraba Wales en un encuentro con la prensa extranjera en Nueva York
recientemente. Tiene claro es su opinión sobre el resto de los buscadores. Cree
que hasta que llegó Google la calidad de las búsquedas había sido mala pero 'el
éxito de ésta obligó al resto a hacer mejoras'.
Wales quiere dar la impresión de que es más un hombre con ideas y dotes para la
organización que un gestor. Rápidamente asegura: 'No soy un empresario'. Para
redondear esa percepción afirmó desconocer por qué el precio de Google está tan
alto y expresó su sorpresa por un artículo publicado en la revista Fast Company
sobre él en el que le presentaban como una amenaza para el líder de los
buscadores. 'Es divertido, Google es inmenso. Yo solo soy yo'. Para ser preciso,
el mundo de la economía no le es tan ajeno ya que si se ha dedicado a Wikipedia,
una fundación sin ánimo de lucro, es porque la fortuna que hizo como
intermediario de opciones y futuros en Chicago se lo ha permitido. Además tiene
un máster en finanzas.
Tampoco está tan solo. Además de la legión de entusiastas que desean participar
de forma desinteresada, en Wikia ya trabajan 33 personas con dedicación
exclusiva, buena parte de ellas desde Polonia. Ha fichado a Gil Penchina, de
Ebay, para que sea el consejero delegado, y a Jeremie Miller, fundador de una
plataforma de mensajería instantánea de código abierto (Jabber) para trabajar en
el buscador. Wales ve Wikia como una empresa con fuerte potencial pero muy
pequeña frente a los grandes. Pero dice que su madre está orgullosa 'compró
hasta cinco revistas en la que me llevaron a la portada'.
En su encuentro con corresponsales en Nueva York, Jimbo Wales no ahorró
alabanzas para el browser Firefox por ejemplo. 'Hay un cambio que se está
produciendo y que está empezando ahora, es la democratización de los medios y el
conocimiento. Creo que la gente puede colaborar de forma libre y hacer un buen
trabajo'.
Todo ello, el mundo de los blogs y la información online, ¿es el fin de las
empresas de comunicación? El reto que plantea Internet es muy intenso en la
prensa y la de EE.UU., acostumbrada a extensas tiradas, lo sufre como nunca
ahora.
Wales no cree que el software libre y el acceso a la información online sea el
fin de la prensa y el negocio de los medios. 'Mi visión es que los periódicos
que tendrán éxito serán los que no metan la cabeza bajo la tierra', aludiendo al
ineludible potencial de Internet.
'Si se compara la calidad de los productos de búsqueda de Google, Yahoo o Ask,
uno se da cuenta de que todos son muy similares', afirmaba Jimbo Wales. De
acuerdo con este nuevo empresario, ninguno tiene claramente el liderazgo en la
calidad y todos tienen sus inclinaciones comerciales.
Fuente: Cinco días, 22 de Mayo de 2007
-La próxima guerra será por el agua
Los problemas en el abastecimiento de agua han disparado la importancia económica, social e incluso política de este recurso. Su escasez y su mala gestión son ya una amenaza para el crecimiento de la economía mundial, además de un riesgo de tensiones territoriales.
Los visionarios aseguran que en la
próxima gran guerra se luchará por el petróleo. Sin embargo, a día de hoy no es
estrafalario pensar que el agua podría adelantarse como causa de disputa.
Hay signos evidentes en todo el mundo de que la escasez en el abastecimiento de
agua ya está produciendo conflictos o miedo a que se produzcan. El agua está en
el corazón de las tensiones en Oriente Medio, afectando a Israel y los
territorios palestinos, Siria, Líbano y Jordania. Todos tienen derechos sobre el
río Jordán, del que dependen para la agricultura, el agua potable y los
servicios sanitarios.
Otras zonas de peligro incluyen las cuencas de los ríos Nilo, Níger y Zambezi,
en África; o la disputa entre Siria y Turquía por el Tigris y el Éufrates.
Incluso en las zonas sin riesgo de violencia, los países con escasos recursos
están pagando el precio a través de pérdidas de productividad y ralentización
del crecimiento económico.
Este mismo verano, la amenaza de sequías catastróficas no se cernirá sólo sobre
África, sino también en otras zonas, como Europa. El reto es encontrar
soluciones a nivel internacional, antes de que la sequía se convierta en un
desastre para la economía mundial.
La contundencia de las estadísticas basta para convencer del problema tanto a
economistas como a ecologistas. La ausencia de agua potable y servicios
sanitarios que sufre más del 40% de la población mundial supone unos 485 miles
de millones de euros cada año, según datos de la
Organización Mundial de la Salud. Un informe
del
Banco Mundial sobre la
sequía que padeció Kenia entre 1998 y 2000 asegura que uno de sus efectos
directos fue la reducción en un 16% del PIB del país.
En países desarrollados, las restricciones de agua también pueden ser
económicamente devastadoras. El Departamento Oceánico y Atmosférico de Estados
Unidos asegura que las pérdidas en este país debidas a la sequía rondan los
8.000 millones de dólares anuales. Las restricciones en Europa en 2003
supusieron 13.000 millones de dólares para su economía, sobre todo por los
efectos en las cosechas agrícolas.
Incluso en los lugares donde hay abundancia de agua, la mala gestión y la
persistencia de sistemas de distribución injustos consiguen que haya gente que
pase sed mientras otros llenan sus piscinas con agua mineral. Pero, ¿por qué se
ha convertido de repente el agua en un elemento de preocupación para la economía
mundial? Uno de los culpables es el cambio climático, que, además de disminuir
las reservas de agua en algunas regiones, está causando inundaciones en las
áreas donde los glaciares se están derritiendo.
Además, las necesidades de la agricultura moderna son inabarcables. Se necesitan
mil toneladas de agua para producir una de cereal.
La industria también pasa sed: actividades como la producción de alimentos o la
industria textil requieren enormes cantidades de agua.
La contaminación de las reservas de agua -ya sea por sal, por residuos humanos o
animales o toxinas provenientes de la industria- es otro problema acuciante,
particularmente en China, donde el agua destinada al consumo de 300 millones de
personas, casi un cuarto de su población, está habitualmente contaminada por
productos químicos, como incluso ha reconocido la agencia oficial de noticias
Xinhua. Esta escasez de agua potable es uno de los pocos problemas que podrían
frenar el crecimiento de China e India, asegura Bjron Stigson, presidente del
Consejo Empresarial Mundial para el Desarrollo Sostenible: "Las propias
autoridades chinas reconocen que es el mayor problema al que se enfrentan".
POSIBLES SOLUCIONES
Los avances tecnológicos podrían ser una gran ayuda para paliar las diferencias
entre demanda y reservas de agua. El más importante es la reutilización de agua,
mediante el tratamiento de aguas residuales para que se devuelvan con seguridad
a los ríos, destinarlas a usos agrícolas o usarlas en procesos industriales. La
desalinización -una opción que ha sido elegida en España- es otra posibilidad,
pero tiene la contrapartida de que necesita grandes cantidades de energía. Otra
alternativa es la implantación de cultivos que, gracias a modificaciones
genéticas, pueden utilizarse en zonas de sequía o de alta salinidad. Tanto esta
opción como la desalinización no convencen a los grupos ecologistas.
Sea cual sea la técnica utilizada, el ahorro de agua será un elemento vital,
sobre todo si se tiene en cuenta que la Tierra albergará cerca de 9.000 millones
de personas en 2050. La salud de muchas de ellas, y también la economía mundial,
dependerá de las políticas hidrológicas que se emprendan.
¿TIENE LA CULPA EL CAMBIO CLIMÁTICO?
Constantemente se habla de los efectos que el cambio climático tendrá sobre los
recursos hidrológicos en el planeta. Las previsiones son que en 2080 la
temperatura media haya ascendido cuatro grados, con las consecuencias que eso
puede tener: aumento del nivel del mar, deshielo de glaciares, sequías y lluvias
torrenciales más acusadas, etcétera. Sin embargo, según los expertos, las
grandes sequías que Europa ha conocido en los últimos tiempos responden, sobre
todo, a la mala gestión que se hace del agua.
Juan Pablo Pérez, vocal de Medio Ambiente del
Colegio Oficial de Geólogos
y gerente de
Garrigues Medioambiente,
explica que "estamos en una época en la que existe un excesivo afán por
interpretar cualquier fenómeno natural como consecuencia del cambio climático.
Los problemas de la sequía surgen, en el 80% de los casos, de una mala gestión
del agua. Hay mucho despilfarro. Sobre todo en el regadío. Además, en algunos
países -entre ellos, España-, se paga hasta 20 ó 30 veces menos de lo que cuesta
el agua, no hay conciencia de su precio real, sobre todo entre los agricultores,
que consumen el 80% del total". Hay experiencias en otros países que demuestran
la importancia del precio en el consumo. En Hungría el agua había sido
subvencionada casi al completo hasta 1990, y se aumentó el precio unas quince
veces. Esto provocó una reducción de la demanda del 50%. Según la OMS, la
escasez de agua provoca pérdidas de 485 miles de millones de euros cada año.
Fuente: Expansión, 22 de Mayo de 2007
-La ONU asegura que "estamos a las puertas de una extinción masiva de especies"
El apetito por los bienes de consumo y
servicios por parte del segmento más privilegiado de la sociedad está
exacerbando la presión sobre la Tierra, con consecuencias para todos. Si la
presión demográfica y los niveles de consumo aumentan, la biodiversidad decrece,
y la habilidad del mundo natural para continuar aportando bienes y servicios de
los que depende la humanidad se irá debilitando cada vez más.
AL LÍMITE DE LA CAPACIDAD
Esto es lo que ha venido ocurriendo hasta ahora, pero el cambio climático pondrá
al límite la capacidad de los ecosistemas para proporcionar bienes y servicios a
la sociedad, a demás de los impactos mismos sobre los sistemas y especies
naturales. Por eso, el Día Internacional de la Biodiversidad, que se celebra hoy
auspiciado por Naciones Unidas, gira en torno a la «Diversidad biológica y
cambio climático».
«La diversidad biológica es lo que sostiene la vida en la Tierra, pero estamos a
las puertas de la sexta mayor extinción masiva de especies de la historia del
planeta», según el secretario ejecutivo del Convenio sobre la Diversidad
Biológica (CDB) de Naciones Unidas, Ahmed Djoghlaf. En vísperas de la
celebración hoy del Día Internacional para la Diversidad Biológica, Djoghlaf
subrayó que el cambio climático crea condiciones a las que la flora y la fauna
no pueden responder con suficiente rapidez. A su juicio, la pérdida de especies
agravará el calentamiento global en un círculo vicioso. Según la tendencia
actual, un 30 por ciento de todas las especies conocidas desaparecerán antes de
que finalice este siglo.
UN DECLIVE CONTINUO
La Lista Roja de especies amenazadas 2006 de la
Unión Internacional de Conservación de la Naturaleza
(UICN) ya revelaba nítidamente el continuo
deterioro de la biodiversidad del planeta y el impacto que tiene la humanidad en
la vida sobre la tierra.
El número total de especies oficialmente declaradas extintas es de 784, y a
otras 65 solamente se las puede encontrar en cautiverio o en cultivo. De las
40.177 especies evaluadas, 16.119 figuran en la lista de especies amenazadas con
la extinción. Esto incluye a uno de cada tres anfibios y a una cuarta parte de
los árboles de coníferas del mundo, además de una de cada ocho aves, y uno de
cada cuatro mamíferos conocidos están en peligro.
POR TODO EL PLANETA
Todo indica que el oso polar será una de las víctimas más notorias del
calentamiento global. El impacto del cambio climático se siente cada vez más en
las regiones polares, donde se prevé que el hielo marino del verano se reducirá
entre un 50 y un 100 por ciento en los próximos 50 a 100 años. Se pronostica que
la población de osos polares, que dependen del flujo de hielo ártico para la
caza de focas y que están especialmente adaptados a la vida en el ambiente
marino ártico, sufrirá una disminución del 30 por ciento en los próximos 45
años. El oso polar, que anteriormente figuraba en la lista de la UICN como una
especie dependiente de la conservación, se encuentra ahora clasificado como
vulnerable.
La huella global que la humanidad deja en el planeta abarca hasta regiones que
parecen estar muy alejadas de la influencia humana. Los desiertos y zonas áridas
aparentan estar relativamente intactos, pero sus animales y plantas
especialmente adaptados también se encuentran entre las especies más raras y
amenazadas. Lenta pero inexorablemente, casi sin que nadie lo note, los
desiertos se están quedando sin su vida silvestre diversa y especializada.
Un nuevo componente clave de la Lista Roja de especies amenazadas 2006 es la
primera evaluación regional integral de algunos grupos marinos. Los tiburones y
las rayas se encuentran entre los primeros grupos marinos evaluados
sistemáticamente, y el 20 por ciento de las 547 especies que figuran en la lista
están amenazadas con la extinción. Esto confirma las sospechas de que estas
especies de crecimiento lento son particularmente susceptibles a la pesca
excesiva y están desapareciendo en todo el mundo a un ritmo sin precedentes.
Fuente: ABC, 22 de Mayo de 2007
-Guerra entre Microsoft y Linux
Cuando parecían darse las condiciones para una coexistencia
pacífica entre Windows y
Linux, el abogado jefe de
Microsoft,
Brad Smith, ha vuelto a agitar las aguas con unas declaraciones que reafirman la
doctrina de su consejero delegado, Steve Ballmer: Linux es una violación
sistemática de patentes de Microsoft. Por consiguiente, está dispuesto a acudir
a los tribunales en defensa de su propiedad intelectual, aunque por el momento
confía en que los infractores se avengan a firmar acuerdos de licencia.
Para llevar adelante una demanda judicial debería añadir la
identificación nominal de los infractores, pero es probable que los mayores
usuarios de Linux sean, a la vez, grandes clientes de Microsoft. Subyace la idea
de que éstos preferirán pactar una licencia barata antes que exponerse a la
incertidumbre. En una hipótesis plausible, Microsoft podría optar por demandar a
los distribuidores comerciales de Linux - la presa más gorda sería
Red Hat, con el 65% de este
mercado- abriendo un frente tan extenso como imprevisible. Aunque el software no
está explícitamente recogido en la vetusta ley estadounidense sobre patentes, ha
entrado en ella por la vía de la jurisprudencia. Pero las sentencias recientes
del Tribunal Supremo parecen inclinarse por el principio de que la propiedad
intelectual ha de ser un estímulo para la innovación, y no crear situaciones de
monopolio. Por otra parte, un programa informático no es una innovación
homogénea, sino que puede contener cientos, miles o millones de innovaciones
singulares. De modo que lo primero que haría cualquier juez sería pedir a la
parte demandante que desvele las líneas de su código que hayan sido violadas por
la demandada.
Pero mientras el código de Linux es, por definición, abierto, el de Windows es
secreto. Lo que significa que Microsoft, que no partió de cero, podría
encontrarse en la rara situación de exponerse a ser denunciada, a su vez, por
quienes desarrollaron los sistemas operativos predecesores de Windows. Varios
gigantes de la industria, entre ellos Red Hat e
IBM, han sellado una
alianza de apoyo mutuo en el caso de que alguno de ellos fuera demandado.
Brad Smith ha dejado claro que descarta por ahora la vía judicial. Según las
primeras opiniones, su propósito sería forzar a otros distribuidores de Linux a
sumarse al acuerdo firmado con
Novell
en noviembre para facilitar la interoperabilidad de ambos sistemas operativos.
El acuerdo incluye una renuncia expresa de Microsoft a litigar contra los
clientes de Novell y debería servir de modelo para cerrar una guerra fría que
afecta a los grandes usuarios, interesados en que sus sistemas informáticos sean
mixtos. Secundariamente, podría ser una fórmula de recaudación de royaltis sobre
aquellos elementos de su propiedad intelectual supuestamente incorporados a
Linux. Si bien el acuerdo con Novell no ha suscitado la emulación que Microsoft
esperaba, ha puesto de relieve el cisma de la familia Linux: por un lado,
quienes procuran una evolución comercial del sistema operativo como producto de
mercado - línea que defiende su inventor, Linus Torvalds- y, por otro, el sector
intransigente, encarnado en el activista Richard Stallman. Éste, que guarda la
llave del tabernáculo, ha procedido de inmediato a enmendar las reglas que rigen
la licencia pública de Linux para que no cunda el ejemplo: quien se atreva a
desafiar la ortodoxia será maldecido como cómplice del enemigo. En cuanto a
Microsoft, quizá debería pensar sobre el popular refrán español: "Quien pleitos
tiene, el sueño pierde".
Fuente: La Vanguardía Digital, 22 de Mayo de 2007
-Los polos podrían fundirse en mil años
Con los conocimientos actuales acerca
del clima no se puede aún predecir qué va a pasar en el futuro, lo que sí se
puede afirmar, según el geólogo Carlo Alberto Ricci, es que los polos "no se van
a fundir en 50 años; al menos tardarían mil años en hacerlo si la temperatura
sigue aumentando".
"Es evidente que la Tierra se está
calentando pero aún no sabemos la magnitud de dicho calentamiento", aseguró el
geólogo y presidente del European Polar Board, quien cree que la Tierra podría
estar pasando "simplemente" por un ciclo de calor que puede acabar en cualquier
momento.
Hasta 1970 la temperatura en el planeta descendía y, a partir de ese momento, ha
ido en aumento, pero "no se sabe si es una tendencia o es sólo un fenómeno
momentáneo", según Ricci, que viajó a Madrid esta semana para pronunciar una
conferencia en CosmoCaixa sobre el cambio climático y su influencia en los
polos.
"En la Edad Media hubo una época de calor similar a la actual seguida de la
denominada pequeña Edad de Hielo entre 1600 y 1700, lo que indica que hay
variaciones en el clima del planeta que ocurren en miles, cientos o sólo decenas
de años", dijo Ricci.
Todos estos datos y muchos más han sido obtenidos gracias al análisis y estudio
del hielo de los polos que son "archivos de la historia de la Tierra", en
palabras del geólogo italiano, quien lleva décadas investigando acerca de las
regiones polares.
"En los polos podemos rastrear el clima del último millón de años", aseguró el
investigador, ya que en el hielo se encuentran encerradas partículas que indican
la composición de la atmósfera y el comportamiento del clima.
A través del programa europeo EPICA, en el que Ricci participa, se ha extraído
hielo de un millón de años de antigüedad y gracias a él se ha sabido que en este
periodo de tiempo se han dado cambios climáticos en ciclos de 100.000 años.
En los últimos 8.000 años de la Tierra, en los que se ha desarrollado la
civilización humana, ha habido cambios de varios grados de temperatura en
periodos de menos de un siglo, explicó el presidente del European Polar Board.
"La variación de 2 ó 3 grados que se está dando en la actualidad podría
explicarse en base a los ciclos climáticos pero los grandes cambios en la
atmósfera no son corrientes y nunca se habían dado antes", dijo.
Ricci, que es presidente de la Comisión Italiana para la Antártida, confía que
en el marco del Año Polar Internacional, que dio comienzo en 2007 y concluirá en
2009, se pueda avanzar en el estudio y conocimiento de las regiones polares y,
por tanto, del comportamiento de la Tierra.
El profesor de la
Universidad de Siena
(Italia) prevé que en unos 10 ó 15 años se habrá profundizado algo más en el
estudio de los polos y se sabrá mucho más sobre el clima terrestre.
"A través de los polos podremos saber qué causó los cambios climáticos en el
pasado y cómo va a cambiar el clima en el futuro pero aún es pronto", añadió.
-Fertilizar los océanos para obtener beneficios
¿Puede el plancton salvar el planeta?
Algunos tecnócratas de
Silicon Valley creen que sí. En un esfuerzo por
mitigar los efectos del calentamiento global, varios grupos trabajan en
iniciativas para cultivar grandes campos flotantes de plancton destinados a
absorber el dióxido de carbono de la atmósfera y llevarlo a las profundidades
del océano.
Es una teoría, debatida por los
expertos durante años, que todavía suena a ciencia-ficción, y algunos eruditos
creen que ésa es la categoría a la que pertenece.
Pero, aunque muchas preguntas siguen sin respuesta, se prevé que el primer
proyecto comercial se ponga en marcha este mes, cuando el WeatherBird II, un
barco de investigación de 35 metros, zarpe de Florida en dirección a las
Galápagos y el Pacífico Sur.
El barco planea disolver varias toneladas métricas de hierro, un nutriente del
plancton, en un área de 10.000 kilómetros cuadrados.
Cuando los restos de hierro fomenten el crecimiento y la reproducción del
diminuto organismo, los científicos del WeatherBird II calcularán qué cantidad
de dióxido de carbono ingiere el plancton.
La idea es similar a la plantación de bosques llenos de árboles inhaladores de
carbono, pero en extensiones desiertas del océano.
"Esto es jardinería orgánica, no física cuántica", dice Russ George, consejero
delegado de
Planktos, la empresa
responsable del proyecto del WeatherBird II. "¿Es posible que resulte tan
sencillo como nosotros decimos? Estamos a punto de descubrirlo", dice.
Para George, esto no es sólo ciencia y ecología, es un negocio, y posiblemente
de los grandes. Nuevos tratados y regulaciones por todo el mundo obligan a las
empresas a buscar sistemas para compensar sus emisiones de carbono, y tal vez
Planktos y su competencia cobren millones por sus servicios.
Planktos y su rival
Climos, fundada por un ex
millonario de las puntocom, quieren comercializar la fertilización oceánica. Sus
iniciativas subrayan el cada vez mayor esfuerzo por eliminar carbono de la
atmósfera. Las soluciones incluyen la reforestación de bosques y la recuperación
de toneladas de carbono resultante de la quema de carbón para la electricidad y
el petróleo, devolviéndolo al subsuelo.
Desde Silicon Valley, donde los innovadores desvían su atención hacia los
negocios medioambientales, empiezan a llegar soluciones tecnológicas. Su
rentabilidad económica podría ser considerable, afirma Daniel M. Kammen,
catedrático de la
Universidad de California en Berkeley.
En Europa, donde existe un mercado de créditos de carbono, compensar una
tonelada de emisiones de carbono sólo cuesta 1,4 euros. Pero no hace mucho, esa
cifra era de 25,7. Planktos cree poder cosechar unos beneficios sustanciales si
obtiene 3,6 euros la tonelada por capturar dióxido de carbono. "El coste de la
compensación con estas tecnologías es inferior al de la construcción de placas
solares o molinos de viento", dice Kammen.
Pero, según algunos expertos oceanográficos, existe el riesgo de hacer más mal
que bien al estimular el crecimiento del plancton. Ken Buesseler, científico de
la
Woods Hole Oceanographic Institution en
Massachusetts, dice que, aunque al principio quizá se absorba el carbono, es
probable que parte de él vuelva a la atmósfera cuando el plancton sea consumido
o se descomponga.
A algunos académicos les preocupa que las floraciones de plancton puedan liberar
metano y óxido nitroso, lo cual aumentaría los gases invernadero. Buesseler ha
organizado una conferencia en otoño para reunir a los expertos en fertilización
oceánica, evaluar los años de investigación en ese terreno y ver la manera de
fomentarla.
Entra en escena George, de 57 años y fundador de Planktos, con sede en
California. Después de trabajar como asesor medioambiental en Canadá, se le
ocurrió el concepto de Planktos en 1997, el mismo año del Protocolo de Kioto, el
tratado que ha impulsado el grueso de las normas para la reducción del carbono.
Según George, su objetivo iba más allá de mitigar las emisiones de carbono;
también quería restaurar el plancton perdido por el cambio climático. Las
iniciativas del WeatherBird II no implican que la ciencia esté lista para su
comercialización, dice, pero pretenden ofrecer una investigación que podría
probar su efectividad.
Destacados científicos están participando en los esfuerzos de comercialización.
Margaret S. Leinen, ex directora adjunta de geociencia en la
National
Science Foundation, actualmente dirige a los
científicos de Climos. Y es la madre de Dan Whaley, su fundador.
Whaley, que hizo su fortuna durante el auge de las puntocom al fundar Get-There.com,
ha organizado una junta de asesores científicos, que incluye al ex presidente de
la American Association for the Advancement of Science y al director del
National Center for Atmospheric Research.
Whaley no revela cuándo y cómo Climos ofrecerá pruebas al mercado de que puede
utilizar la fertilización oceánica para una compensación del carbono a largo
plazo. Sin embargo, eso no le impide plantear un reto a Planktos.
"Quien se tome esto en serio debe lograr que se involucren
los líderes de la comunidad oceanográfica", asegura Whaley, "y no limitarse a
navegar por ahí lanzando hierro por la popa de un barco".
-Dos nuevos barcos de investigación oceanográfica para España
El Instituto Español de Oceanografía convocará un concurso para construir dos nuevos buques de investigación, en los que se invertirán, según aprobó en su reunión el Consejo de Ministros, 30 millones de euros hasta 2010.
Los barcos, que desarrollarán su
actividad en el ámbito regional y tendrán una autonomía máxima de diez días, se
diseñarán para emitir "muy bajo nivel de ruido radiado", lo que permitirá que su
navegación no afecte al comportamiento natural de los peces que se encuentren en
los alrededores de su actividad.
El pliego de prescripciones técnicas aborda y desarrolla específicamente las
medidas que el astillero deberá considerar en los aspectos de ruidos y
vibraciones, orientados tanto a optimizar la capacidad científica de la
plataforma como a asegurar "unos niveles adecuados de confort" a bordo.
El Instituto Español de Oceanografía (IEO) es un organismo público de
investigación dependiente del
Ministerio de
Educación y Ciencia, dedicado a la
investigación en ciencias del mar, especialmente lo relacionado con el
conocimiento científico de los océanos, la sostenibilidad de los recursos
pesqueros y el medio ambiente marino.
El IEO tiene ocho centros oceanográficos costeros, una estación de biología
pesquera, cinco plantas de experimentación de cultivos marinos, doce estaciones
mareográficas, una estación receptora de imágenes de satélites y una flota
compuesta por seis buques oceanográficos, entre los que destaca el 'Cornide de
Saavedra', de 1.100 toneladas de desplazamiento y 68 metros de eslora.
-Crean un cerebelo artificial que permite a los robots comportarse como humanos
Investigadores de la
Universidad
de Granada trabajan en un proyecto europeo
asociado con la multinacional de la electrónica
SONY,
que ha permitido hasta el momento diseñar microchips que emulan un cerebelo
humano y que se puede insertar en robots. El descubrimiento permitirá a las
máquinas adoptar algunos comportamientos humanos y mejorar la interacción con el
exterior, así como, en un futuro, ser base de aplicaciones en las personas en el
tratamiento de enfermedades como el Parkinson o el Alzheimer.
El ser humano no busca sólo crear
máquinas a su servicio, sino robots inteligentes capaces de tomar decisiones
propias. Lo que hasta hace no demasiados años no pasaba de ser un futurible
bastante irreal, se puede convertir en cotidiano a pocos años vista. Al menos
eso pretende demostrar el
proyecto SENSOPAC, en el que toman parte
empresas y universidades europeas, incluida la Universidad de Granada.
Investigadores del Departamento de Arquitectura y Tecnología de Computadores del
mencionado centro han participado en el diseño y desarrollo de un cerebelo
artificial basado en microchips. Aplicado a la robótica, permite a las máquinas
interactuar con otros objetos y personas. De esta forma, los androides podrán
realizar tareas propias de mamíferos, como atender y procesar lenguajes, música
u otros estímulos.
La parte granadina del proyecto europeo está coordinada por el profesor Eduardo
Ros Vidal, quien resalta que, "aunque los robots son cada vez más importantes en
nuestra sociedad y cuentan con una tecnología más avanzada, aún no son capaces
de realizar tareas similares a las de un mamífero sencillo".
APLICACIÓN A LOS HUMANOS
La importancia del descubrimiento reside en la aplicación futura que puede tener
para el ser humano. El cerebelo humano es la parte responsable de las funciones
cognitivas, por lo que la inserción de los microchips en los cerebros humanos
ayudaría a mejorar la calidad de vida de enfermos de Parkinson o Alzheimer.
El proyecto SENSOPAC es continuador de otro anterior, denominado SpikeFORCE y en
el que participaron expertos en neurociencia e ingenieros electrónicos. La
esencia de ambas iniciativas consiste en dotar a los robots de habilidades de
movimiento similares a las de los animales y puedan tener capacidades sensitivas
de las que obtener una forma de conocimiento.
"A pesar de que llevamos años hablando de humanoides, todavía no los vemos por
la calle, ni hacemos uso real de las infinitas posibilidades que nos ofrecen",
lamentó Ros. Por eso, los proyectos robóticos no terminan ni mucho menos.
Movimientos bioinspirados o piel artificial pueden ser los próximos pasos a dar
en un camino en el que los robots irán ganando poco a poco capacidades hasta
ahora sólo presentes en películas de ciencia ficción.
Fuente: ABC, 18 de Mayo
-Medio ambiente quiere convertir los zoos en centros de conservación
La gente que vive en las grandes
ciudades tiene un conocimiento de los animales salvajes y sus hábitats un tanto
peculiar: se limita, habitualmente, a lo que ven por la tele, leen en algunos
medios o ven con sus propios ojos cuando visitan algún parque zoológico. Unos
centros que, en los últimos años, se han convertido en unos de los principales
adalides de la conservación de estas especies.
Para potenciar este tipo de trabajos,
el
Ministerio de Medio Ambiente,
la
Fundación Biodiversidad y
la
Asociación Ibérica de Zoológicos y Acuarios
han firmado un acuerdo para desarrollar actuaciones conjuntas en materia de
conservación de especies amenazadas, lo que supondrá una mayor participación de
los centros españoles en programas de investigación y educación.
Muchos, sin embargo, ya llevan años aplicándolos. Es el caso del
Zoo de
Madrid, que trabaja en colaboración con algunos
de los más importantes centros europeos en distintos programas de cría en
cautividad de especies amenazadas. «La idea que subyace en estos proyectos es
crear poblaciones de animales nacidos en zoológicos que puedan ser una
alternativa a poblaciones naturales, para que si se necesita reforzar la
población de animales salvajes exista una reserva en los zoos», aseguró Enrique
Sáez, biólogo y veterinario del centro.
Los frutos de este tipo de programas son múltiples, y algunos de ellos ya tienen
un éxito visible in situ, como las gacelas dorca nacidas en las instalaciones
madrileñas y que desde hace unas semanas corren libres en Senegal. O los pandas
rojos, uno de los más fructíferos programas de investigación y conservación que
se desarrolla en el zoo madrileño y que ya ha logrado repartir 'panditas' por
medio mundo.
Y es que tanto para el Ministerio de Medio Ambiente como para los diferentes
parques españoles se ha convertido en prioritaria la puesta en marcha de
programas de conservación de especies amenazadas con fines de repoblación o
reintroducción en el medio silvestre. 'El Acebuche', en Doñana, ya es un
referente mundial por sus avances en la reproducción de linces, y fundaciones
como la del Oso Pardo o la de Biodiversidad colaboran con zoos y centros de
recuperación animal para evitar la desaparición de especies vitales en la
Península, como el oso, el águila imperial o el quebrantahuesos.
Precisamente para tratar de impulsar aún más este tipo de programas, Medio
Ambiente y la Fundación Biodiversidad han editado una guía para animar a los
centros de toda España a que adopten todas las medidas recogidas en la normativa
europea sobre conservación de fauna salvaje en parques zoológicos.
Un libro que pretende servir de ayuda a centros, visitantes y administraciones a
aplicar la normativa para que estos centros no sean 'aparcaderos' de animales, y
que también ayuda al gabinete de Narbona a salir al paso o de la denuncia
efectuada por la Unión Europea hace tan sólo unas semanas, que abrió un
procedimiento de infracción contra España por el mal estado en que reencuentran
96 zoológicos.
Sin embargo, según Agustín López, vicepresidente de la Asociación Ibérica de
Zoológicos y Acuarios (AIZA), «la calidad de los parques ha aumentado muchos
desde hace unas décadas», que en materia de educación, conservación y bienestar
animal se encuentran al mismo nivel que el resto de los europeos.
Los objetivos de la directiva europea son proteger la fauna silvestre y
conservar la biodiversidad mediante la adopción, por parte de los Estados
miembros, de medidas relativas a la autorización e inspección de los parques
zoológicos en la comunidad, potenciando así su papel en la conservación de la
biodiversidad.
Sin embargo, según la ministra del ramo, Cristina Narbona, el grado de
implantación en España es «claramente insatisfactorio».
Sólo tres comunidades autónomas -Madrid, Navarra y Andalucía- cumplen plenamente
la ley de conservación de fauna silvestre en los parques zoológicos. De los 134
parques zoológicos españoles, sólo 47 están en estas regiones, «aunque eso no
implica que el resto no cumpla la normativa, sólo que no han designado aún quién
debe velar por ese cumplimiento», remarcó Narbona.
Fuente: El Mundo, 17 de Mayo de 2007
-Más de la mitad de los españoles no usan internet
El 17 de mayo se celebra el Día de Internet en España. Pero, ¿hay motivos para la celebración? Se dice que España es la octava potencia económica del mundo. Pero, en lo que a tecnología se refiere, estamos bastantes puestos más atrás.
La semana pasada, el
Centro de Investigaciones Sociológicas
daba a conocer los datos de su último barómetro, correspondiente al mes de
marzo. La respuesta a la pregunta número 12 es descorazonadora. Un 54% de los
españoles no usa Internet.
Hace tres años, en el barómetro de enero de 2004, el 53% de las personas decía
conocer Internet pero que no lo utilizaban. A pesar de dos planes Info XXI del
anterior Gobierno y un plan Avanza del actual, la situación no parece mejorar.
Peor se ponen las cosas con la pregunta número 12b. Cuando se interroga a los
que no hacen uso de la Red sobre los motivos, un tercio responde que ni le gusta
ni le interesa. Otro tercio afirma que no sabe utilizarla.
Desconocimiento y desinterés por uno de los mayores inventos del hombre, según
un centenar de investigadores y científicos preguntados hace unas semanas.
La labor de concienciación y promoción del Gobierno se hace casi obligatoria si
se quiere evitar que la mitad de la población española se quede atrás,
engordando las cifras de lo que se viene a llamar el analfabetismo digital.
INFRAESTRUCTURAS
En la misma encuesta del CIS, entre los que no usan Internet hay un 14,1% que
dice no tener fácil acceso y otro 6,3% al que le parece caro conectarse a la
Red. Estas respuestas llevan a otro de los grandes problemas de la Sociedad de
la Información en España. Las infraestructuras de acceso han mejorado, es
cierto, pero a un ritmo que, en vez de acercarnos a los países más avanzados de
Europa, nos están alejando. Hoy, España ocupa el puesto 17 dentro de la Europa
de los 25. Por no hablar de que la banda ancha española es más lenta y cara.
En España se está produciendo una paradoja. Aunque más de la mitad de los
españoles no usa Internet, quienes lo hacen la quieren de calidad. En nuestro
país, casi el 30% de los hogares tiene conexión de banda ancha. El problema es
que este crecimiento es a costa de las conexiones de banda estrecha y no de que
se incorporen más hogares.
"Persisten los mismos problemas", asegura Víctor Domingo, de la
Asociación de Internautas. "No hay
universalización de la banda ancha, aún hay cuatro millones de españoles que no
tienen posibilidad técnica de tenerla y otros 12 no pueden elegir entre
tecnologías al no tener cobertura de las operadoras de cable", añade. Aparte de
los problemas en las infraestructuras, Domingo recuerda la necesidad de una
mayor información y formación sobre las ventajas de las TIC. Añade además que
"en una sociedad de mileuristas, 50 euros por un ADSL sigue siendo demasiado".
CONTENIDOS
El barómetro del CIS de marzo también se ha preocupado por saber qué hacen los
españoles cuando navegan. Aquí los resultados tampoco son buenos. El 80% de los
internautas usa la Red esencialmente para buscar información o mandar correos
electrónicos. Casi un 40% también recurren a ella para bajarse música y
películas.
Pero las cifras de los que van algo más allá y aprovechan su conexión para
tratar con la administración o utilizar las posibilidades del comercio
electrónico son muy bajas. El 26% dice realizar gestiones con su banco y otro
15% ha comprado algún producto en línea.
Yendo a las cifras objetivas, el comercio electrónico en España está creciendo,
pero parte de unas cifras ridículas. Según datos de la CMT, en 2006 se movieron
en la Red casi 2.000 millones de euros. Pero, ¿qué es esa cifra comparada con
los 102.000 millones que supuso el 'e-comercio' en Estados Unidos?
Se confía mucho en el DNI electrónico para animar el negocio en línea. Servirá
para disipar la gran desconfianza que hay hacia las compras y gestiones por
Internet.
ADMINISTRACIÓN ELECTRÓNICA
En cuanto a la ciberadministración, el ejemplo de buen hacer sigue siendo la
Agencia Tributaria, como desde hace años. Cierto que no dejan de firmarse
convenios entre las distintas administraciones para acelerar su implantación,
pero aún queda mucho por hacer. Dos ejemplos recientes son la puesta en marcha
de la receta electrónica en Madrid y el programa para digitalizar los registros
civiles. Sin embargo, los ciudadanos no podrán aprovecharse de la mayoría de las
iniciativas hasta 2008, como pronto.
Más vitalidad tienen los usuarios habituales de Internet que, por su cuenta, la
están llenando de contenido y funciones. Aquí no se ha inventado casi nada de lo
que denominan Web 2.0 pero sí somos de los primeros en usarla. Un estudio de
Novatris revela que los españoles están a la
cabeza de Europa en el uso de la mensajería instantánea, la creación de blogs,
el uso de los podcast, Youtube y más de la nueva Internet.
Fuente: El Mundo, 17 de Mayo de 2007
-Estados Unidos vetará en el G-8 todo compromiso sobre el cambio climático y ahorro de energía
Aunque, teóricamente, el foro que representa a las democracias más industrializadas del planeta debería ser un escenario obligado para abordar el problema sin fronteras del cambio climático, las aparatosas cumbres del G-8 hasta ahora solamente han servido para aportar sucesivas y frustrantes sobredosis de retórica vacía. Una tradición insustancial a la que, pese a las reticencias de la Administración Bush, se intenta poner coto aprovechando la itinerante cumbre de jefes de Estado prevista en Alemania para junio.
El principal desacuerdo se centra, de nuevo, en la inclusión de
compromisos concretos dentro de la próxima declaración medioambiental del Grupo
de los Ocho. Con la aspiración, impulsada por los anfitriones germanos con
respaldo de la Unión Europea, de incluir la promesa de intentar limitar el
calentamiento global a dos grados centígrados durante este siglo y reducir
significativamente para el año 2050 las emisiones contaminantes de todo el mundo
que contribuyen al cambio climático: un cincuenta por ciento por debajo de los
niveles de 1990.
Durante la última ronda negociadora para consensuar esta declaración
medioambiental del G-8, celebrada este fin de semana en Bonn, representantes del
gobierno de Estados Unidos han expresado su oposición a incluir compromisos
concretos, siguiendo la política de la Casa Blanca que, aunque empieza a
reconocer el problema del cambio climático, rechaza la opción de limitaciones
obligatorias como una injusta y multimillonaria carga sobre su economía. A pesar
de que el creciente consenso científico insista en que un aumento superior a los
dos grados centígrados de temperatura durante este siglo puede provocar
consecuencias catastróficas, como la extinción en masa de especies de fauna y
flora o el acelerado deshielo polar.
De acuerdo a diversas filtraciones sobre las negociaciones en curso de cara a la
cumbre de junio del G-8, prevista en la localidad germana de Heiligendamm, la
Administración Bush también rechaza con vehemencia la inclusión de
pronunciamientos multilaterales del tipo: «Reconocemos que el marco de Naciones
Unidas es el foro apropiado para negociar una futura acción global sobre cambio
climático».
Washington tampoco desea que la declaración -titulada «Crecimiento y
responsabilidad en la economía mundial»- empiece afirmando: «Nosotros destacamos
que hacer frente al cambio climático es una cuestión imperativa, no opcional.
Estamos firmemente de acuerdo en que se necesita una urgente acción
internacional decida y concertada para reducir las emisiones globales
contaminantes relacionadas con el efecto invernadero, y sustentar nuestras bases
comunes de vida».
En su reiterada negativa a rubricar grandes y firmes pronunciamientos
medioambientales, la Administración Bush incluso no respalda que esta
declaración incluya un llamamiento contra el derroche de energía. Y se resiste
incluso a incluir un compromiso para aumentar la eficiencia energética de las
economías del G-8 para lograr, de cara a 2020, una reducción de al menos el 30
por ciento de su consumo.
Dentro de este complicado proceso negociador, la Casa Blanca se estaría quedando
cada vez más en una posición solitaria dentro del Grupo de los Ocho. Gran
Bretaña, Alemania e incluso Japón están de acuerdo en que la cumbre de junio
debe incluir una declaración contundente sobre cambio climático. Y Nicolas
Sarkozy, el electo presidente de Francia, en su primer discurso de victoria,
destacó la importancia de este problema, animando a que Estados Unidos adopte un
papel de liderazgo en la búsqueda de soluciones.
Fuente: ABC, 16 de Mayo de 2007
-Cómo combatir el cambio climático según Antonio Ruiz de Elvira
Estamos embarcados en un experimento involuntario, de posibles consecuencias catastróficas: El cambio climático. Se ha hablado mucho de cómo va acelerándose, de como nos va a afectar a cada uno de nosotros, de sus consecuencias para nuestros hijos. Pero, ¿es inevitable?
Pues no, se puede evitar. Tenemos todos los elementos
técnicos en nuestras manos, aunque aún nos falta la decisión social, y su
consecuencia, la decisión política. Con demasiada frecuencia se ven las medidas
a tomar desde un aspecto negativo: se nos dice, interesadamente, que combatir el
cambio climático es caro y conlleva un empeoramiento en la calidad de vida de
los ciudadanos. ¿Puede ser esto cierto?
Combatir el cambio climático exige reducir el gasto e incrementar la inversión.
Visto de un cierto prisma, reducir el gasto es vivir peor. ¿Cual es ese prisma?
Se cuenta que uno de los últimos duques de una casa noble de España tiraba al
río las vajillas de oro en las que comía, por indignas de volver a servirle. En
pocos años este señor deshizo una de las grandes fortunas de España. Podemos
gastar en grandes banquetes o circular en coches caros que no nos aportan
ganancia alguna. O podemos disfrutar de coches cómodos y alegres que consumen un
tercio de energía que aquellos. Podemos tirar las vajillas al río, o podemos
limpiarlas con cuidado para volver a utilizarlas. Tirar el dinero, tirar la
energía, es gasto, ahorrar energía es inversión para el presente y para el
futuro.
Combatir el cambio climático es, por ejemplo, aislar bien las casas. Una casa
bien aislada es infinitamente más cómoda que otra sin aislar. Esta última exige
calefacción a tope en invierno, lo que produce problemas de respiración, grandes
contrastes entre interior y exterior y resfriados, en invierno, y problemas
similares, de signo opuesto, en verano. Y, por supuesto, un ahorro substancial
de energía y de dinero.
Combatir el cambio climático es comprar coches de biofuel: De etanol y de
bioaceite. No salen más caros y ahorran mucho CO2 emitido a la atmósfera.
Combatir el cambio climático es exigir a las administraciones que dejen de
proteger el carbón, el petróleo y el gas natural y destinen recursos a hacer
bajar el precio de mercado de las placas solares. Un edificio recubierto de
placas solares es un edifico fresco en verano, pues la energía que entraría por
las paredes se captura para generar electricidad que puede consumirse en el
mismo edificio. ¿Podemos imaginar las ciudades con todos los vehículos de
hidrógeno? Un aire limpio y húmedo, eliminación de los ruidos de la explosión en
los motores.
Y combatir el cambio climático es trabajo y empleo para cientos de miles de
personas. En vez de los empleos peligrosos y mal pagados de la construcción,
empleos técnicos en todos los campos: desde el agrícola para llenar los campos
españoles de nuevo de producción agraria a los de transformación de esa
producción en bio-combustibles, a la distribución de los mismos. Desde la
fabricación de placas solares a su instalación y mantenimiento. Desde la
investigación en hidrógeno a su producción, transporte, distribución,
mantenimiento y reparación.
La carestía y dificultad de la que se habla es, esencialmente, la resistencia de
algunas, muy pocas empresas, en aceptar que deben cambiar sus inversiones, que
deben dejar petróleo, carbón y gas natural y dedicarse a la energía sostenible.
Es esencialmente vagancia mental, conservadurismo a ultranza, parálisis social y
económica. Combatir el cambio climático es factible y rentable para los
ciudadanos. ¿Lo hacemos?
Fuente: El Mundo, 16 de Mayo de 2007
(si quieres saber más sobre lo que piensa Antonio Ruiz de Elvira escucha nuestro programa sobre el cambio climático)
Qué especies viven sobre la Tierra?
¿Cómo se las puede distinguir? ¿Cómo responden al cambio?
Estas y otras preguntas son el núcleo del proyecto SpeciesBase, recién iniciado
y apoyado por la Unión Europea en asociación con científicos de Australia,
Brasil, Estados Unidos, la India y Sudáfrica.
Millones de especies forman nuestro entorno de vida y nos proporcionan el
oxígeno, el alimento, la medicina y otros servicios de los que depende nuestra
supervivencia sobre el planeta Tierra. El objetivo del proyecto es crear un
sistema global de información sobre las especies que dé respuestas sobre la vida
en la Tierra y que permita acceder a ellas por medio de un formato estandarizado
y completo a través de Internet.
«Mejorar y utilizar nuestro entendimiento de la vida en la Tierra son los retos
principales del siglo XXI. Una condición previa para el entendimiento de la vida
es el acceso libre y fácil a todo el conocimiento y la experiencia existentes
sobre todas las especies. Se necesita un sistema de información internacional y
global sobre todas las especies que existen sobre la Tierra, que sea de
confianza y público, donde la información clave esté estructurada de manera tal
que pueda ser utilizada para el análisis científico y también para informar a la
sociedad», se afirma en una declaración de los responsables del proyecto.
El objetivo del proyecto SpeciesBase no es sólo servir como fuente de
información valiosa para científicos, proporcionando información sobre la tasa
de crecimiento, la fertilidad, la tolerancia medioambiental y datos genéticos.
Otro de sus propósitos será el de proporcionar fotos, mapas e información en
varias lenguas europeas sobre la flora y la fauna europea. Los usuarios también
podrán complementar la información de los expertos añadiendo sus propias
observaciones.
El proyecto SpeciesBase se basará en el FishBase, el sistema de información
biológica de más éxito, que atrae a dos millones de visitantes al mes y es
citado regularmente en la literatura científica.
La información sobre las especies es importante para investigadores,
responsables políticos, administradores del uso del suelo, agricultores,
ecologistas y muchos otros grupos de la sociedad, así como para la sociedad en
general. Conocer las especies existentes, dónde y cómo viven, como crecen e
interactúan, ayuda a los científicos a comprender pautas de cambio y proporciona
información sobre cómo podemos modificar nuestro comportamiento para proteger la
frágil biodiversidad de la Tierra.
Esta iniciativa es parte del seguimiento de la reunión de ministros del G8 en
torno a la biodiversidad, celebrada en Potsdam en marzo de 2007.
Para obtener más información, visite:
www.speciesbase.org/
www.fishbase.org
Fuente: Cordis, 15 de Mayo de 2007
En la foto se puede apreciar este fantasmagórico anillo alrededor del cluster ZwCl0024+1652
El cluster es el ZwCl0024+1652, se encuentra a cinco mil millones de años luz de la Tierra. El anillo mide 2,6 millones de años luz de diámetro. Se encontró mientras el equipo hacia un análisis de la distribución de materia oscura en el cluster.
Los astrónomos creen que la materia oscura es la que produce la gravedad adicional que hace posible que mantiene las galaxias juntas en el cluster .
Se cree que la materia oscura está formada por un tipo de materia que impregna el universo.
Durante el análisis de las observaciones detectaron una extrañas formas parecidas a las ondas que se forman en un estanque al tirar una piedra. James Jee declaró que se sorprendió al ver esas misteriosas estructuras y pensó en un principio que se podía tratar de un error en las observaciones.
La posible explicación al anillo de materia oscura se puede encontrar en el choque de éste con otro, hace dos mil millones de años. Así lo parece confirmar un estudio realizado en el año 2002 hecho por astrofísicos de la Universidad de Bonn. El punto de vista que tenemos del cluster nos permite ver la materia oscura distribuida en forma de anillo, resultado de la distribución después del choque.
En la secuencia de imágenes de abajo se puede ver lo que posiblemente ocurrió, según suponen los astrónomos de la Universidad de Hopkins, cuando chocaron los dos clusters. En el primero momento de la colisión, la materia oscura fue expulsada hacia fuera, después de caer hacia el centro. Más adelante, debido el empuje gravitatorio, fue desplazándose hacia el centro de la agrupación formada por los dos clusters y allí se concentró. Este es el mejor experimento que demuestra la influencia de la gravedad sobre la materia oscura.
La mayor parte de la materia del universo es oscura. Encontrarla es muy difícil a causa de que no refleja luz ni la emite. Gracias a la influencia gravitatoria que ejerce sobre la luz se puede tener constancia de ella. Estudiar las distorsiones de la luz que procede de lejanas galaxias es la mejor manera de tener información sobre la materia oscura. Este técnica recibe el nombre de lente gravitacional.
Secuencia del choque entre clusters
La concentración de materia oscura, producida por el choque, modifica la luz de las galaxias que se encuentran detrás.
El Hubble permite gracias a su elevada sesibilidad detectar galaxias muy lejanas. En este caso, ha permitido la detección de la materia oscura.
Fuente: ESA, 15 de Mayo de 2007
13,2 mil millones de años tiene la estrella recién descubierta cuyo nombre es HE 1523-0901. A pesar de su edad, se encuentra bastante cerca de nosotros, en la Vía Láctea. No es la estrella más longeva que se conoce ya que CS 31082-001 tiene unos 14 mil millones de años. Se trata de estrellas de primera generación, formadas unos pocos cientos de millones de años después que la formación del universo. Estas estrellas se acaban enfriando y empequeñecen convirtiéndose en enanas blancas. Este tipo de estrellas no son muy brillantes.
HE 1523-0901 (representación artística)
La estrella pudo ser detectada gracias a un espectrógrafo instalado en el Telescopio Muy Largo en el Observatorio Meridional Europeo de Chile. La estrella tiene suficiente torio y uranio para ser medidos desde la Tierra. Comparando las proporciones de estos dos elementos con las pertenecientes a otros como osmio e iridio se ha podido estimar su edad.
El estudio de estas estrellas aporta información sobre la formación del universo. Para los astrofísicos son laboratorios en los que observar diferentes procesos.
Las primeras estrellas que se generaron en el universo fueron 100 veces más masivas que el Sol. Fueron muy inestables y desaparecieron rápidamente, así que será difícil detectar estrellas más antiguas que HE 1523-0901.
Fuente: Nature, 11 de Mayo de 2007
Trigo, del Instituto
de Ciencias del Espacio (CSIC-IEEC), explicó a Efe que la central de emergencias
del 112 se vio colapsada por las llamadas de los testigos pocos minutos después.
Todos los testigos coincidieron en que se trataba de la 'súbita aparición' de
una bola de fuego 'excepcionalmente brillante', que provocó 'gran alarma' en
pequeñas poblaciones.
'La luminosidad del fenómeno fue tal que incluso fue
registrada por pilotos de la base de Torrejón de Ardoz en pleno vuelo (a 40.000
pies de altura)', según Trigo.
Trigo y José L.Ortiz, del Instituto de Astrofísica de Andalucía (CSIC), están
actualmente intentando recopilar la mayor información posible de los testigos
del fenómeno, que, al parecer, también fue presenciado en Málaga.
A su juicio, este caso es 'sumamente importante' dado que desde varias
poblaciones de Ciudad Real se pudo incluso escuchar el estallido sónico
producido por la entrada del meteoroide por debajo de la barrera de 25 o 20
kilómetros, lo que es 'indicativo de la probable llegada de meteoritos al
suelo'.
Los investigadores hacen un llamamiento a los organismos oficiales para que
comprueben sus grabaciones con cámaras de vídeo fijas, especialmente las que
hubiera en Madrid enfocadas hacia el sur-suroeste.
Trigo explicó que muchos de estos bólidos no producen meteoritos porque se
volatilizan por completo, pero que el avistado ayer es 'muy capaz de haber
producido meteoritos al llegar al suelo'.
El investigador prefirió mantener absoluta discreción de los lugares en los que
podría haber caído alguno, ya que el fragmento más grande del último que se
avistó en España, en diciembre de 2004, fue 'sustraído' por un equipo francés de
'cazameteoritos' merced a la información que habían facilitado los testigos.
Ese meteoro, que cayó en torno a la localidad palentina de Villalbeto de la
Peña, era el primero que conseguía recuperarse desde hacía más de 50 años,
recalcó Trigo.
En julio del año pasado, los investigadores Jordi Llorca y Javier García Guinea
publicaron un trabajo que describía las características de aquella 'bola de
fuego' de 750 kilos que atravesó la península la tarde del 4 de diciembre de
2004 tras un viaje interestelar de 48 millones de años.
La noticia de que en España, donde no se encontraba un meteorito desde 1947, se
había avistado un 'bólido', que según han demostrado los autores del trabajo
entró en la atmósfera a 61.000 kilómetros por hora y estalló cuando estaba a 28
kilómetros del suelo, atrajo inmediatamente la atención de los 'investigadores'
y coleccionistas extranjeros.
Así, según García Guinea, el alemán Jurgen Neu, enviado por el laboratorio de
R.Bartozeswich, 'entró en España a los pocos días acompañado de varios
'mercenarios'' que se hicieron con varios de los 32 fragmentos que se han podido
documentar.
Otro grupo francés, éste, de coleccionistas, 'cazó' el mayor de los pedazos días
después, el que pesa 1,3 kilos, y consiguió despistar a la Guardia Civil, que
vigilaba la zona, entrando por la sierra.
La Ley del Patrimonio Histórico Español, de 1985, protege todos los bienes,
incluidos los naturales como pueden ser los meteoritos, y establece sanciones
para quienes exporten ilícitamente cualquiera de ellos.-
Fuente: Terra.es, 11 de Mayo de 2007
¿Podemos llegar a saber qué es la consciencia? Desde hace siglos, y desde
diferentes ramas del conocimiento, ha existido un interés permanente por
intentar comprender en qué consiste, cómo se manifiesta y, más allá de estas
primeras reflexiones, dónde se ubica. En todo caso, sólo muy recientemente,
quizás a lo largo de los dos últimos siglos, hemos conseguido hacer de la
consciencia un objeto de estudio científico, abordable de forma experimental.
Además de lo ya recorrido por la filosofía, las aportaciones realizadas desde
disciplinas pertenecientes al ámbito de la neurociencia han permitido entender
la consciencia como un producto más de la evolución y avanzar notablemente en el
conocimiento de sus bases neurológicas.
Desde esta aproximación, eso que podríamos denominar consciencia se perfila en
su naturaleza no tanto como un fenómeno unitario, sino asociado a un conjunto de
procesos y funciones, que se localizan en aquellas zonas de la corteza cerebral
evolutivamente más recientes, la conocida como neocorteza y que conforman en
gran medida la manera en que percibimos y procesamos la información de nuestro
entorno físico y social, ponemos en marcha comportamientos, cogniciones y
emociones y construimos una idea propia del mundo que nos rodea y de nosotros
mismos.
LESIONES EN LA NEOCORTEZA
Si bien es cierto que en la actualidad disponemos de técnicas que nos permiten
observar in vivo el funcionamiento del cerebro en personas sanas (nos referimos
a la electroencefalografía y las más recientes como la tomografía de emisión de
positrones, la resonancia magnética funcional y la magnetoencefalografía), la
mayor parte de los conocimientos que tenemos acerca de cómo funciona la
consciencia provienen del estudio y observación de aquellos sujetos que, debido
al padecimiento de alguna lesión neurológica adquirida, han mostrado evidencia
de carecer de alguna parte de la misma. Una de estas alteraciones es el llamado
síndrome de "heminegligencia contralateral", producido por lesiones en la zona
de la neocorteza que se corresponde con el lóbulo parietal derecho. Este
síndrome se caracteriza por la incapacidad para atender todo lo que se sitúa en
el lado contralateral al de la lesión cerebral, es decir, el izquierdo. Las
personas que lo padecen tienen una representación del mundo visual, espacial y
auditivo reducida a la mitad e incluso, en algunos casos, no parece
pertenecerles ni su hemicuerpo izquierdo.
No obstante, algunos experimentos muestran que aunque aparentemente los sujetos
no son conscientes de la información que se les presenta, existe algún tipo de
procesamiento de la misma. Por ejemplo, si se les muestran dibujos de dos casas
y una de ellas, la que se presenta en su lado izquierdo, está ardiendo, aunque
no son capaces de describirla como tal, no la eligen como la casa a la que irían
a vivir. Otro trastorno que aporta información interesante es el fenómeno
conocido con el nombre de "visión ciega". La corteza visual primaria, situada en
la zona posterior del cerebro, es la primera fase del procesamiento cortical de
los estímulos visuales que nos permite identificar y reconocer los objetos que
nos rodean. Las lesiones extensas en esta área producen partes ciegas, que no
permiten la visión. Sin embargo, hay casos en los que al presentar objetos los
sujetos no los reconocen, pero si posteriormente se pide que elijan el que crean
que estaba situado en ese lugar, lo hacen correctamente. La "prosopagnosia"
también nos permite aislar otro posible asiento neurológico de la consciencia.
Esta alteración se produce por lesiones en corteza temporal de ambos hemisferios
e impide a los sujetos reconocer caras familiares y conocidas. A veces, tampoco
son capaces de reconocerse ellos mismos en fotos.
PREFERENCIAS AFECTIVAS
No obstante, incluso en estos casos, se ha encontrado que si bien los sujetos
tienen dificultades para reconocer la identidad de la cara, son sin embargo
capaces de mostrar preferencias afectivas y señalar quienes les parecen más o
menos simpáticos o valorar como más o menos agradables. Por ejemplo, si se les
pide que identifiquen la foto de Hitler además de otras fotos de personajes
conocidos, no son capaces de hacerlo, pero si les pedimos que escojan quién les
aparece menos agradable, sí la seleccionan. El estudio de la memoria también nos
ayuda a comprender mejor los mecanismos de la consciencia. La memoria no es una
capacidad unitaria y contamos con dos sistemas para almacenar la información a
largo plazo. Una de ellas se corresponde con la llamada memoria explícita,
aquella que codifica y almacena la información de manera consciente. La otra se
conoce con el nombre de memoria implícita y es la que posibilitaría la
codificación y almacenamiento de la información sin que necesariamente fuéramos
conscientes de ello. Dentro de esta última memoria se incluyen algunos tipos de
condicionamientos que no son más que aprendizajes producidos por la asociación
de un evento u objeto neutro, que inicialmente no provoca una respuesta
emocional determinada, con algo desagradable.
De alguna manera, todos hemos sufrido una situación de este tipo, un miedo que
no sabemos por qué se produce e incluso algunas fobias conocidas. Otro aspecto
de la memoria implícita es el conocido como efecto de facilitación o priming. En
estos casos sucede que una exposición previa a una situación facilita el
recuerdo de la misma sin que seamos conscientes de que realmente hemos estado
expuestos a ella. En ocasiones creemos reconocer vivencias o lugares, que en
principio son nuevas para nosotros. Es el conocido como efecto dejá vu y se
explica en parte por este proceso no consciente.
Si hasta este punto hemos tratado de responder a la pregunta con la que
comenzamos, en el intento de saber qué es la consciencia, quizás debamos
finalizar con otro interrogante, que se deriva de forma natural de los
argumentos y evidencias que han sido expuestas. ¿Dónde y cómo se produce este
procesamiento de la información que parece ser no consciente y que, sin embargo,
de forma parecida a la consciencia también afecta a nuestros procesos y
funciones?
EVOLUCIÓN MÁS ANTIGUA
Recurriendo a una metáfora común, y considerando los casos de lesiones que hemos
descrito previamente, podríamos decir que lo consciente y lo no consciente
constituyen las dos caras de la misma moneda, si bien cada uno de estos procesos
está ligado a diferentes estructuras y sistemas cerebrales. De los que sustentan
la consciencia, ya conocemos algunos. Respecto a lo no consciente y a las zonas
relacionadas con esta forma de procesar el mundo, las investigaciones apuntan a
la participación de estructuras que se sitúan en la zona media del cerebro
(sistema límbico, diencéfalo y ganglios basales), evolutivamente más antiguas
que las que median la parte consciente de los procesos y funciones y que
constituyen la subcorteza.
También sabemos que estas "dos mentes", aparentemente separadas, mantienen
constantes y complejas interrelaciones neuroquímicas, desde sus propias
localizaciones. La activación de zonas corticales, relacionadas con la
consciencia, requiere de la participación de las zonas subcorticales, correlato
de lo no consciente. Parece ser un procesamiento de la información en paralelo
y/o sucesivo, pero compartido, que, en ausencia de lesiones cerebrales u otros
procesos patológicos nos permite sentir que disponemos de una construcción
mental del mundo y de nosotros mismos, unitaria, sólida y coherente.
Fuente: Elcultural.es, 11 de Mayo de 2007
-La NASA se enfrenta con los problemas del espacia en el fondo del mar
El grupo que realiza la misión NEEMO 12
(NASA Extreme Environment Mission Operations 12) está formado por la astronauta
Heidemarie Stefanyshyn-Piper, el astronauta hispano José Hernández, el médico
Tim Broderick, de la Universidad de Cincinnati, y el cirujano de la NASA Josef
Schmid, según ha informado la Administración Nacional de Aeronáutica y del
Espacio (NASA) de EE.UU.
A bordo del sumergible Laboratorio Sumbarino Acuario, de la
Administración Nacional Oceánica
y Atmosférica (NOAA), el grupo realizará una serie de experimentos de
tecnología médica avanzada, incluyendo "telecirugía robótica" en pacientes
simulados, dijo la NASA.
"La experiencia única de Schmid en medicina espacial ayudará a la misión así
como al desarrollo de técnicas de atención para las tripulaciones durante
misiones tripuladas de larga duración", según Bill Todd, director del proyecto
NEEMO 12, en el
Centro Espacial Johnson de la NASA en Houston (Texas).
Según la agencia espacial, las demostraciones de tecnología "telequirúrgica"
desarrolladas y refinadas en esta misión ayudarán a los médicos a superar los
problemas de la comunicación interplanetaria.
"Las tecnologías como la función robótica automatizada y guiada por un cirujano
mejorarán la atención de los astronautas en las futuras misiones a la Luna y a
Marte", según señala la NASA en Internet.
La tripulación del laboratorio submarino también realizará "caminatas lunares"
para poner a pruebas los conceptos sobre la exploración lunar del futuro.
Durante esas caminatas, construirán una estructura submarina con la ayuda de un
vehículo operado de manera remota y practicarán la recolección de muestras
geológicas con el fin de desarrollar instrumentos para llevar a cabo esa tarea
en la Luna.
Similar en tamaño a los dormitorios de la Estación Espacial Internacional (ISS),
'Acuario' es el único hábitat y laboratorio submarino permanente.
El complejo, de alrededor de 15 metros de largo y cuatro metros de diámetro, se
encuentra a unos 20 metros de la superficie marina en Cayo Largo, en el extremo
meridional de la península de Florida.
Fuente: EFE, 10 de Mayo de 2007
Un equipo de científicos de la Universidad Central de Florida, capitaneado por Joe Harrington, ha encontrado el planeta extrasolar más caliente de los registrados hasta ahora: 3.700 grados centígrados en la superficie, muchísimo más caliente que astros como Mercurio, donde el termómetro puede subir hasta los 400 grados, o Venus, donde se registran temperaturas de hasta 485 grados, suficientes como para fundir el plomo.
Utilizando imágenes y datos obtenidos por el telescopio 'Spitzer', de la NASA, Harrington y su equipo observaron al diminuto planeta, denominado HD149026b, desaparecer detrás de una estrella, para luego volver a aparecer. Para poder medir su temperatura, los científicos tuvieron que observar la radiación que emite, y de ahí deducir la temperatura que se registra en el lado del planeta que está de cara a su estrella.
' Los resultados de la investigación, que publica esta semana la revista 'Nature', desvelan que el planeta HD 149026b, descubierto por los astrónomos en 2005, es de un tamaño algo menor que Saturno, lo que le convierte en el más pequeño de los planetas extrasolares medidos hasta la actualidad. Su masa es mayor de la de Saturno, y se sospecha que tiene un núcleo entre 70 y 90 veces mayor que el planeta Tierra. Según los astrónomos, el planeta tiene más elementos sólidos (material distinto del hidrógeno y el helio) de los que existen en todo el Sistema Solar, a parte del Sol.
La temperatura registrada por los científicos en la zona del planeta más cercana a la estrella es de unos 3.700 grados centígrados, una temperatura altísima pero muy alejada de estrellas como el Sol, donde se pueden llegar a registrar unos 6000 ºC.
Por el momento, los astrónomos han detectado más de 230 planetas extrasolares, pero ésta es la cuarta ocasión en la que han tenido ocasión de medir la temperatura directamente. "Es el planeta más extraño y exótico que hemos encontrado nunca", señaló Harrington. "Es pequeño, muy denso y además extremadamente caliente", apuntó.
Para alcanzar esa temperatura, que implica que el planeta absorbe prácticamente toda la luz solar que llega hasta él, significa que la superficie debe ser negra como el carbón, lo que es un hecho insólito en los planetas conocidos hasta ahora. "Esto provocaría que el calor emanante provocara un efecto como de brillo que sale del planeta, lo que le hace ser como una especie de brillante en el espacio, absorbiendo toda la luz entrante y brillando con un ligero tono rojizo", explicó Harrington
Fuente: El Mundo, 9 de Mayo de 2007
-Una supernova espectacular es descubierta por la NASA.
La explosión estelar más brillante hasta ahora registrada podría ser la de un nuevo tipo de supernova, de acuerdo con los cálculos del Observatorio Chandra de rayos X, informó la agencia espacial estadounidense NASA.
El descubrimiento, dijeron los científicos en una
conferencia de prensa, indica que las explosiones de estrellas enormes fueron
relativamente comunes en las etapas tempranas del universo y que una explosión
similar podría ocurrir en la propia galaxia en la que se encuentra la Tierra, la
Vía Láctea.
"Ésta fue una explosión verdaderamente monstruosa, cientos de veces mayor que la
de una supernova típica", dijo Nathan Smith, de la
Universidad de California (Berkeley), quien
encabeza el equipo de astrónomos de esa universidad y de la de Texas. "Esto
significa que la estrella que explotó podría tener el mayor tamaño que puedan
alcanzar los astros, unas 150 veces el tamaño del Sol", añadió. "Jamás antes
habíamos visto algo así".
Los astrónomos han descubierto unas 500 supernovas tan sólo en 2006, dijo Alan
Smale, del programa Chandra en la sede central de la NASA. "Pero ésta es
extraordinariamente grande y brillante", añadió Smith.
El observatorio Chandra, que orbita a unos 139.000 kilómetros de la Tierra, es
el telescopio de rayos X más poderoso y se diseñó para observar las radiaciones
procedentes de regiones de alta energía en el Universo, tales como los restos de
estrellas que han estallado.
Los astrónomos creen que las estrellas de primera generación fueron gigantescas
y la observación de esta supernova podría brindar una vista inusitada de la
forma en que "murieron" las primeras estrellas. Hasta ahora no se había podido
observar, en nuestra región del Universo, una supernova de tales dimensiones y
en el proceso hacia su muerte.
Línea evolutiva de una estrella
El descubrimiento de la supernova denominada SN 20006gy proporciona pruebas de
que la muerte de las estrellas de tal magnitud es un fenómeno totalmente
diferente del descrito por las predicciones teóricas. Dave Pooley, quien dirigió
las observaciones de Chandra en la Universidad de California, dijo que los datos
recogidos hasta ahora "dan pruebas firmes de que la SN 2006gy fue, de veras, la
muerte de una estrella extremadamente grande".
Los astrónomos explicaron que, al parecer, SN 2006gy expelió una gran cantidad
de masa antes de la explosión. Esta erupción es similar a la ya observada desde
Eta Carinae, una estrella gigantesca en la Vía Láctea, y por eso algunos
científicos creen que la Eta Carineae también se encamina a una explosión como
supernova.
La SN 2006gy bien puede ser la supernova más brillante observada hasta ahora,
pero se encuentra en la galaxia NGC 1260 y a unos 240 millones de años luz de la
Tierra. En cambio la Eta Carinae se encuentra a apenas 7.500 años luz y es
vecina de la Tierra en la misma Vía Láctea.
Mario Livio, del
Instituto de Ciencia de Telescopio Espacial en
Baltimore (Maryland), dijo que "no puede saberse con certeza si Eta Carinae
explotará pronto, pero es mejor que mantengamos la vigilancia por si acaso". "La
explosión de Eta Carinae podría ser el mejor espectáculo estelar de la
civilización moderna", añadió.
Las supernovas ocurren cuando las estrellas más grandes agotan todo su
combustible y se destruyen por su propia gravedad, pero los astrónomos creen que
en el caso de SN 2006gy las circunstancias pueden haber sido diferentes.
Bajo ciertas condiciones, el núcleo de una estrella mayor produce tanta luz de
rayos gamma que una porción de la energía de la radiación se convierte en pares
de partículas y anti partículas. La disminución de energía que resulta de ello
hace que la estrella se comprima por su propia gravedad.
Después de la compresión ocurren reacciones termonucleares y la estrella
explota, dispersando los restos en el espacio. Los datos de la SN 2006gy indican
que las supernovas resultantes de las primeras estrellas, en lugar de colapsarse
completamente en agujeros negros, pueden ser más comunes que lo que hasta ahora
se creía.
"En términos de su efecto sobre el Universo, la diferencia es enorme entre estas
dos posibilidades", dijo Smith. "Una dispersa por la galaxia una gran cantidad
de nuevos elementos y la otra los aprisiona para siempre en un agujero negro".
Fuente: EFE, 8 de Mayo de 2007
-La Universidad hebrea de Jerusalén anuncia el descubrimiento de la tumba de Herodes
La Universidad Hebrea de Jerusalén ha anunciado en un comunicado remitido a la prensa que ha sido descubierta la tumba y fosa donde fue enterrado el rey Herodes, que gobernó Judea bajo el Imperio Romano y que ordenó, según la Biblia, la 'Matanza de los Inocentes' para asesinar a Jesús a los pocos días de su nacimiento
El hallazgo se produjo en la zona
arqueológica conocida como Herodium, próxima a Jerusalén y de él informará en
detalle la Universidad en una conferencia de prensa a lo largo de hoy, martes,
en Jerusalén.
La tumba de Herodes ha sido durante años uno de los restos arqueológicos más
codiciados en la zona y el descubrimiento fue hecho por el profesor israelí Ehud
Netzer, según informa la edición electrónica del diario 'Haaretz',
que adelantó la noticia.
El Evangelio de San Mateo señala que Herodes ordenó la 'Masacre de los
Inocentes'. Por entonces, el monarca había sido declarado 'rey de los judíos'
por el Senado romano en el año 40 a.C. Según la Biblia, cuando supo del
nacimiento de Jesús, al que popularmente se le conocía como el 'nuevo rey de los
judíos', por temor a perder su trono Herodes decretó la muerte de todos los
niños varones de Belén. De acuerdo a San Mateo, José y María huyeron hacia
Egipto con su bebé Jesús para escapar de la matanza, la cual se conmemora en el
calendario el 28 de diciembre.
Herodes, nacido en el 73 a.C. en la población de Ashkelon, hoy al sur de Tel
Aviv, se declaró judío a pesar de que sus padres no lo eran, y fue nombrado
gobernador de Galilea a la edad de 25 años. Reinó entre 34 y 40 años, según las
distintas fuentes.
Las crónicas del historiador judío Flavio Josefo sitúan la muerte de Herodes en
torno al año 4 ó 5 a.C. Durante su reinado también se cree que promovió la
expansión del Segundo Templo de Jerusalén.
Fuente: EFE, 8 de Mayo de 2007
-Cinco grandes proyectos impulsan una nueva etapa en la genómica
A finales de este mes se espera que los Institutos Nacionales de Salud de Estados Unidos (NIH) establezcan las prioridades de inversión para 2008-2009 de su programa 'Roadmap initiative', que pretende identificar las brechas de la investigación biomédica y financiar, con una dotación muy superior a la normal, aquellos trabajos encaminados a cerrarlas. La genómica es una de las áreas clave.
La creación de una biblioteca molecular
y el rediseño de la maquinaria de investigación clínica se llevaron la palma en
las iniciativas de 2004. Entre ambos proyectos sumaron más de 1.300 millones de
dólares (unos 1.000 millones de euros), poco comparado con los 450.000 millones
de gasto militar de aquel año y mucho al lado de los 3.700 millones de dólares
que invirtió en investigación médica en 2000 la Unión Europea.
Cinco proyectos han sido seleccionados por los directores de estos institutos de
salud para competir esta primavera como 'principales propuestas' (Major
proposals) por las ayudas económicas de los NIH.
MICROBIOMA: NUESTROS 'OTROS' GENES
En el cuerpo humano viven 10 veces más microbios que células. Estos organismos
están relacionados con la salud y la enfermedad, pero aún no sabemos hasta qué
punto. Un primer y esencial paso para desentrañar este misterio sería secuenciar
el genoma de estos seres, uno de los proyectos elegidos.
Hongos, protistas y, sobre todo, bacterias viven con nosotros, dentro de nuestro
cuerpo o en la superficie. Se han identificado cerca de 400 especies distintas
de microbios en el organismo humano aunque se cree que puede haber hasta 10.000.
Juntos, todos sus genes suman muchos más que los 30.000 del ser humano.
Constituyen lo que siempre se ha conocido como flora bacteriana. Unos cumplen
funciones tan importantes como la síntesis de vitaminas o la digestión de
alimentos y otros son un enigma ya que, como la mayor parte, no se pueden
cultivar en el laboratorio por lo que estudiarlos es muy complicado.
Algunos de estos organismos ya se han secuenciado, pero suponen una parte ínfima
del total. Este proyecto, que pretende embarcarse en la secuenciación de la
microbiota humana, ahondará además, según la descripción del NIH, en "el
conocimiento de estas comunidades microbianas para determinar cómo afectan a la
salud humana".
EL PROTEOMA HUMANO
Buena parte de los genes contiene información para fabricar proteínas. En
nuestro cuerpo hay más de dos millones de estas moléculas, cada una con su
función, y el conjunto recibe el nombre de proteoma. Su conocimiento exacto
sería el paso lógico siguiente a la secuenciación del ADN, en opinión de muchos
expertos.
Las proteínas son macromoléculas, cadenas de más de 100 aminoácidos que adoptan
diferentes configuraciones espaciales y constituyen más del 50% del peso seco de
una célula. Hay proteínas tan 'famosas' como la insulina o el colágeno y tan
importantes como la hemoglobina o la p53, que controla el ciclo celular y evita
la formación de tumores. Pero existe un amplio e ignoto espectro compuesto por
decenas de miles.
Identificar la misión de cada proteína y las interacciones entre ellas, como
pretende este proyecto, permitirá conocer su papel en la salud y la enfermedad.
A partir de ahí, será posible establecer, entre otras cosas, cuáles son dianas
para el tratamiento de enfermedades como el sida o la malaria.
POR QUÉ SOMOS COMO SOMOS
La apariencia física y constitución se denomina fenotipo. Podría haber casi
tantos fenotipos humanos como personas y cada uno de ellos estaría determinado
por una carga genética concreta y la influencia del ambiente, lo que da idea de
la complejidad de catalogarlos.
La primera clasificación, muy rudimentaria, data de la Antigua Grecia donde
clasificaban a los individuos como tísicos o delgados (predominio del eje
vertical) y atléticos o musculosos (con predominio del horizontal). Kretschmer,
psiquiatra alemán, los dividió en pícnicos, atléticos, asténicos y displásicos,
y la escuela americana en endo, ecto y mesomórficos.
Estos son algunos ejemplos, más o menos complejos, de cómo se ha catalogado a
los individuos en función de su aspecto físico. Profundizando en este campo será
posible caracterizar enfermedades y trastornos complejos.
MÁS ALLÁ DE LOS GENES
Otro de los proyectos finalistas se embarcará en el estudio de la epigenética.
Esta rama de la biología estudia los cambios que sufre el ADN que resultan en la
alteración de la expresión y función de los genes sin que estos sufran una
modificación estructural.
Estos cambios son reversibles y heredables y pueden estar relacionados con la
aparición de enfermedades como los producidos por algunos teratógenos, que
provocan malformaciones en el feto. También intervienen en procesos biológicos
normales como el silenciamiento de uno de los dos cromosomas X de las células
femeninas mediante un 'empaquetamiento' que lo mantiene inactivo.
Aunque ya se han hecho algunos progresos en este ámbito, para seguir avanzando
"es necesario desarrollar mejores métodos para la detección de estas
modificaciones y un entendimiento más claro de los factores que inducen estos
cambios", según apuntan las conclusiones de los directores de los institutos de
salud.
UN FENÓMENO COMÚN PERO POCO CONOCIDO
Rubor, calor, tumor y dolor; estas son las manifestaciones clínicas de la
inflamación, una reacción muy frecuente de la que, sin embargo, no se sabe
demasiado. Esta respuesta inespecífica del organismo frente a las agresiones
está implicada en muchas enfermedades por lo que su comprensión sería de gran
utilidad para la medicina.
Esta reacción del cuerpo es una de las armas defensivas de que dispone, vital
para la supervivencia. Durante mucho tiempo identificada a través de sus signos,
los científicos están empezando ahora a esbozar la compleja y sincronizada
cascada de fenómenos que conforman la inflamación.
El valor de esta iniciativa radica, según los NIH, en la posibilidad de
"desenmascarar los mecanismos inmunes y los mediadores de la inflamación, así
como los factores genéticos y ambientales y la relación entre inflamación y
enfermedad".
Fuente: El Mundo, 7 de Mayo de 2007
-Frenar el cambio climático es posible y más barato que renunciar a la acción
A esto se refirió durante la
presentación del informe Rajendra Pachauri, presidente del IPCC: «En una
democracia, en último lugar serán los ciudadanos los que presionen para el
cambio y las iniciativas». La pelota la recogía el comisario europeo de Medio
Ambiente, Stavros Dimas: «Ya no hay excusa para esperar».
HAY UN «ALTO GRADO DE ACUERDO»
Y es que «con las medidas actuales de mitigación y las prácticas asociadas de
desarrollo sostenible, las emisiones globales de gases de efecto invernadero
continuarán creciendo en las próximas décadas», dice el informe. Una situación
en torno a la que hay un «alto grado de acuerdo» y «mucha evidencia», según la
terminología usada en el documento por el IPCC. Esto se traduciría en un aumento
de emisiones de entre 9,7 gigatoneladas de CO2 equivalente (los seis gases de
efecto invernadero medidos en unidades de dióxido de carbono) y 36,7
gigatoneladas, en 2030 sobre 1990.
Contando sólo el CO2 procedente de las actividades energéticas, el crecimiento
hasta 2030 lo aglutinarán los países en desarrollo (entre dos tercios y tres
cuartos). Eso sí, sus emisiones per cápita (2,8-5,1 toneladas de CO2 por
habitante) seguirán siendo más bajas que las de los desarrollados (9,6-15,1).
Esta matización ha sido clave para que los países en desarrollo, que en esta
reunión han vuelto a sacar a relucir la responsabilidad histórica de las
naciones industrializadas en el problema de la contaminación, encabezados por
China y la India, apoyaran este texto, pues tener en cuenta las emisiones per
cápita y por unidad de PIB es la única forma de que estos países pudieran
aceptar compromisos de reducción futuros en la revisión del protocolo de Kioto.
Hay que tener en cuenta que China es el segundo emisor mundial, tras Estados
Unidos, pero pronto puede ser el primero.
La escasez de medidas de mitigación ya ha llevado a que, entre 1970 y 2004, las
emisiones se hayan incrementado en un 70%, desde 28,7 gigatoneladas de CO2
equivalente a 49. Por tanto, es necesario poner en marcha todas las medidas para
estabilizar la concentración de CO2 en la atmósfera.
COSTES Y BENEFICIOS
Los costes han sido calculados por el IPCC, y pasan por ejemplo por un 3% del
PIB mundial en 2030 si se quieren mantener los niveles de CO2 en 445 partes por
millón (ahora es de 430), lo que supondría empezar a reducir las emisiones en
2015 para alcanzar una disminución de un 50-85% en 2050 sobre el año 2000 y
lograr no superar así los 2 grados de aumento de temperatura con respecto a la
etapa preindustrial; y de un 0,2 a un 2,5% del PIB si esa estabilización es de
535-590 partes por millón, lo que elevaría la temperatura entre 2,8 y 3,2
grados, más acorde con la mejor estimación del primer informe del IPCC, que
situaba el aumento de temperatura para final de siglo en 3 grados.
«Son costes relativamente moderados», afirmó Pachauri. Lo que está claro es que
a tenor de los informes anteriores, que presentaban un panorama desolador de
sequías, olas de calor, inundaciones..., será más caro no hacer nada. Además,
los beneficios para la salud a corto plazo originados por la reducción de la
contaminación del aire, como resultado de la reducción de emisiones, pueden ser
sustanciales y compensarían buena parte de los costes de mitigación. La
inclusión de otros beneficios distintos, como el aumento de la seguridad
energética y del empleo, puede reducir más los costes.
EL INFORME IDENTIFICA CLARAMENTE LAS MEDIDAS PARA LUCHAR CONTRA EL CAMBIO
CLIMÁTICO
Suministro de energía. Es uno de los capítulos más importantes, puesto que las
emisiones por su uso pueden aumentar entre un 45 y un 100% hasta 2030. Las
soluciones que plantea el IPCC pasan por una menor dependencia del carbón en
favor del gas natural; la eficiencia energética, las energías renovables
(hidroeléctrica, solar, eólica, geotermal y bioenergía) como recursos
mitigadores que ya están disponibles. Asimismo, sugiere que la energía nuclear
puede jugar un papel a corto y medio plazo, pronosticándole un 18% del
suministro eléctrico en 2030, si bien advierte de que existen incertidumbres
sobre la seguridad, la proliferación de armas y los residuos. En cuanto a la
captura y almacenamiento de CO2, reconoce que puede jugar un papel importante
antes de 2030.
Transporte. En este sector, que es la fuente de gases de efecto invernadero que
más rápidamente aumenta, destaca como opción la fabricación de los vehículos
híbridos, que ya están en el mercado; mayores impuestos para los aceites
derivados de fósiles; los incentivos para la mejora de los sistemas de
transporte público, y el empleo de medios de transporte no motorizados, como la
bicicleta. También considera importante el papel de los biocombustibles. En
cuanto a la aviación, reconoce la dificultad de rebajar sus emisiones, pues
además de tecnología y gestión del tráfico aéreo es necesario que reduzca otros
impactos que no tienen que ver con el CO2.
Vivienda. Apuesta por un sector de la construcción ecológico, con normas más
severas y viviendas con sistemas de calefacción y climatización más limpios. Así
se podrían evitar el 30% de las emisiones de dióxido de carbono producidas por
el sector antes de 2020. Además, y por primera vez en un informe de estas
características, se reconoce que pequeños cambios en nuestro estilo de vida son
importantes para frenar el calentamiento.
Industria. El IPCC identifica medidas como la imposición de nuevos controles a
los contaminantes, incluidos el metano y el óxido nitroso, y a los productos
químicos que también contribuyen al efecto invernadero. El documento pide
reducir las emisiones de la industria con incentivos fiscales y certificados de
emisión de CO2.
Agricultura y bosques. Los expertos señalan que la mejora de la gestión del
suelo rústico y los bosques, con énfasis en la reforestación y la prevención de
la deforestación, ofrece una de las alternativas «más fáciles y baratas» para la
reducción de emisiones.
El informe deja claro que todos los sectores económicos tienen un potencial
importante de reducción de emisiones de aquí a 2030. Según Bert Metz, co-presidente
del grupo de trabajo de mitigación del IPCC, «ese potencial es tal que
permitiría compensar el crecimiento de las emisiones con las tecnologías
actuales». Y «los costes de reducción son totalmente asequibles», añadió. Por
tanto, sólo hace falta voluntad.
Este cuarto Informe de Evaluación del IPCC, cuya síntesis se presentará en
Valencia en noviembre, será llevado a la próxima Cumbre del Clima, que se
celebrará en diciembre en Bali, y constituirá un texto clave para fijar los
compromisos para después del año 2012.
Fuente: ABC, 7 de Mayo de 2007
-La huella de Tartessos conduce a Doñana
La escasez de restos arqueológicos y la
abundancia de testimonios literarios han convertido Tartessos, la civilización
que ocupó el suroeste peninsular entre los siglos X y VI antes de Cristo, en
territorio legendario, en el que el mito completa las preguntas que la ciencia
aún no alcanza a responder.
Un grupo de investigadores españoles
busca restos arqueológicos en Doñana, aunque todavía no se atreven a hablar de
Tartessos. En 2004, un científico alemán ubicó allí una gran ciudad tartésica a
partir de unas imágenes de satélite que mostraban figuras circulares que pueden
esconder debajo esos restos. Es la primera vez que se busca en Doñana, porque la
teoría hasta ahora decía que siempre estuvo inundada.
El estudio del subsuelo refleja que debajo no hay sólo arcilla, como se creía
hasta ahora En invierno, el agua cubre todo y miles de aves acuáticas, como la
garza real o el pato cuchara, pueblan el lugar. Pero en verano, la marisma de
Hinojos, en el corazón del Parque Natural de Doñana, se convierte en un
secarral. Un paseo por allí un día de agosto no excitaría la imaginación de
ningún arqueólogo. Hay que alejarse bastante, y tomar imágenes a partir de 100
metros de altura. Es entonces cuando el estudioso se da cuenta de que las
fotografías tomadas desde 1956 muestran siempre lo mismo en la parte sur de la
marisma: extrañas formas circulares de distintos tamaños (hasta 200 metros de
diámetro) y, sobre todo, figuras rectangulares (es casi imposible que la
naturaleza forme líneas rectas) que pueden ser fruto de asentamientos humanos
anteriores, tal vez, a la colonización del Imperio Romano de la península
Ibérica.
Ya desde el siglo XVI, multitud de estudiosos han situado una gran ciudad de la
civilización prerromana de Tartessos en los alrededores del actual Parque
Natural de Doñana, aunque estas teorías han estado descartadas por el
pensamiento predominante durante los últimos 60 años. Ahora, un grupo de
investigadores del
CSIC, la
Fuhem y la
Universidad
de Huelva no se atreve a aventurar si Tartessos
puede o no estar en Doñana, pero sí están convencidos de que el subsuelo de la
marisma de Hinojos puede esconder restos arqueológicos. Las formas que se
vislumbran en unas imágenes aéreas tomadas el verano pasado se suman a las
fotografías anteriores. Además, las pruebas electromagnéticas les han confirmado
que en el subsuelo hay algo más que arcilla, como se creía hasta ahora.
Los científicos alemanes W. Wickbolt, en 2003, y R. W. Kühne, en 2004, a partir
de algunas imágenes de satélite en las que vieron esas extrañas formas
circulares, se lanzaron a situar allí la ciudad de Tartessos, e incluso se
atrevieron a decir que se correspondía con la mítica Atlántida descrita por
Platón. Sin ir tan lejos, los investigadores españoles Sebastián Celestino y
Juan Villarías Robles, ambos del CSIC, y Ángel León, historiador y profesor de
secundaria de la Fundación Hogar del Empleado (Fuhem), que había puesto a
Villarías en la pista de las imágenes aéreas, empezaron hace dos años a trabajar
con el objetivo inicial de comprobar si hay allí restos de asentamientos
humanos. Y hasta que reúnan más pruebas, no quieren empezar a lanzar teorías.
Pero de tratarse, como han sostenido los alemanes y tantos otros eruditos, de la
gran ciudad tartésica por descubrir, significaría un enorme salto en un debate
que aún mantiene divididos a los investigadores entre los que creen que aquella
civilización prerromana, que existió entre los siglos X y VI antes de Cristo,
tenía una marcada entidad propia, que era un híbrido con la cultura fenicia,
apenas un apéndice de ésta o que, como algunos dicen, no existió como tal.
Ya se han encontrado en los alrededores de Doñana restos tartésicos, fenicios y
romanos. Pero no se ha llegado a buscar dentro del parque porque la mayoría de
los arqueólogos sigue trabajando con la premisa de que aquello siempre estuvo
inundado. Esta teoría dice que durante cientos de años, desde después de la
última glaciación, aquello era agua, del mar, al principio, y de un gran lago,
después. Pero esta idea está siendo revisada por los geólogos desde hace más de
una década, explica el profesor de la Universidad de Huelva Antonio Rodríguez,
miembro también del equipo que investiga en Doñana.
Los resultados de las muestras del subsuelo tomadas el verano pasado les
confirmaron lo que ya esperaban: "Donde tenía que haber sólo arcilla [procedente
de la sedimentación normal de una zona permanentemente anegada por el agua], hay
dos capas que pueden tener un metro de concentración de arena", explica
Rodríguez. Esto quiere decir que se produjeron dos episodios violentos,
probablemente tsunamis. Los resultados de la prueba que datará esos episodios
aún no han llegado, pero trabajos anteriores han encontrado muy cerca evidencias
de otros dos posibles tsunamis: el primero, sobre el año 1500 antes de Cristo;
el otro, en el siglo II después de Cristo.
Así, uno de los tsunamis registrado en la marisma de Hinojos estaría entre esas
dos fechas. "Esto cuadra perfectamente con la teoría de una ciudad prerromana
borrada del mapa", añade Rodríguez, gran conocedor del parque no sólo por sus
trabajos, sino porque creció allí (su padre fue uno de los guardas de Doñana y
su abuelo trabajó en el coto). En definitiva, la revisión de la teoría y la de
la formación de toda la costa andaluza indican que Doñana no estuvo siempre
anegada por el agua, sino que se sucedieron en los últimos 7.000 años periodos
de inundación con otros secos que permiten situar allí un asentamiento.
Las pruebas previas van respaldando la existencia de restos. El siguiente paso,
que probablemente se dé este verano, es hacer un sondeo arqueológico (un agujero
de 10 por 3 metros de lado y 7 de profundidad) para comprobar definitivamente si
allí hay algo. El Parque de Doñana estableció este proceso de estudios previos,
explica Fernando Hiraldo, director de la estación biológica. "Creo que el
impacto ambiental en la zona sería pequeño, dado que se trata de un espacio
reducido en unas marismas de 40.000 metros cuadrados. Aun así, siempre hay que
tener mucho cuidado al tratarse de Doñana", un espacio de máxima protección
ambiental, recuerda.
Sebastián Celestino, el investigador principal del proyecto, es uno de los
grandes expertos españoles en Tartessos. Admite que es inevitable hablar de esta
civilización al investigar en Doñana, aunque insiste en "no crear falsas
expectativas". "Estamos convencidos de que allí puede haber restos de
asentamientos, pero no sabemos de qué época". Aun así, "ya me parece muy
importante empezar a comprobar si hay algo donde siempre se creyó que no lo
había", añade.
LAS BRUMAS DE LA BIBLICA 'TARSHISH'
"Una época fascinante por su propia realidad y por el halo legendario con que se
rodeó en la antigüedad y la sigue en alguna medida caracterizando aún en
nuestros días"; así se refiere Manuel Bendala, una de las principales
autoridades en la materia, a la época de Tartessos -la cultura que representa
"la aurora de un proceso histórico, en el que se puso en marcha la organización
territorial y urbana que alcanza hasta nuestros días"- en el libro Tartesios,
iberos y celtas (Temas de Hoy, 2000).
Se cree que Tartessos, desarrollado en la zona sur de la península Ibérica,
puede ser anterior a la llegada de los fenicios, cuando aparecen las primeras
referencias de esta civilización, entre el siglo X y el IX antes de Cristo. Que
su desarrollo posterior se produjo de la mano de los fenicios gracias al
comercio de minerales (los propios y los llegados de las costas atlánticas). Y
su declive y desaparición está generalmente aceptado que se inició en el siglo
VI antes de Cristo, aunque muchos de los restos encontrados están datados en el
siglo V. Que los cartagineses la arrasaron por haberse aliado con los griegos,
que desaparecieron por agotamiento económico o por culpa de un cataclismo (un
terremoto o un tsunami) son las razones que las distintas corrientes dan a su
extinción. Lo cierto es que cuando el Imperio romano colonizó la Península en el
siglo III antes de Cristo, aunque llamaron Tartessius Sinus a la bahía de Cádiz,
ya no existía.
La investigación de todo ese periodo estuvo centrada durante muchos años en el
estudio de textos en los que se hacía referencia a Tartessos, que le han
conferido al tema el halo legendario del que habla Bendala en su libro. Muy
discutida la relación entre la Tarshish que cita el Antiguo Testamento con el
Tartessos ibérico, las referencias principales provienen de la tradición
grecolatina, que citan fuentes indirectas y lo hacen siglos después de su
desaparición. Éstas describen una civilización en la frontera del mundo
conocido, es decir, el Mediterráneo, otro punto éste que aumenta su carácter
legendario. Heródoto, en el siglo V antes de Cristo, que habla del mítico rey
Argantonio, Avieno, en su Ora Marítima del siglo IV antes de Cristo, o Estrabón,
en el siglo I antes de Cristo, son algunos de los principales testimonios.
Pero en los últimos 50 años, la investigación ha ido dejando en cierta medida de
lado estos trabajos filológicos para concentrarse en el arqueológico. Los textos
hallados de la época no ayudan mucho, ya que los expertos no han podido
descifrarlos.
Se han descubierto joyas en distintos puntos, como el Carambolo, en Sevilla,
pero los yacimientos más importantes probablemente sean la necrópolis hallada en
Huelva, el santuario de Coria del Río (Sevilla) y, sobre todo, el
palacio-santuario de Cancho Roano, cerca de Badajoz, la estructura mejor
conservada. Sin embargo, aún no se ha encontrado ningún vestigio de núcleo
urbano importante, lo que deja abierta una de las cuestiones fundamentales:
¿hasta qué punto Tartessos dependía de otros pueblos como el fenicio o se
trataba de un Estado autónomo cuya importancia en el mundo mediterráneo del
primer milenio antes de Cristo está aún por determinar?
Fuente: El País, 7 de Mayo de 2007
-El gobierno de Canarias edita el libro historia de la ciencia
La Vicepresidencia del Gobierno de Canarias, a través
de la Oficina de Ciencia, Tecnología e Innovación, junto con la Viceconsejería
de Educación, a través de la Fundación Canaria Orotava de Historia de la
Ciencia, han colaborado en la edición del libro Historia de la Ciencia (Volumen
I) del que son autores Miguel Hernández González y José Luis Prieto Pérez.
Recientemente, se ha incluido como asignatura optativa dentro del currículo
educativo de la Comunidad Canaria la Historia de la Ciencia, una decisión
pionera en el panorama educativo de nuestro país. En ese sentido, la principal
idea de este proyecto fue elaborar un Manual de Historia de la Ciencia que
pudiera servir de referencia a los alumnos de Bachillerato que cursaran esta
asignatura.
Al respecto, la Oficina de Ciencia, Tecnología e Innovación repartirá un total
de 300 ejemplares de este libro entre los centros educativos de enseñanza y
bachillerato de Canarias.
Los autores, según expresan en el Prólogo a medida que escribían los diferentes
capítulos también valoraron que su contenido podría interesar a un público más
amplio, dado que el conocimiento de la Ciencia, no suele considerarse
imprescindible para ser culto, de manera que su apasionante historia sigue
siendo muy poco conocida, pese a la importancia que posee no sólo en la vida
diaria y en la configuración y articulación de la sociedad en la convivimos.
Por ello, el texto que se muestra al público posee un doble reto: dar a conocer
un material que sirva como libro de texto destinado a una asignatura reglada y
que pueda leerse con cierta facilidad por una persona de cultura media.
El libro consta de cuatro bloques cuyos títulos son: La Ciencia Antigua: el
Cosmos cerrado y el Mundo vivo; La Ciencia Moderna: el Universo abierto y el
Hombre máquina; La Ciencia Contemporánea: el siglo XIX; y La Ciencia
Contemporánea: el siglo XX.
En esta primera entrega se acomete el estudio de los dos primeros, y en cada uno
de ellos se han articulado cuatro líneas de trabajo que permiten al profesor
enfocar el curso desde alguno o algunos de ellos de manera privilegiada.
Esta nueva asignatura se estudiará desde diversos enfoques: El filosófico, el
físico-tecnológico, el de la medicina y las ciencias de la naturaleza (o de la
vida) y el matemático.
Fuente: Infonorte digital, 5 de Mayo de 2007
-Toca ser hereje en la ciencia
Joao Magueijo ha sido llamado héroe y
hereje a la vez. Este cosmólogo portugués, nacido en 1967, doctorado en
Cambridge y profesor del Imperial College de Londres, ha cuestionado la validez
de la teoría de la relatividad especial de Albert Einstein. Sin corbata ni pelos
parados, con jeans y camiseta, el físico portugués recibió a SEMANA en Buenos
Aires, donde presentó su libro Más rápido que la velocidad de la luz, publicado
por el Fondo de Cultura Económica. En él cuenta cómo una fría mañana de invierno
inglés, en medio de un guayabo feroz, se le vino a la cabeza la idea de la
velocidad variable de la luz (VSL, por su inicial en inglés), una verdadera
herejía. Tanto es así, que cuando apenas se conocieron sus trabajos, alguien
dijo que la sigla quería decir very silly, puras sandeces.
Su herejía consiste en cuestionar nada menos que la teoría especial de la
relatividad, que se basa en la afirmación de que la velocidad de la luz siempre
es constante. Es decir, que la luz siempre viaja a la misma velocidad, sin
importar si el foco que emite la luz se acerca o se aleja del observador. Esto
significa que, en un escenario en el que la velocidad es constante, el tiempo y
el espacio son relativos. Estos son fenómenos imperceptibles en la vida diaria
de una persona normal, que se desplaza a velocidades ínfimas si se comparan con
la velocidad de la de la luz. Pero, de acuerdo con Einstein, a medida que
aumenta la velocidad, el espacio se comprime más y más y el tiempo se hace cada
vez más lento.
Esta paradoja tiene muchas consecuencias, porque entonces el tiempo y el espacio
no son absolutos, como lo suponía la física de Newton. Si la velocidad de la luz
es absoluta, se necesita un espacio y un tiempo relativo.
SEMANA: ¿En qué consiste la teoría de la velocidad variable de
la luz, VSL?
JOAO MAGUEIJO: La física del siglo XX se basa en esta constante
de la velocidad de la luz, pero esto causa muchos problemas para la cosmología.
En la teoría del 'big bang' sobre el origen del universo, esta constante de la
velocidad de la luz no permite entender muchas cosas, porque es un límite de
velocidad. Nosotros pensamos que la velocidad de la luz puede ser constante hoy,
pero tal vez fue más rápida en el principio del universo, cuando era muy
caliente.
SEMANA: ¿Qué explicaría la teoría de la VSL?
J.M.: Resolvería uno de los principales problemas de la
cosmología, que es el del horizonte inmediatamente después del big bang. La
velocidad constante de la luz tiene un aspecto muy antisocial, porque si las
cosas no se mueven muy rápido, si el tiempo del universo está fijo, nada se
puede mover más allá de un horizonte, que es muy pequeño al principio. Esto es
lo que impide a los cosmólogos explicar la uniformidad del universo. Tenemos que
hacer algo con este límite de velocidad para dar una explicación de conjunto de
lo que pasa en el universo.
SEMANA: Usted es muy crítico con los científicos. ¿Por qué?
J.M.: La ciencia está regida por el instinto de la oveja. Si
alguien hace algo, todo el mundo lo sigue, y esto pasa porque un grupo de gente
toma el poder en las instituciones, las universidades, las fundaciones. Crean
una mafia y luego empujan afuera a todo el que quiera hacer algo distinto. Yo
creo que la ciencia debería moverse más rápido, con menos formalismos. Las
personas con las ideas más innovadoras con mucha frecuencia se encuentran en las
fronteras, en el borde de la ciencia. La gente hace cosas que se vuelven una
religión después de un tiempo, que dejan de ser ciencia, y luego controlan todas
las ciencias, lo que se publica, lo que no, aunque esto no tenga razones
científicas.
SEMANA: ¿Cómo se definiría, como héroe o hereje?
J.M.: Siempre hay que ser hereje en la ciencia. La ciencia
siempre ha sido hereje. Yo tampoco estoy casado con la VSL. Nuestro papel es
proponer nuevas cosas y luego tratar de probarlas. Esa es la ciencia.
Fuente: Semana.com, 5 de Mayo de 2007
-A Coruña celebra el Día de la Ciencia
Todo está listo ya para que hoy, a las
once de la mañana, comiencen las celebraciones del duodécimo Día de la Ciencia
en la Calle en el parque de Santa Margarita. Alrededor de mil alumnos y
profesores de 21 centros educativos de gran parte de la provincia coruñesa
participarán en la edición de este año, en la que se instalarán un total de 32
carpas y espacios de ocios, en donde los visitantes podrán entretenerse
realizando juegos y todo tipo de experimentos científicos.
Una maqueta de aerogenerador movido por energía solar, talleres de geometría y
matemáticas, trucos de magia basados en la química, demostraciones sobre las
propiedades de la harina de maíz o la disección del ojo de una vaca son algunas
de las actividades que se ofertarán en esta feria divulgativa.
El Día de la Ciencia en la calle no sólo se celebrará en el parque de Santa
Margarita, sino que se extenderá a todos los Museos Científicos Coruñeses, que
abrirán sus puertas de manera gratuita durante toda la jornada. A ellos también
se sumarán el Instituto Español de Oceanografía del dique de abrigo, en el que
se podrá visitar un barco de salvamento, y el Instituto Nacional de Meteorología
(zona de Ciudad Jardín), desde el que se lanzará un globo sonda a las 12.30
horas.
Fuente: La Voz de Galicia, 5 de Mayo de 2007
-"Nemo" sabe como volver a casa
El extraordinario instinto hogareño que tienen los peces de arrecifes de coral ha sido dado a conocer por un grupo de investigadores.
Los científicos monitorearon a dos especies de larva de pez de arrecife coralino para ver hacia dónde se dirigían los jóvenes luego de pasar semanas, e incluso meses, madurando en el océano abierto.
El grupo descubrió que la mayoría de los peces payaso color naranja -vueltos famosos por la película Buscando a Nemo- y los peces mariposa vagabundos regresaban al arrecife en el que habían sido incubados.
En el estudio, que se puede leer en la publicación Science, el equipo investigador dijo que el descubrimiento podría tener implicaciones para la protección marina.
"Los peces marinos ponen huevos muy pequeños, y cuando lo hacen, son soltados dentro de la columna de agua", explicó el coautor del estudio, el profesor Geoff Jones, de la Universidad James Cook en Queensland, Australia.
"Se desarrollan dentro dentro de larvas realmente diminutas que, pensamos, viajan a la deriva en las corrientes de agua, algunas veces por meses".
"El eslabón que estaba perdido en nuestra comprehensión de los peces de arrecifes coralinos siempre ha sido: ¿y a dónde van las larvas?".
La ayuda de mami
Sin embargo, hasta ahora, encontrar la respuesta ha sido extremadamente trabajoso: adherir monitores a las minúsculas larvas no es una tarea fácil.
Así que el equipo internacional de investigadores enfrentaron el problema con la ayuda de la madre.
Lo hicieron de esta manera: recogieron hembras en un área de 0.3 kilómetros cuadrados de arrecife en la Bahía de Kimbe, Papúa Nueva Guinea, y les inyectaron con un raro isótopo estable de bario.
Las hembras pasaron el isótopo a sus vástagos en desarrollo, y así la sustancia se acumuló en sus huesos, dándole al pez bebé marcas químicas únicas.
Pocas semanas después, el equipo retornó al coral y recogió a los peces jóvenes para hacerles pruebas y revisar si portaban el "monitor".
"Encontramos que el 60% -más de la mitad- habían regresado a la reserva de la pequeña isla, lo cual fue un resultado inesperado", dijo a la BBC el profesor Jones.
Hazaña
Los científicos no saben bien cómo es que los coloridos peces payaso naranja y los peces mariposa vagabundos lograron esta hazaña, pero esperan descubrirlo con nuevas inevstigaciones.
"Quizá se mantienen de alguna manera en contacto sensorial con su isla de origen y son capaces de seguir en su posición sin terminar lejos a la deriva", dijo Jones.
"O quizá continúan yéndose lejos, pero tienen un mecanismo hogareño para nadar de regreso a su arrecife original".
Aunque el estudio fue realizado en dos especies, el profesor Jones piensa que el hallazgo podría aplicarse a otros peces de arrecife de coral, y si ése es el caso, podría tener consecuencias para la conservación marina.
El experimento muestra que las pequeñas reservas marinas son una buena forma de proteger especies que están siendo pescadas en exceso, dijo, porque habría suficientes peces jóvenes regresando al área como para sostener un buen número con el paso del tiempo.
Fuente: BBC MUNDO, 4 de Mayo de 2007
-El rover Spirit encuentra evidencias de explosiones volcánicas del pasado
Spirit ha descubierto evidencias de vulcanismo explosivo marciano en los estratos de una meseta (Home Plate) de las Colinas Columbia.
Hay evidencias muy claras que demuestran que estas capas proceden de una erupción volcánica. El área cercana a Home Plate está dominada por basaltos, algo que puede ser una muestra más de la existencia de vulcanismo explosivo. Una de las formas en la que se genera erupciones explosiones es cuando la lava contacta con el agua. La creciente concentración de vapor es lo que finalmente produce la explosión.
Los científicos sospechan que Home Plate se formó por la interacción de lava basáltica y agua. La composición de la roca de los alrededores muestran señales relacionadas con la existencia de agua. Un ejemplo es la alta cantidad de cloro contenida en las rocas, quizás por el contacto entre el basalto y salmuera.
Uno de los fragmentos que con más evidencia demuestra el origen explosivo de Home Plate es una especie de abombamiento o depresión observado en los estratos de la meseta. Este tipo de marca se produce por el impacto en el pasado de rocas que eran expulsadas hacia el cielo por volcanes y caen sobre suelos blandos donde dejan marcada esa depresión.
Spirit decidió volver hacia Home Plate, después de pasar el largo invierno en Low Ridge. Es una zona interesante para ser investigada. El pasado año exploró las caras norte y este. Ahora investigará las del sur y oeste.
Con este nuevo hallazgo se añade otra prueba que indica la existencia de agua en Marte ( en el pasado y/o actualmente).
Fuente: NASA, 3 de Mayo de 2007
-La energía nuclear centra el debate sobre el cambio climático
El uso de la energía nuclear como herramienta de mitigación de los gases de efecto invernadero mantiene abierto el debate para redactar la conclusión del Tercer Grupo de Trabajo del IV Informe del Panel Intergubernamental de Cambio Climático (IPCC), que se reúne desde el lunes en la capital tailandesa, Bangkok.
Delegados de 150 países se han enfrentado esta semana a la redacción final del que presumiblemente será el más significativo de los tres informes que este año presentará el IPCC. En este caso se centra en las recomendaciones que 3.000 científicos hacen a la comunidad internacional para mitigar los gases de efecto invernadero.
Concepción Martínez López, subdirectora de Cambio Climático del Ministerio de Medio Ambiente, declaró telefónicamente a elmundo.es desde la misma sala del Plenario, que "estamos a punto de cerrar el texto general, aunque quedan muchos corchetes y párrafos por acordar". Eran las 23.00 horas en aquella ciudad asiática.
Uno de ellos es el referido a la energía nuclear, que no emite gases de efecto invernadero, y que numerosos países dirigidos por EEUU quiere designar como una de las fuentes energéticas capaces de mitigar el cambio climático. Sin embargo, Martínez López no considera tan importante el debate aunque haya finalmente una referencia a la energía nuclear.
"Aquí se ha acordado que lo más importante de todo es la eficiencia energética. Después y más o menos por orden de importancia se dará un espaldarazo a las energías renovables, a la captura y secuestro de carbono y habrá, seguramente, una referencia a la energía nuclear", dijo.
Al margen de cuáles son las energías que reciben más apoyo de los científicos para mitigar el calentamiento global, el documento que hoy se dará a conocer contiene una llamada a la esperanza: "La mitigación es urgente, pero es factible", dirá la comunidad científica. Los reunidos han concluido que se puede frenar el nivel de emisiones de gases de efecto invernadero con las tecnologías actuales, y crecerá esa capacidad si se potencia la I+D en este terreno y se añaden incentivos de implantación.
Además, el documento contendrá una novedad también positiva: los costes para detener el nivel de emisiones son inferiores a los que se habían previsto en el III Informe del IPCC, hace seis años. Esta rebaja viene motivada en gran parte a la fuerte expansión de las energías renovables en todo el planeta.
El informe que se conocerá hoy ha sido precedido por el presentado en París en febrero, dedicado a las causas físicas del cambio climático; y al presentado en Bruselas en abril, que se centraba en los impactos. Una vez conocidos los tres documentos, el IPCC celebrará una cumbre en noviembre en Valencia para hacer el definitivo documento de síntesis, que tendrá vigor durante los próximos cinco años.
Fuente: El Mundo, 3 de Mayo de 2007
-La nanotecnología se apresta a utilizar la luz que pasa por agujeros pequeños
En la segunda parte de sus aventuras, A través del espejo,
Alicia le comenta a su gato: "¡Imagínate que el espejo se ablandara hasta
convertirse en una especie de gasa, de manera que pudiéramos franquearlo con
toda facilidad!". Quienes piensen que Lewis Carroll padecía un exceso de
imaginación, sepan que al final no iba tan desencaminado.
El físico-químico Thomas Ebbesen (Oslo, 1954) descubrió en 1989
algo digno del magín del escritor británico, aunque con más aplicaciones
prácticas. Iluminó una fina película de oro en la que había practicado millones
de agujeros microscópicos. Midió la luz que conseguía pasar a través de ellos
y... la cantidad de luz que se encontró al otro lado era entre cien y mil veces
mayor que la que cabría esperar. Cada agujero parecía aliarse con los demás para
hacer pasar mucha más luz que si estuviera aislado.
Aquel descubrimiento se le antojó a Ebbesen "un espejo mágico". Y lo explica:
"Normalmente, en un espejo te ves a ti mismo. Pero en este caso, a determinadas
longitudes de onda [o lo que es lo mismo], iluminados por luz de ciertos
colores, la luz atravesaba el metal y proyectaba la imagen al otro lado de la
superficie". Dicho de otro modo, la luz conseguía atravesar el espejo.
"Nadie me creía al principio. Y yo no tenía ninguna explicación". En aquel
entonces, Ebbesen trabajaba en nanotubos de carbono, otra aplicación de la
nanotecnología: "¡Es que ni siquiera soy óptico!", afirma divertido. "Si eres
científico, te debes a tu campo de estudio... Claro que yo he cambiado muchas
veces de terreno". Le llevó nueve años tener una explicación para el fenómeno,
que se publicó como artículo en la revista
Nature en febrero
de 1998. Con la ayuda de la teoría óptica, dio con la clave: "La luz atravesaba
la lámina porque de hecho quedaba atrapada por los electrones de la superficie
del metal, que la transportaban al otro lado y la liberaban allí".
El fenómeno físico que lo explica son los plasmones: fotones atraídos y
atrapados por electrones libres. Los plasmones hacen que la luz resulte
moldeable, algo difícil de imaginar para los profanos: "Es cierto que la luz es
un espíritu libre, pero haciéndola interactuar con electrones libres en el
metal, se queda atrapada y consigues tener control sobre ella hasta cierto
punto. Puedes lograr que cambie de dirección o incluso que gire en círculo". El
siguiente paso es construir cauces por los que hacerla correr a voluntad.
Ebbesen, ahora director del Laboratorio de Nanoestructuras de la
Universidad Louis Pasteur
de Estrasburgo, se ha reunido recientemente en Madrid con otros miembros del
proyecto europeo PLEAS (acrónimo inglés de Fotónica Desarrollada por Plasmones),
que agrupa a su universidad con la
Autónoma de Madrid y la de
Zaragoza, centros de investigación de Alemania, Reino Unido y Suiza, y dos
empresas del sector de la iluminación y la tecnología de la información,
Osram y
Sagem.
Confinar la luz para usarla para transmitir información es cosa corriente en el
caso de la fibra óptica. El volumen de información que la luz es capaz de
transportar la hace bien apetecible a la industria. Pero en la escala de lo nano,
la de los chips y los componentes electrónicos, la luz empieza a comportarse de
manera caprichosa: "Cuando la introduces en un tubo, si su tamaño es menor que
el de la longitud de onda, comienzas a tener problemas. La luz no quiere estar
ahí, se siente incómoda y escapa", explica el científico noruego. Ésta ha sido
la mayor dificultad para desarrollar circuitos ópticos, mucho más rápidos, que
sustituyan a los actuales electrónicos.
La construcción de esos canales para la luz es labor del escultor más minucioso,
el que trabaja a escala microscópica, y empleando materiales metálicos capaces
de controlar el flujo de luz. Amigo de metáforas, Ebbesen ilustra: "Es como si
construyéramos valles microscópicos para que fluya el agua por ellos". Unos
valles y cauces con sus grutas. "Sí, también diseñamos grutas microscópicas",
por las que la luz puede sumergirse.
Este carácter maleable de la luz ha llevado a algunos teóricos a plantear
incluso la invisibilidad. Si se consigue curvar un haz de luz que se dirija a un
observador de modo que esquive un objeto que encuentre en el camino, el
observador no vería ese objeto, sino sólo el haz de luz. Es decir: el objeto no
existiría para él. Ebbesen considera esta idea "conceptualmente interesante,
pero es improbable que tenga ninguna aplicación". "Aunque", insiste, "lo que
hemos visto ya es casi ciencia-ficción".
Lo cierto es que la plasmónica ha abierto un nuevo campo de posibilidades
tecnológicas, como demuestra el proyecto PLEAS. El objetivo es crear nuevos
fotodetectores para todo tipo de aplicaciones, desde teléfonos móviles hasta
cámaras más sensibles y baratas. También aportan su grano de arena contra el
calentamiento global, creando unos nuevos LED (diodos emisores de luz como los
habituales en los semáforos modernos) más eficientes y de menor consumo
energético.
"Podemos lograr fotodetectores capaces de medir el tamaño de las moléculas, ver
por ejemplo la membrana, una sola capa molecular, de una célula", dice Ebbesen.
Preguntado acerca de su mayor reto para los próximos años, enmienda la cuestión:
"Más que de retos, hablemos de sueños".
Su sueño, pues, es la construcción de un chip óptico tan pequeño que quepa
entero sólo en la zona de contacto de un chip electrónico actual. El objetivo es
optimizar la transferencia de información: "Actualmente, un chip tiene que
convertir su señal eléctrica en óptica, esta señal viaja por fibra óptica de
aquí al otro extremo del mundo, y el chip receptor tiene que traducir de nuevo
esa señal óptica a eléctrica". Unos chips totalmente ópticos evitarían esas
conversiones y ahorrarían tiempo.
Las aplicaciones de esta nueva tecnología trascienden la domótica y la
informática. Se apunta a nuevas terapias contra el cáncer, por medio de dianas
fotosensibles que viajarían por el flujo sanguíneo y se fijarían sobre las
células malignas. Un haz de luz desde fuera lograría destruirlas.
Ebbesen se encuentra en uno de los salones de un hotel madrileño, iluminado por
lucernarios. ¿Cómo contempla uno de estos rayos de luz alguien que la conoce tan
bien? "Ningún científico es capaz de pensar en términos totalmente abstractos.
Necesitamos hacernos una imagen. Y para mí la luz tiene muchas facetas, cada día
aprendo cosas nuevas de ella, cada día completo la imagen que tengo de la luz.
Lo primero que me anima a jugar con ella es la belleza. La belleza estética y la
del modo que tiene de interactuar con la materia".
Fuente: El País, 3 de Mayo de 2007
-Internet, los cohetes y la radio: los mejores inventos del hombre
Más de 100 investigadores, comunicadores y profesionales ligados a la ciencia acaban de elegir, a petición de la revista británica Spiked, la innovación más importante de la Historia, con resultados tan dispares como el cohete o la radio en directo.
Lo único que parece tener en común los inventos seleccionados es
que, de forma no muy sorprendente, todos pertenecen al pasado reciente de
nuestra especie. Muchos de ellos, de hecho, son casi unos recién nacidos
tecnológicos, como las búsquedas en Internet o la manipulación de ADN.
Los participantes en la encuesta, entre los que se hallan seis premios Nobel,
contestaron por 'e-mail' cuál es, en su opinión, la revolución más importante
dentro de su área de trabajo. Por ello, las respuestas van desde lo evidente -el
microscopio, señalado por el biólogo Lewis Wolpert- hasta lo más especializado
-el matemático Benoit Mandelbrot se decantó por la teoría del caos, de la que él
mismo es padre-.
El Nobel Tim Hunt, que investiga la división celular y su relación con el
cáncer, aseguró en su respuesta que "no podríamos haber llegado a ninguna parte"
sin la tecnología para recombinar ADN, según publica el diario
The Guardian. Algo más
antiguo, aunque aún debe ser perfeccionado para llevar personas a Marte y más
allá, es el cohete, seleccionado por el astrobiólogo Christopher McKay.
Los expertos del ámbito de la comunicación destacaron innovaciones que quizás
llamen la atención en el contexto de una lista de avances científicos, pero que,
sin embargo, han cambiado la vida de todos, y no sólo de los profesionales de la
información.
Así, el periodista de la BBC Paul Parsons señaló la capacidad de editar y borrar
errores, algo que hoy se da por hecho pero que no resultaba tan sencillo antes
de la era digital. "Con la habilidad de corregir nuestros fallos viene la
confianza de arriesgarse a errar, de experimentar", indica Parsons.
Por su parte, el escritor y divulgador Matt Ridley eligió la búsqueda aleatoria
de información; en otras palabras, los buscadores de Internet. Ahora cuesta
imaginarlo, pero hace sólo 10 años la mayoría de estudiantes se documentaban en
la biblioteca del barrio y escribían sus trabajos en máquinas que no permitían
volver atrás. "La búsqueda aleatoria ha revolucionado la comprobación de datos,
el descubrimiento de nueva información, el seguimiento de pistas", según relata
Ridley.
Otro periodista científico, el locutor británico de la cadena BBC Quentin Cooper,
destacó "la radio, y en especial la radio en directo", por su capacidad para
contactar "con casi todo el planeta de forma inmediata y sin filtros", algo que
hoy es más fácil que nunca gracias, una vez más, a la tecnología digital e
Internet.
Fuente: El Mundo, 3 de Mayo de 2007
-COROT detecta su primer planeta
La sonda COROT ha cogido a los científicos por sorpresa regalándoles un magnífico descubrimiento: un exoplaneta, el primero de lo que puede ser una larga lista.
Representación artística del nuevo planeta descubierto
La precisión de las observaciones realizadas por COROT muestran que está capacitada para detectar planetas rocosos del tamaño de la Tierra y posiblemente de su composición.
Pero esta sonda no busca sólo descubrir nuevos planetas, también ha sido diseñada para el análisis del interior de las estrellas (astrosismología). Los dos objetivos se cumplen cuando capta la luz de una estrella. Al producirse una disminución en la intensidad de la señal luminosa, el satélite detecta al cuerpo que se introduce en el haz. Entonces se detecta algo parecido a la gráfica de abajo.
Los estudios sobre astrosismología se basan en el análisis de las oscilaciones producidas en la luz detectada de la estrella. Estas oscilaciones se generan por vibraciones del interior de la estrella. Su precisión hace que pueda captar pequeñas variaciones en la luminosidad de la estrella.
COROT hace observaciones continuas de un objetivo dentro de un área del espacio. Sus observaciones científicas empezaron hace 60 días.
El planeta descubierto es un gigante gaseoso con una temperatura muy cálida. Lo han bautizado con el nombre de Corot-Exo-1b. Su radio es 1,78 veces el de Júpiter. Gira entorno a una estrella similar al Sol, en un periodo de traslación de 1,5 días. Se encuentra a una distancia de 1500 años luz de nosotros siguiendo la dirección de la Constelación de Unicornio. Su masa es 1,3 la de Júpiter.
La gran cantidad de datos enviados por la sonda requieren un tiempo para ser digeridos por el equipo de científicos que está al frente de COROT. A pesar de eso, los resultados de los primeros datos vistos son extraordinarios. El equipo está trabajando mejor de lo esperado según afirma Malcolm Fridlum, Científico del Proyecto COROT.
Fuente: ESA, 3 de Mayo de 2007
-Astrónomos estadounidenses descubren un enorme planeta extrasolar
Astrónomos del Centro de Astrofísica Harvard-Smithsonian (CfA)
anunciaron hoy el descubrimiento del planeta extrasolar más grande jamás
detectado.
En un comunicado difundido a través de su sitio en internet, los científicos de
CfA señalaron que el gigantesco planeta, identificado como HAT-P-2b, tiene ocho
veces la masa de Júpiter, el más grande de los planetas del sistema solar,
además de una enorme fuerza gravitatoria.
Según explican los astrónomos, en la Tierra una persona de 70 kilos pesaría en
ese planeta alrededor de una tonelada.
Además, HAT-P-2b, que tiene un movimiento de traslación de sólo 5,63 días, se
mueve en una órbita elíptica que lo acerca a casi cinco millones de kilómetros
de su sol para alejarse luego a unos 15,3 millones de kilómetros.
HAT-P-2b gira en torno de una estrella tipo F, que son casi dos veces más
grandes y más candentes que nuestro Sol y fue ubicado a unos 440 años luz en la
constelación de Hércules.
Se le llama planeta de tránsito porque cada cinco días y 15 horas pasa frente a
su sol mirado desde la Tierra, causando lo que los astrónomos califican como "un
mini eclipse".
Ese movimiento les ofreció una "oportunidad única" de medir su tamaño, señalan
los astrónomos en el sitio de CfA.
"Este planeta es tan extraño que al principio pensamos que se trataba de una
falsa alarma, algo que parecía ser un planeta pero que no lo era", manifestó
Gáspár Bakos, astrónomo de CfA.
"Eliminamos todas las posibilidades y al final determinamos que estábamos en
presencia de un planeta extraño", manifestó.
Fuente: Iblnews, 3 de Mayo de 2007
-La NASA celebra el aniversario de sus satélites con fotos espectaculares
La NASA parece haber adoptado la política de celebrar los aniversarios de sus satélites con la publicación de fotografías, cada una más espectacular que la anterior. Esta semana, la agencia espacial estadounidense tuvo la oportunidad de realizar una de esas celebraciones por partida doble.
Por una parte, publicó impactantes imágenes de las lunas de Júpiter tomadas por su sonda 'New Horizons' y, por otra, la de una galaxia captadas por el satélite 'Galaxy Evolution Explorer' (GALEX).
La publicación de esas fotografías en la web de la NASA se produjo una semana después de que la agencia espacial difundiese las imágenes de una inmensa nebulosa en la Vía Láctea que muestra un caos cósmico en el que nacen y mueren las estrellas.
Esas vistas fueron publicadas al cumplirse 17 años desde que el observatorio espacial 'Hubble' fuera instalado en una órbita terrestre para iniciar lo que los astrónomos consideran una de las misiones científicas más productivas de la agencia espacial.
La imagen cubre una distancia de 50 años luz en la nebulosa Carina, que contiene al menos una docena de estrellas que, según los cálculos, serían entre 50 y 100 veces más grandes que el Sol de nuestro sistema.
La más importante, a unos 7.500 años luz de la Tierra, es 'Eta Carinae' que se encuentra en la última etapa de su vida, según lo evidencian las nubes de gas y polvo que son el presagio de su muerte explosiva que la convertirá en una supernova.
Io fotografiado por New Horizon
La otra serie de fotografías publicadas el martes corresponden al inmenso planeta Júpiter y a sus lunas mayores: Io, Europa, Ganimedes y Calisto.
La NASA señaló que en su largo viaje hacia Plutón, 'New Horizons' ha proporcionado a los astrónomos no sólo datos "asombrosos" sobre el planeta, sino también perspectivas "nunca antes vistas" de la atmósfera del planeta, sus anillos, lunas y magnetosfera.
Entre esas imágenes figuran la de una enorme tormenta en la superficie de Júpiter, los anillos del planeta y, en uno de ellos, los indicios de polvo cósmico que delatan el impacto reciente en términos astronómicos de un cuerpo externo.
"Aparte de preparar nuestra llegada a Plutón en 2015, la aproximación a Júpiter fue una prueba para nuestra nave y para nuestro equipo científico. Ambos la han superado con excelentes calificaciones", dijo Alan Stern, principal investigador y director de la misión 'New Horizons' en una conferencia de prensa en Washington.
En su acercamiento a unos 2,2 millones de kilómetros de Júpiter, la sonda aprovechó la fuerza gravitatoria del planeta para reducir en tres años su largo viaje hacia Plutón, el hasta hace poco considerado noveno planeta del sistema solar.
Ese encuentro más cercano con Júpiter ocurrió el 28 de febrero y en él la nave que tiene el tamaño de un piano enfocó sus siete cámaras sobre el planeta y sus cuatro lunas mayores.
La última imagen, y la más espectacular por su profundidad y colorido, corresponde a la de la galaxia 'M81' tomada por GALEX y que la NASA dio a conocer este martes para celebrar el cuarto año de observaciones astronómicas del satélite en el espacio.
En el centro de esa imagen se puede ver la galaxia en espiral y a su izquierda hay otra constelación llamada 'Holmberg IX' que es invisible al ojo humano pero se le ve brillar mediante los ojos ultravioleta de GALEX.
"Se trata de una vista espectacular de M81. Cuando nos propusimos observar esta galaxia con GALEX esperábamos ver conjuntos globulares y estrellas jóvenes. Esto es mucho más de lo que esperábamos", señaló John Huchra, del Centro de Astrofísica Harvard-Smithsonian, en Cambridge (Massachusetts).
La imagen es sólo una de miles captadas por el satélite que fue lanzado al espacio el 28 de abril de 2003 con la misión de utilizar la longitud de onda ultravioleta para contar la historia de la formación de las estrellas casi desde el momento en que surgió el universo con el 'Big Bang', según informó la NASA.
Fuente: El Mundo, 2 de Mayo de 2007