Inicio
Ya puedes DESCARGAR todos nuestros PROGRAMAS DE RADIO "EL ALEPH" en la Sección NOSOTROS-PROGRAMACIÓN--

NOTICIAS CIENTIFICAS


NOTICIAS DE ULTIMA HORA

--Nuevas Noticias Próximamente--

NOTICIAS EXTENDIDAS

NovaCiencia

Marzo 2007

TITULARES DE LAS NOTICIAS DEL MES :

 

 

Spitzer descubre un sistema planetario con dos soles

El exterior del núcleo de la Tierra se encuentra a más de 3500 grados centígrados

El futuro está en la electrónica del plástico

Un extraño hexágono es fotografiado por la sonda Cassini

El misterio del agua y la mecánica cuántica

Científicos surcoreanos clonan lobos

Nuevas superlentes permiten llegar al microscopio óptico a la escala del virus

Varadhan gana el Premio Abel

El oro azul del siglo XXI

Científicos españoles investigan los fondos de la Antártida

Canarias propondrá que Macaronesia sea un santuario de cetáceos

60 equipos de investigación desarrollan la predicción climática detallada para Europa

Cada dólar invertido en meteorología ahorra siete de pérdidas en catástrofes humanas

Una red de reservar marinas podría frenar la desaparición de pesquerías

Un escurridizo mamífero que vivía entre dinosaurios: el Yanoconodon

Descubren una nueva especie de pantera

El agua congelada en el polo sur marciano podría cubrir toda la superficie de Marte

El invierno más cálido de los últimos 127 años

Una enorme masa de agua subterránea, se encuentra en Marte

El meteorito Apophis podría chocar con la Tierra

Consiguen borrar recuerdos de ratas

La ESA quiere llegar a Marte en el 2025

El Grantecan espera la luz

Grupo de telómeros y telomerasa

Evolución dentro de la misma especie

Los submarinos pronto imitarán a los peces

¡Dime que es ese átomo!

Un paso más hacia el genoma del cáncer

Los dilemas éticos de la robótica

El agua que fluía en la superficie marciana posiblemente no se mantuvo en estado líquido

La NASA confirma la existencia de mares de metano líquido en Titán

Consiguen leer los pensamientos

Una expedición explorará la corteza de la Tierra en el fondo del océano Atlántico

Excelencia e independencia en la ciencia

La comunicación y la teleportación, cada día más cerca

Izimi quiere crear la web 2.1

Logran desarrollar el material tecnológico más fino del mundo

Éxito en el desarrollo de nuevas vacunas contra el SIDA

Hawking ingrávido

El eclipse de Luna del 3 de Marzo

 

Archivo


-Spitzer descubre un sistema planetario con dos soles

El telescopio espacial 'Spitzer', de la NASA, ha descubierto innumerables sistemas planetarios con dos soles, según ha informado el Laboratorio de Propulsión a Chorro (JPL). Según los astrónomos de la agencia espacial, ha dejado de ser una fantasía el doble atardecer que hipnotiza a Luke Skywalker en la película 'La guerra de las galaxias'.

Esos sistemas binarios, formados por discos de asteroides, cometas y posiblemente planetas, parecen ser tan numerosos como los de un solo sol, como el nuestro, manifiesta el organismo de la agencia espacial estadounidense.

"Ya parece no haber oposición a la idea de que se hayan formado planetas en sistemas binarios", según manifiesta David Trillin, científico de la Universidad de Arizona y autor de un informe sobre las operaciones del 'Spitzer' en la revista 'Astrophysical Journal'.

En el universo "podría haber incontables planetas con dos o más soles", añadió Trillin.

Según el comunicado de JPL, hasta ahora los astrónomos sabían que los planetas podían formarse en sistemas binarios en los que sus estrellas están separadas por mil veces la distancia que existe entre nuestro Sol y la Tierra.

De los aproximadamente 200 planetas descubiertos hasta ahora fuera de nuestro vecindario espacial, alrededor de 50 giran en torno a uno de dos soles en el mismo sistema.

En su estudio, los astrónomos apuntaron el telescopio infrarrojo para buscar los discos de polvo cósmico en los sistemas binarios.

Según JPL, esos discos están formados por rocas similares a los asteroides que nunca llegaron a formar parte de un planeta.

Su presencia indica que en algún momento ocurrió el proceso de formación de planetas en torno a una estrella, añadió.

Los astrónomos también se vieron sorprendidos por el hecho de que esos discos son más frecuentes o numerosos en los sistemas binarios y esto podría significar que la formación de un planeta se inclina más hacia los dos soles.

"Pero también podría significar que esos sistemas binarios en realidad sólo son más polvorientos. Una mejor respuesta a este interrogante deberá provenir de futuras observaciones", señaló Trilling

Fuente: El Mundo, 30 de Marzo de 2007

 

-El exterior del núcleo de la Tierra se encuentra a más de 3500 grados centígrados

La temperatura de la corteza del núcleo de la Tierra supera los 3.500 grados centígrados, según un estudio dirigido por el Instituto de Tecnología de Massachusetts en Cambridge (Estados Unidos) que se publica esta semana en la revista 'Science'.

Los investigadores han utilizado un método sísmico tomado de las instalaciones de explotación petrolífera para estimar las temperaturas que existen a 3.000 kilómetros por debajo de la superficie.

Los investigadores estudiaron miles de kilómetros de área bajo América Central. Bajo estas profundidades, la temperatura estimada es de 3.950 Kelvin (3.676,85 grados centígrados), con una variabilidad de más o menos 200.

Una estimación exacta de la temperatura proporciona a los geólogos información sobre cómo se transfiere el calor hacia el interior, la evolución térmica del planeta y la generación de los campos magnéticos de la Tierra.

La comparación de mapas de las estructuras y las temperaturas en localizaciones distintas del planeta completarán los detalles sobre la evolución dinámica de la Tierra.

Los investigadores recogieron datos de cientos de seismógrafos y utilizaron un proceso de dispersión tridimensional para analizar los límites entre el núcleo y su corteza externa. Tras ello evaluaron la transición de la perovskita, el material común del manto, a postperovskita.

Los científicos, utilizando teorías y medidas de laboratorio, emplearon la posición de la transición de la perovskita a postperovskita para determinar la temperatura de los límites entre el núcleo y su corteza.

Fuente: El Mundo, 30 de Marzo de 2007

 

 

-El futuro está en la electrónica del plástico

Hay una industria electrónica nueva que parece estar a punto de irrumpir con fuerza en Europa y hay una empresa que se encuentra a la vanguardia de esta novedosa tecnología. A principios de este año, la empresa británica de tecnología Plastic Logic anunciaba que se había hecho con 100 millones de dólares (76 millones de euros) de capital riesgo para construir la primera planta comercial del mundo para fabricar electrónica de plástico (también llamada electrónica orgánica).

La función principal de dicha fábrica será incrementar la producción comercial de pantallas para productos de lectura electrónica para "llevar a cualquier parte y leer en cualquier parte". Valiéndose de un proceso desarrollado por la propia compañía, esta planta fabricará pantallas que, según sus creadores, son casi tan flexibles como el papel, tienen su mismo aspecto y su mismo tacto.

Según Anusha Nirmalananthan, directora de marketing de la compañía, esta tecnología revolucionará el mercado de las pantallas digitales. "Nuestras pantallas flexibles serán delgadas, ligeras y resistentes y harán posible fabricar productos de lectura electrónica que serán tan cómodos y tan naturales para leer como el papel", aseguró.

"Su capacidad de conexión instantánea permitirá al usuario descargarse un libro o un periódico y leerlo esté donde esté y cuando quiera. Su batería durará el equivalente para leer miles de páginas, así que el usuario no tendrá qué preocuparse por recargarla", agregó.

Plastic Logic, surgida del Laboratorio Cavendish de la
Universidad de Cambridge, participó en dos proyectos financiados por la UE, Discel y Naimo, pertenecientes al Quinto y al Sexto Programa Marco, respectivamente. En Naimo encabezó el desarrollo de técnicas de nanofabricación que ahora se emplearán para fabricar los ingeniosos materiales plásticos con los que se fabrican estas novedosas pantallas flexibles.

"Europa se encuentra a la cabeza de esta tecnología a nivel mundial y el apoyo de la UE a proyectos como Naimo han contribuido a garantizar que esta carrera la vamos a ganar; no nos quedaremos simplemente en los puestos de cabeza", asegura Stuart Evans, director ejecutivo de Plastic Logic.

En realidad, los semiconductores plásticos no son nada nuevo, ya que se descubrieron en la década de los años sesenta; lo novedoso y emocionante es la perspectiva de su comercialización, especialmente porque tiene lugar en Europa.

Esta compañía ha elegido la ciudad de Dresde, del este de Alemania, situada en la denominada "Silicon Saxony" o "Sajonia de silicio" [en referencia al Silicon Valley californiano], para ubicar su nueva fábrica, pensando en la sólida tradición de la ciudad en el ámbito de la investigación microelectrónica.

Esta fábrica empleará un conjunto simple de operaciones de procesamiento para construir planos posteriores de matriz activa sobre "sustratos" (el material sobre el que se forman los circuitos) de plástico que, al combinarlos con un material de plano anterior de papel electrónico, se usarán para crear módulos de pantallas delgadas, ligeras y resistentes.

Esta empresa empezará hacia mediados de 2008 la producción en masa de estas pantallas de 10 pulgadas (25 cm), 150 píxeles por pulgada y 16 grados de grises. Plastic Logic se propone producir un millón de láminas semiconductoras de plástico en su primer año y, después, 2,2 millones al año. La compañía augura que las ventas anuales a nivel mundial podrían aumentar hasta 41,6 millones de unidades de aquí a 2010.

Mientras despega esta nueva tecnología de la electrónica de plástico, muchos de los gigantes del mundo de la electrónica están ansiosos por llevarse su parte del pastel. El grupo franco-estadounidense Alcatel-Lucent, la neerlandesa Philips, la japonesa Hitachi, la surcoreana Samsung todos están trabajando en los semiconductores plásticos o, como mínimo, se mantienen alerta a su desarrollo.

Según Anusha Nirmalananthan, los científicos están "creando una industria de la electrónica nueva y muy importante que complementará al silicio".

"Es más, les llevamos dos años de ventaja a nuestros competidores", afirma.

Fuente: CORDIS, 29 de Marzo de 2007

 



 

-Un extraño hexágono es fotografiado por la sonda Cassini

La NASA ha publicado unas imágenes de una extraña figura de seis caras con forma de enjambre hexagonal que rodea la totalidad del Polo Norte de Saturno. Los científicos analizan con curiosidad las imágenes, tomadas ya por las sondas Voyager hace dos décadas y que ahora ha vuelto a detectar la nave 'Cassini'.

Extraño hexágono en el polo Norte de Saturno

"Se trata de un fenómeno muy extraño, con unas formas geométricas casi perfectas, porque en el hexágono se pueden apreciar seis lados rectos que discurren en paralelo", señaló Kevin Baines, experto en fenómenos atmosféricos que forma parte del equipo de investigadores de la misión 'Cassini' en el Laboratorio de Propulsión a Chorro de la NASA. "Nunca hemos visto nada parecido en otro planeta. Desde luego, la espesa atmósfera de Saturno, hace que éste sea uno de los últimos lugares donde hubiéramos esperado ver una figura geométrica tan regular", matizó.

La figura mide unos 25.000 kilómetros y se calcula que dentro del remolino podrían caber cuatro planetas del tamaño de la Tierra.

Las imágenes nocturnas del polo norte de Saturno fueron tomadas por las cámaras de infrarrojos de la sonda 'Cassini', y muestran claramente la estructura hexagonal que gira alrededor del polo. Para los científicos tiene gran importancia no sólo porque ayudará a explicar este curioso fenómeno, sino también porque supone una de las imágenes más detalladas de esta región del planeta jamás tomada.

Hace dos décadas, las naves Voyager 1 y 2 lograron fotografiar este remolino, con menor resolución, el extraño fenómeno, y según se revela por las imágenes tomadas por la 'Cassini', parece que se trata de una característica duradera del planeta. En las imágenes de la 'Cassini' también se puede ver un segundo hexágono, más oscuro y brillante que el original captado por las 'Voyager'.

En la fotografía, el color rojo indica la radiación cuya longitud de onda son cinco micras, el calor generado en el interior caliente de Saturno que escapa del planeta. Las imágenes fueron tomadas entre el 30 de octubre y el 11 de noviembre de 2006 desde una distancia de 1.3 millones de kilómetros.

Fuente: El Mundo, 28 de Marzo de 2007

 

-El misterio del agua y la mecánica cuántica

La ecuación de Schrödinger, uno de los fundamentos de la teoría de la mecánica cuántica, ha desvelado el funcionamiento de las moléculas del agua gracias al uso de un conjunto de ordenadores superpotentes. Formada por dos átomos de hidrógeno y por uno de oxígeno, se cree que el secreto de las propiedades de este líquido tan común como misterioso radica en la capacidad de sus moléculas para formar determinados enlaces entre los átomos de hidrógeno. El desarrollo de este nuevo modelo informático podría tener múltiples aplicaciones, y quizá resuelva determinadas cuestiones como la razón por la que el agua, en estado sólido (hielo), no se hunde dentro de sí misma.
Esencial para todas las formas de vida, y objetivo eterno de estudio, el agua es una sustancia con algunos misterios que aún no han podido ser revelados, al menos desde la física clásica.

El acercamiento a este extraño elemento constitutivo, sin embargo, desde la perspectiva de la física cuántica (desde la ecuación de Schrödinger para ser más exactos), y gracias al uso de un conjunto de ordenadores superpotentes, ha revelado la estructura subyacente del conjunto de moléculas aparentemente sencillas del agua, que están formadas "tan sólo" por dos átomos de oxígeno y uno de hidrógeno.

El logro lo ha alcanzado un equipo de científicos de la
universidad norteamericana de Delaware y de la Radboud University de Holanda, que han desarrollado un nuevo método para desvelar las propiedades ocultas del agua, y sin necesidad de concienzudos experimentos de laboratorio: simplemente, informática.

PRINCIPIOS FUNDAMENTALES

Y es que, en teoría, toda la química y la física de la materia a escala macroscópica podría ser descrita íntegramente por una enorme ecuación de Schrödinger aplicable a más de 10 elevado a 23 átomos de una unidad de materia.

Utilizar esta ecuación y aplicarla de manera eficaz es actualmente posible gracias al uso de ordenadores con una capacidad de cálculo superpotente, que permitirían comprender algunas de las enigmáticas propiedades del agua. Este tipo de herramienta informática de análisis ya se ha aplicado en otros campos, como la meteorología y la mecánica celeste.

Los resultados de la investigación han sido publicados por la revista
Science y han sido explicados en un comunicado de la universidad de Delaware. La investigación ha estado liderada por el profesor de física y astronomía de dicha universidad, Krzysztof Szalewicz, que ha colaborado con Robert Bukowski, de la Cornell University, y Gerrit Groenenboom y Ad van der Avoird, del Institute for Molecules and Materials de la Radboud University.

PROPIEDADES EXTRAÑAS 

Todo el mundo sabe que una molécula de agua es H2O, pero, aunque su composición parezca simple, el agua líquida en realidad es mucho más compleja que eso. Por ejemplo, señala Szalewicz, contrariamente a otros líquidos, el agua aumenta de volumen cuando se congela, lo que explica que el hielo flote en el agua. Por otro lado, el agua puede absorber grandes cantidades de calor antes de empezar a calentarse y lo libera lentamente mientras se enfría.

Las características únicas del agua parecen relacionarse con su estructura molecular y con la capacidad de sus moléculas para formar enlaces de hidrógeno con otras moléculas de agua. El hidrógeno de la molécula del agua tiene una carga ligeramente positiva, mientras que la carga del otro extremo de la molécula es ligeramente negativa.

Tradicionalmente se pensó que en el agua en estado líquido cada molécula se coordinaba con una media de otras cuatro moléculas gracias a estos enlaces de hidrógeno. Sin embargo, posteriormente se descubrió que esta coordinación tiene lugar sólo con dos moléculas.

AMBIGÜEDADES

Todas estas ambigüedades del agua han sido estudiadas desde la mecánica cuántica por Szalewicz y sus colegas, aplicando leyes de la física a un nivel microscópico.

El resultado: los investigadores han conseguido generar un nuevo marco teórico para describir la estructura y el comportamiento de la molécula del agua átomo a átomo, gracias a los ordenadores de última generación, multiprocesadores, capaces de aportar soluciones bastante ajustadas de las ecuaciones de la mecánica cuántica para la descripción de las fuerzas que ejercen unas moléculas del agua sobre otras. Esto debería permitir desvelar el porqué de las extrañas propiedades de este líquido.

Con un conjunto de ordenadores Linux funcionando en paralelo, y que realizaron cálculos a gran escala, el estudio tardó varios meses en completarse. El nuevo modelo puede predecir con bastante exactitud, tanto las propiedades de un par de moléculas de agua, como las del agua en estado líquido.

Las aplicaciones de este novedoso modelo, señalan los investigadores, van desde la posibilidad de comprender mejor el agua en diversos estados y en condiciones extremas, hasta el estudio de otros líquidos y sistemas moleculares, el ADN en biología o el llamado plegamiento de proteínas (proceso por el que una proteína alcanza su estructura tridimensional), entre otras.
 

Fuente: Tendencias 21, 27 de marzo de 2007

 

-Fotones, mejor que electrones

IBM va a desvelar un prototipo de microprocesador que utiliza conexiones ópticas en lugar de las tradicionales (mediante semiconductores) y que, según publica el diario The Wall Street Journal es capaz de procesar 160.000 millones de bits por segundo, o lo que es lo mismo, 160 Gbit/s. Para entendernos, tantos datos como los que contiene una película de alta definición en una fracción de segundo.
 

La compañía planea tener este tipo de microprocesadores en la calle en un plazo de entre 18 y 30 meses, pero eso sí, para un mercado especial: el de los supercomputadores y el de algunos servidores de red, ya que no sólo servirá para aumentar su capacidad de procesamiento, sino sobre todo para reducir drásticamente el espacio que necesitan, la energía que consumen y los gastos en refrigeración que conllevan.

Detrás de este salto tecnológico está un proyecto que ha sido cofinanciado por la conocida agencia
DARPA, y una idea teóricamente obvia, pero que hasta ahora planteaba serias dificultades técnicas pero sobre todo de rentabilidad: sustituir las conexiones eléctricas (los datos se transmiten mediante electrones) por conexiones ópticas (en las que los fotones toman el papel de bits de información).

Fuente: Cinco días, 27 de marzo de 2007

 

 

-Científicos surcoreanos clonan lobos

Un grupo de científicos surcoreanos ha anunciado la clonación de dos ejemplares de lobo, las primeras conseguidas de esta especie. Según los investigadores, que pertenecen al equipo del polémico Woo Suk Hwang, se trata de un importante avance para la protección de esta especie, que en dicho país ya no vive en libertad.

Los dos lobos clonados nacieron entre el 18 y 26 de octubre del año 2005, según confirmó Lee Byeong-chun, un profesor de veterinaria de la Universidad Nacional de Seúl, citado por la oficina de investigación del plantel educativo. Sin embargo, el equipo ha tardado año y medio en confirmar la noticia, puesto que las diferentes publicaciones científicas a las que se lo enviaron han querido revisar concienzudamente todos y cada uno de los datos para evitar fraudes como el ocurrido anteriormente con el anuncio de Hwang, que falsificó datos de sus experimentos con células madre.

Según informan los científicos surcoreanos, las pruebas genéticas realizadas con los dos ejemplares de lobo -llamados 'Snuwolf' y 'Snuwolffy'- han mostrado que ambos son clones. Los resultados de la investigación serán publicados en la revista 'Cloning and Stem Cells'. Sin embargo, hasta el momento el equipo científico no ha aportado una verificación independiente de los estudios del ADN de los lobos.

El equipo científico, dirigido actualmente por el doctor Lee Byung-chun -antiguo colaborador de Hwang- es el mismo que hace dos años logró por primera vez clonar un perro. "Normalmente, las publicaciones científicas no exigen verificaciones del ADN mitocondrial antes de publicar una investigación, pero en este caso hemos tenido que proporcionárselo para que pudieran verificarlo, para evitar problemas que han sucedido anteriormente", señaló Lee a la agencia Reuters.

Según los científicos, la clonación de estos lobos servirá de gran avance para la protección de este especie, que en muchos países se encuentra en peligro. De hecho, en Corea del Sur hace más de 20 años que no se ven ejemplares en libertad, y los únicos de que se tiene constancia es de un pequeño grupo de diez ejemplares que vive en un parque natural en Seúl.

El doctor Lee fue el 'segundo de a bordo' del equipo de investigación liderado por Hwang, cuyos presuntos descubrimientos sobre la producción de células troncales humanas mediante la clonación resultaron ser un fraude. Hwang no sólo perdió el reconocimiento de la comunidad científica, sino que fue llevado a juicio en Corea del Sur, y algunos de sus colaboradores fueron suspendidos de empleo y sueldo por desviación de fondos y falsificación de datos.

Sin embargo, de todos los experimentos realizados por el equipo surcoreano, el único que se demostró cierto fue la clonación de un perro, un cachorro de raza afgana llamado 'Snuppy', y cuya investigación estaba directamente a cargo del doctor Lee.

El pasado mes de diciembre, el equipo del doctor Lee anunció la clonación de tres cachorros de perro, también de raza afgana, y que había sido factible gracias a una sustancial mejora en el procedimiento de clonación.

para conseguir los lobos clonados -dos hembras-, el equipo científico transfirió 251 embriones a 12 madres adoptivas, de las que lograron producir dos clones que salieron adelante.

Los perros son unos de los animales mamíferos más difíciles de clonar, debido a su complejo sistema reproductivo.

No se trata, evidentemente, de unas lentes convencionales, sino que están confeccionadas con «metamateriales» con un índice de refracción negativo. Es así como los investigadores han logrado superar la barrera que impone a los instrumentos ópticos el denominado «límite de difracción».

Fuente: El Mundo, 27 de Marzo de 2007

 

 

-Nuevas superlentes permiten llegar al microscopio óptico a la escala del virus

Dos equipos de físicos estadounidenses han creado, trabajando de forma independiente, las primeras superlentes capaces de una ampliación de la imagen tal que va más allá de todos los límites de resolución óptica conocidos: pueden poner bajo el ojo del investigador objetos de una escala de tamaños inimaginable hasta la fecha, como proteínas, virus, o el mismo ADN.
 

La difracción es un fenómeno característico de las ondas, por el que se dispersan y se curvan cuando encuentran un obstáculo. Se produce en todo tipo de ondas: ondas sonoras, ondas en la superficie de un fluido y ondas electromagnéticas, como las de la luz. La difracción sólo se observa si el obstáculo que encuentran las ondas es del mismo orden que la longitud de onda.

LA DISTORISÓN DE LA LUZ

La distorsión de la luz por la difracción produce una borrosidad que limita la capacidad de aumento útil de un microscopio, o de un telescopio. Así, los detalles menores de media milésima de milímetro no pueden verse en la mayoría de los microscopios ópticos. Sólo un microscopio de barrido de campo cercano puede superar el límite de difracción y visualizar detalles ligeramente menores en tamaño que la longitud de onda de la luz.

Ya en una primera aproximación al problema, se llegó a la conclusión de que el límite de difracción sólo podía superarse mediante el empleo de ondas «evanescentes», que al salvar los obstáculos sin distorsiones permiten resoluciones ópticas muy superiores a las obtenidas con las ondas de luz visible «normales», pero cuya captura por lentes convencionales provoca su rápido decaimiento o «evanescencia».

John Pendry, físico del
Imperial College de Londres, predijo ya en el año 2000 que el decaimiento de las ondas evanescentes puede resolverse si son amplificadas al pasar por un material con índice de refracción negativo. Desde entonces, han sido fabricadas varias superlentes con un éxito limitado en la transmisión de ondas evanescentes, pero ninguna de ellas ha conseguido un índice de decaimiento aceptable de la onda.

DESDE MARYLAND Y BERKELEY

Ahora, dos equipos de investigadores lo han conseguido en trabajos independientes. En la
Universidad de Maryland, un equipo dirigido por Igor Smolyaninov ha logrado construir una superlente a partir de anillos concéntricos de distintos polímeros, depositados sobre una delgadísima película de oro. De forma simultánea, otro equipo, dirigido por Xiang Zhang, ha optado en la Universidad de Berkeley, en California, por un dispositivo en tres dimensiones (3D) de láminas de plata curvadas, y de óxido de aluminio, incrustadas sobre una base de cuarzo.

Estos dos diseños han sido calificados de metamateriales por tratarse de nanoestructuras artificiales creadas por los físicos, ya que no existen en la naturaleza, o al menos no se conocen, sustancias con un índice de refracción negativo.

A partir de estas superlentes, montadas en un dispositivo de geometría cilíndrica, un equipo externo a la lente captura las ondas evanescentes emitidas por los objetos a estudio tras ser iluminados por un finísimo rayo láser, de forma que se obtiene una imagen ampliada más allá del límite de difracción, mucho más de lo que un microscopio convencional puede registrar.

UNA SOLUCIÓN "RÉCORD"

Smolyaninov ha obtenido con su superlente de anillos de polímeros una resolución de 70 nanometros, siete veces superior al límite de difracción de la iluminación por láser efectuada sobre el objeto. Por su parte, Zhang, con su «hiperlente» en 3D -así prefiere llamarla-, ha logrado una resolución cercana a los 130 nanometros.

Estas enormes prestaciones logradas por ambas superlentes abren una nueva dimensión al campo de la óptica. Las resoluciones obtenidas por Smolyaninov y Zhang sólo son superadas por la microscopía electrónica -por los denominados microscopios de fuerzas atómicas, o por los de túnel de barrido-, pero estos microscopios no se basan en la óptica, sino en la interacción atómica: el observador no «ve» la muestra, sólo contempla su «huella».

Igor Smolyaninov ha manifestado a la revista electrónica «
Physicsweb», en cuyo último número aparecen reflejados ambos trabajos, que «ahora el verdadero desafío reside en localizar la muestra a estudio -por su reducidísimo tamaño-... apenas llegas a ver si la tienes enfocada o no».
 

Fuente: ABC , 27 de Marzo de 2007

 

 

-Varadhan gana el Premio Abel

La Academia Noruega de las Ciencias y las Letras, que concede el galardón, anunció el nombre del premiado y destacó que los trabajos de Varadhan "tienen una gran fuerza conceptual y una belleza intemporal". El Premio Abel 2007 está dotado con 750.000 euros.

Varadhan nació en Madrás (India) en 1940 y se doctoró en el Instituto Indio de Estadística de Calcuta. Después se fue a Estados Unidos, donde inició su carrera académica en el Instituto Courant de Ciencias Matemáticas de la Universidad de Nueva York. La Teoría de la Probabilidad es la herramienta que se aplica en el análisis de situaciones que se rigen por el azar; por ejemplo, al tirar una moneda al aire repetidas veces. Varadhan, señaló la Academia Noruega en un comunicado, ha hecho aportaciones esenciales "al haber creado una teoría unificada de las grandes desviaciones". Esta área se aplica en diferentes campos, desde la física y la biología, hasta la economía o la estadística.

Si se tira una moneda al aire muchas veces, cabe esperar que la mitad de ellas salga cara y la otra mitad, cruz. Sin embargo, se producen valores inesperados: sale más veces cara o cruz del valor medio. La teoría de las grandes desviaciones permite analizar la incidencia de esos valores anómalos. Las soluciones sirven para abordar problemas como: ¿Qué reservas de capital se requieren para que la probabilidad de quiebra de una empresa de seguros se mantenga a un nivel aceptable?
 

Fuente: El País, 23 de Noviembre de 2007

 

 

-El oro azul del siglo XXI

Si el petróleo se convirtió en el oro negro del siglo XX y aún hoy sigue provocando turbulencias en el mercado, el agua es el indiscutible oro azul del siglo XXI. En la teoría económica se maneja la llamada paradoja del diamante, para explicar cómo en el desierto una gota de agua cobra un valor económico muy superior al de un diamante.
 

El hecho es que más de 1.100 millones de personas no tienen un acceso normalizado al agua y dos de cada cinco personas en el mundo carecen de saneamiento adecuado, según estadísticas de la ONU, que vaticina que las necesidades de agua aumentarán un 55% a escala mundial en los próximos 20 años. El oro líquido es ya un activo de inversión para el futuro.

El sector llega en buena forma al día mundial del agua. El índice Bloomberg de empresas de distribución de aguas acumula una rentabilidad a 12 meses del 10,94%, frente al 5,98% que logra el índice Euro Stoxx. Si bien es cierto que sobre el sector siempre ha pesado una prima de concentración corporativa, que explica también la buena marcha de la compañía española Aguas de Barcelona, que gana un 16,86% en ese periodo.

'La perspectiva del sector es atractiva y comparativamente favorable en relación con los mercados de acciones mundiales', constatan desde Pictet Funds, cuyo fondo basado en la industria del agua logra una rentabilidad del 72,9% en un plazo de tres años. 'Globalmente la infraestructura del agua está desfasada y la necesidad de financiación es ya de 534.000 millones de dólares en EE.UU. y de 330.000 millones de euros en Europa', apunta David Owen, gestor de Pictet Funds. El Banco Mundial cifra entre 60.000 y 80.000 millones de dólares anuales la necesidad inversión en todo el mundo para cubrir los servicios básicos, aunque la inversión real no llega al 40% de esa cantidad, lo que da una idea de las posibilidades futuras del sector.

'Las perspectivas de crecimiento son buenas; el mercado de EE.UU. se está liberalizando cada vez más y el tratamiento de agua, especialmente en países como China e India, ofrece grandes oportunidades debido a la polución', constata Jerôme Schupp, de Banque Syz.

Así, el fondo New Resources de DWS (la gestora de fondos de Deutsche Bank), donde la industria del agua tiene un peso del 38,4% en la cartera, logra en un plazo de 12 meses un rendimiento próximo al 10%. El índice Wowax, sobre el que Société Générale crea productos derivados basados en agua, tiene una rentabilidad histórica del 120% en los últimos tres años.

Aunque las empresas de distribución de agua pierden de media un 3,58% en lo que va de año, todo el mercado está esperando una oleada de operaciones corporativas, lideradas por las francesas Suez y Veolia, que den combustible a las cotizaciones, que en un plazo de 12 meses ya arrojan un saldo positivo del 10,94%.

En cualquier caso, las necesidades de inversión también apuntan a un futuro brillante para el sector. DWS calcula que las necesidades de inversión para los próximos ochos años, supondrán un incremento del 330% en EE.UU. y del 100% en Europa, respecto a los niveles de inversión del año 2000. En los países en desarrollo se espera crecimiento superior incluso al 1.000%.
 

Fuente: Cinco Días, 22 de Marzo de 2007

 

 

-Científicos españoles investigan los fondos de la Antártida

El deshielo de las plataformas antárticas Larsen A y Larsen B ha permitido a un equipo español estudiar la fauna de unos fondos marinos inaccesibles para el hombre desde hacía más de 1.000 años y descubrir que los fondos bentónicos son mucho más ricos y diversos de lo que se pensaba.

 

Estrella de mar de 12 brazos encontrada a 100 metros de profundidad en la plataforma Larsen A

curioso pez cuya coloración es azul.

Según explicaron en rueda de prensa los investigadores del CSIC Enrique Isla y Josep-María Gili, el objetivo de su proyecto, 'Climant', es estudiar el "acoplamiento" que se produce en la Antártida entre el fondo marino (bentos) y la columna de agua (pélagos).

Cuando se desintegran fragmentos de la plataforma helada, los icebergs resultantes se comportan como "verdaderos bulldozers" y destruyen los fondos a su paso, apuntó Enrique Isla, responsable del proyecto en España, en el que también participan científicos alemanes y chilenos.

Después, los micronutrientes y semillas almacenados en el hielo se precipitan al fondo del mar, lo que permite que la vida se desarrolle y se produzca la colonización con especies de zonas cercanas en las zonas arrasadas, dijo Isla.

"La retirada de las plataformas de hielo de la zona estudiada nos ha dado la posibilidad de llegar a un lugar en el primer momento de esta recolonización", añadió.

Lo que más asombró a los científicos fue descubrir que el fondo marino en esta plataforma continental era mucho más rico y diverso en animales bentónicos de lo que tenían previsto, puesto que hasta el momento se pensaba que "el ecosistema antártico era más lento", explicó Gili.

Entre las especies halladas durante la campaña se encuentran ascidias, de aspecto semejante a tubos de plástico, y holoturias, similares a las babosas, que al parecer son los primeros grupos en llegar a las zonas despobladas. En algunos lugares estas comunidades de animales cubren casi por completo el lecho marino.

En el apartado de las curiosidades, se ha descubierto una especie de esponja que, por forma y tamaño, ha recibido el nombre de 'Stilogorgia chupachups', algo para lo que, según explicó Gili "ha habido incluso que pedir permiso a la empresa" que fabrica los caramelos. Se trata de una especie "muy común en la zona, que tiene una historia de aislamiento de 30 millones de años".

Lo más llamativo para la comunidad científica no es hallar especies nuevas porque "en la Antártida lo normal es descubrir entre 30 y 40 en cada viaje", sino el hecho de que, de las detectadas "más del 50% son endémicas", es decir, que "sólo viven" en el continente helado, lo que convierte a la región en el lugar con "la fauna marina más antigua de la Tierra"; con "el nivel más alto de especies endémicas" y, durante "un mes al año, el lugar con el ecosistema más productivo del planeta".

Además, encontraron crinoideos pedunculados, animales cuyos brazos se extienden en forma de palmera, que hasta ahora eran asociados a mares profundos, "lo que induce a pensar que las condiciones ambientales existentes bajo las plataformas de hielo son parecidas a las que se dan en el mar profundo", dijo Enrique Isla.

Los deshielos, y consecuentes desprendimientos de icebergs, por sí mismos no se pueden considerar negativos.

Durante los 40 millones de años en que la Antártida "está donde está" este proceso ha provocado un aumento en la diversidad de especies.

El gran peligro del cambio climático es la posible envergadura que pueda alcanzar porque "si desaparece el hielo alrededor de las zonas destruidas, no habrá desde donde colonizar", especificó Gili.

Sin embargo, el científico opina que la mayor amenaza para estos ecosistemas no es el calentamiento global, "tras 40 millones de años congelándose la Antártida no se descongelará en 100", sino el aumento de las cuotas de pesca de krill, un pequeño crustáceo que sirve de alimento a muchas especies polares como las ballenas.

Esta especie es "clave" porque sirve de vector entre los nutrientes del hielo y muchas especies.

A diferencia del Ártico, "mucho más sensible al cambio climático", en la Antártida el Polo Sur se está enfriando y la península se está calentando. "Las muestras de agua, animales y sedimentos obtenidas ayudarán en el análisis de cómo el cambio climático está presionando en ecosistemas especialmente sensibles", concluyó Isla.

La campaña, que se desarrolló a bordo del rompehielos alemán 'Polarsten', se integra en el Proyecto 'Climant', un trabajo internacional que estudia los efectos del calentamiento global en el continente helado en el que participan 40 científicos de 12 países.

Junto a los científicos del Instituto de Ciencias del Mar del CSIC han participado investigadores de la Universidad de Sevilla.

El equipo científico señaló que la biodiversidad del fondo marino de la Antártida evoluciona a una velocidad "mucho mayor de la esperada" a causa del cambio climático por lo que, cuando antes se viajaba allí para estudiar el terreno de década en década, "ahora habrá que ir con más frecuencia, quizá anualmente".

. Sin embargo, es algo que resulta muy complicado, especialmente económicamente hablando porque, según apuntaron "sólo el combustible" les ha costado "seis millones de dólares" y aunque el Gobierno alemán "ha prestado sus plataformas de trabajo" y "un barco que tiene instalaciones y facilidades que no tiene otro en el mundo" lo que financia el Ministerio de Educación y Ciencia español, "no llega al 5% del gasto real", que es "mucho dinero".

Fuente: El Mundo, 21 de Marzo

 

-Canarias propondrá que Macaronesia sea un santuario de cetáceos

El Gobierno de Canarias propondrá que la Macaronesia -región a la que pertenece este archipiélago junto con las Azores, Madeira, las Salvajes y Cabo Verde- sea un santuario para cetáceos, informó la Consejería de Medio Ambiente y Ordenación Territorial del Gobierno canario.

La propuesta se hará en la Conferencia Internacional de Protección de los Delfines que se celebrará en noviembre de este año en Tenerife y en la que participarán representantes de Portugal, España y países africanos con motivo de la celebración en 2007 del Año Internacional de Protección de los Delfines.

El director general del Medio Natural del Gobierno canario, Juan Carlos Moreno, que hoy se reunió con representantes de entidades para concretar el desarrollo de esta propuesta, indica en un comunicado que el diseño de las acciones se sustentará en los pilares de educación ambiental e investigación.

Juan Carlos Moreno destaca la importancia de que las entidades privadas en Canarias tengan conocimiento de la necesidad de potenciar y sacar rendimiento a la riqueza del mar en las islas, tanto desde el punto de vista educativo como desde el económico y el investigador.

La apuesta, en palabras de Juan Carlos Moreno, debe hacerse desde la óptica de la protección y la conservación de las aguas insulares.

Fuente: EFE, 21 de Marzo de 2007

 

-60 equipos de investigación desarrollan la predicción climática detallada para Europa

Una de las áreas prioritarias de la investigación es la modelización climática a escala regional, una difícil disciplina en la que son líderes mundiales los científicos europeos.

Más de 60 equipos de investigación, casi todos de la UE, están trabajando en un macroproyecto denominado Ensembles, entre cuyos objetivos destaca la creación de modelos de clima que permitan hacer proyecciones para las próximas décadas con una elevada resolución espacial: 25 kilómetros. Los actuales modelos climáticos globales, que abarcan todo el planeta, tienen una resolución máxima de unos 200 kilómetros, por lo que con ellos no es posible simular la evolución de las temperaturas o las lluvias a lo largo del siglo en áreas más pequeñas.

"Ensembles va a realizar simulaciones climáticas para todo el siglo, con especial atención al periodo 2000-2050, usando modelos climáticos regionales avanzados de 25 kilómetros de resolución", explica Manuel de Castro, catedrático de la
Universidad de Castilla-La Mancha y participante en el proyecto europeo. "Además, vamos a calibrar los diferentes modelos que usemos, comparando sus resultados y cuantificando las incertidumbres que presentan". Pero Ensembles, enfocado al territorio europeo y la cuenca del Mediterráneo, tiene otro objetivo ambicioso: "Al final del proyecto, en 2009, muchos de estos modelos regionales podrán hacer simulaciones en otras zonas, fuera de Europa", explica Chris Hewitt, científico del Hadley Centre británico y director de Ensambles.

Las simulaciones y proyecciones climáticas, puntualiza De Castro, no son iguales a las predicciones meteorológicas. No tratan de predecir qué tiempo hará en un día y un lugar concretos dentro de 35 años, algo que impide la naturaleza caótica de la atmósfera, sino de simular el cambio de las condiciones climáticas, es decir, de valores promedio a lo largo de las próximas décadas en la región de interés.

Los modelos regionales son clave, por ejemplo, para conocer los impactos del calentamiento a esa escala, lo que es muy útil para los responsables políticos y económicos que preparan las medidas de respuesta. España, entre otros, está trabajando en esta orientación de análisis de impactos.

De momento, y a la espera de resultados con mayor resolución, las simulaciones indican que en el último tercio de siglo las temperaturas medias en la península Ibérica podrían aumentar entre cuatro y siete grados centígrados en verano, respecto a los valores actuales; las precipitaciones podrían disminuir entre un 30% y un 70% en primavera y verano. En invierno, en la mitad sur de la Península, las lluvias posiblemente se reducirían entre el 10% y el 30%, pero en la mitad norte disminuirían menos o incluso aumentarían ligeramente. De Castro puntualiza que estos valores están calculados para uno de los peores escenarios posibles, es decir, para un incremento más acelerado que el actual en las emisiones de gases de efecto invernadero.

Ensembles, financiado con 15 millones de euros por el VI Programa Marco de la UE, deriva en parte de otro proyecto europeo, Prudence, en cuyo marco se prepararon y aunaron 10 modelos regionales con resolución de 50 kilómetros (algunos ya de 25 kilómetros) y con proyecciones para el último tercio del siglo XXI. Uno de ellos era -y sigue siéndolo en Ensembles- el modelo Promes, desarrollado por el equipo de De Castro.

Los resultados de Prudence se recogen en el AR4 del IPCC, tanto en el volumen dedicado a la ciencia del cambio climático como en el que se ocupa de sus impactos. El hecho de que en el capítulo 11 del informe, sobre proyecciones regionales, sólo se establezcan conclusiones derivadas de modelos sobre Europa demuestra hasta qué punto, por ahora, la ciencia europea es líder mundial en modelización regional. Para el resto del planeta, los análisis de impacto se han ceñido a los resultados de los modelos globales, que dividen la superficie de la Tierra y la atmósfera en celdillas de más de 200 kilómetros de lado.

"Hasta ahora, sólo las simulaciones de Prudence han generado un conjunto coordinado multimodelo de simulaciones con resolución de 50 kilómetros para todas las zonas; un conjunto similar de experimentos se está realizando ahora en Norteamérica, en el proyecto Narccap", explica Jens Christensen, experto del Instituto Meteorológico Danés y líder de dicho capitulo 11 del AR4. Él destaca el objetivo de Ensembles de reducir la resolución a 25 kilómetros, y añade que se aplicarán estos modelos en otras partes del mundo, como África occidental y Latinoamérica.

PARA MEDIADOS DE SIGLO

En el proyecto Ensembles los científicos europeos han asumido el reto de acercar a la primera mitad del siglo XX el plazo de la proyección climática, y ya con alta resolución -algunos de los 10 modelos del programa anterior, el Prudence, ya estaban en 25 kilómetros, pero otros eran de 50 kilómetros-.

"Las proyecciones a medio plazo son más difíciles porque el ruido que generan en la simulación las fluctuaciones naturales del clima resulta algo más dominante", aclara el experto danés Jens Christensen. El problema es que es más difícil, por ejemplo, identificar con rigor en una simulación un aumento de temperatura media de dos grados en las próximas décadas que un aumento de cuatro a finales de siglo.

Hay que tener en cuenta que estas simulaciones del clima, tanto a escala global como las regionales, son complejísimas. Son modelos que reproducen razonablemente bien la evolución de las condiciones climáticas y los fenómenos físicos y biogeoquímicos que las determinan, y exigen el uso de superordenadores muy potentes. De Castro comenta que realizar una simulación climática de cien años requiere un tiempo de computación continuo de entre seis y nueve meses, dependiendo de la potencia del superordenador.

Los científicos, una vez desarrollado un modelo, primero lo arrancan en el pasado -por ejemplo, a principios o mediados del siglo XX-, para hacerlo avanzar hasta el presente, de manera que así pueden verificar si los resultados de la simulación, por ejemplo en la década de los noventa, reproducen bien las condiciones climáticas ya observadas en la región que interesa. Sólo entonces se ejecuta el modelo hacia el futuro.

Además del equipo de Castilla-La Mancha participan tres instituciones españolas más entre las 65 de Ensembles: el
Instituto Nacional de Meteorología, la Universidad de Cantabria y la Fundación para la Investigación del Clima, pero éstas no utilizan modelos climáticos regionales propios.

Fuente: El País, 21 de Marzo de 2007



 

-Cada dólar invertido en meteorología ahorra siete de pérdidas en catástrofes humanas

Según señaló Michel Jarraud, secretario general de la Organización Meteorológica Mundial (OMM), "invertir un euro en medidas de prevención de los riesgos asociados a fenómenos climáticos puede evitar que se tengan que desembolsar siete en gastos relacionados con los desastres".

Jarraud ha participado en Madrid en la conferencia internacional para mejorar los servicios del tiempo, el clima y el agua en el mundo, que ha inaugurado la Reina Sofía y en la que participarán durante toda la semana centenares de expertos de todo el mundo. Unas jornadas de las que esperan sacar los marcos de actuación de la comunidad internacional, así como crear un foro de diálogo entre productores y usuarios finales de servicios meteorológicos para introducir mejoras en la utilidad de los productos dirigidos a agricultura, la salud humana, el turismo, la energía, el transporte, o el desarrollo sostenible, entre otros temas.

Para el secretario general de la OMM, en los últimos 20 años los desastres naturales han dejado un menor balance de víctimas mortales, debido en parte a la mejoría de los sistemas de alerta temprana de fenómenos meteorológicos extremos. "Unos servicios meteorológicos, climatológicos e hidrológicos adecuados puede ayudar a las sociedades a atajar, o al menos reducir sustancialmente buena parte de esas muertes, y también pueden ayudarnos a luchar contra el cambio climático", señaló.

El presidente de la OMM, Alexander Bedritsky, señaló que "es evidente que los servicios nacionales de meteorología e hidrología en muchos países carecen de influencia política a los más altos niveles". Así, en esta conferencia, según Bedritsky, "se pueden encarar estos retos mediante el incremento de la comprensión global sobre cómo todos los sectores son dependientes de los servicios del tiempo, agua y clima, mientras que sienta las bases para su modernización y desarrollo".

"Las vidas de cientos de millones de personas en todo el mundo se ven afectadas cada día por las decisiones que tienen que ver con el tiempo, el clima y el agua, y los fenómenos hidrometeorológicos extremos -que representan un 90% de los desastres naturales- han provocado en los últimos años catástrofes de consecuencias devastadoras", matizó Jarraud. La ministra de Medio Ambiente, Cristina Narbona, reiteró el compromiso del gobierno español con "todos aquellos proyectos de Naciones Unidas que pretenden avanzar hacia un desarrollo más sostenible a nivel mundial". Señaló que la Conferencia pretende avanzar en la identificación de los beneficios económicos y sociales de los servicios meteorológicos y apuntó que España es un país "especialmente vulnerable" ante el cambio climático. Enrique Iglesias, secretario general de la Secretaría General Iberoamericana, señaló que "la información relativa al clima es vital para Iberoamérica, porque son países que dependen mucho de la exportación de materias primas, por lo que la incidencia de la climatología en la agricultura, la ganadería o la pesca son fundamentales". En cuanto a España, Portugal y el resto de Europa, Iglesias matizó que la información meteorológica es también sumamente importante, "porque predecir el tiempo es clave para un sector como el turismo, de gran importancia en estos países".

Fuente: El Mundo, 20 de Marzo de 2007

 


 

Fuente: El País Digital, 15 de Marzo de 2007

 

-Una red de reservar marinas podría frenar la desaparición de pesquerías

Una presión humana excesiva sobre los ecosistemas marinos, con la actividad pesquera a la cabeza, ha causado una perdida de biodiversidad en el mar sin precedentes en las últimas décadas: el desarrollo industrial de las flotas pesqueras ha permitido su expansión hasta un punto en el que casi no queda un rincón de los océanos sin explotar y el descenso general de los recursos pesqueros es incontestable. A este problema se unen, entre otros, la contaminación, la destrucción de valiosísimos ecosistemas costeros o los efectos potenciales del cambio climático y el agujero en la capa de ozono. Hoy en día, el uso de nuevas herramientas como las reservas marinas para la gestión integral y precautoria de los océanos está emergiendo con fuerza. Greenpeace demanda la creación de una red global de reservas para la recuperación y gestión sostenible de los ecosistemas marinos.
 

Entre el público general no existe todavía una percepción adecuada de la agudeza de la crisis que sufren nuestros océanos. A menudo asistimos a discusiones sobre la situación de los recursos pesqueros, en torno a los recortes de las cuotas de pesca, pero hay un gran desconocimiento de la globalidad y profundidad de este problema, de sus causas y de las posibles soluciones.

El desarrollo industrial de la pesca durante el pasado siglo forzó la desaparición del mito de los océanos como una fuente inagotable de recursos. Durante demasiado tiempo los océanos estuvieron (y en cierta medida aún están) al alcance de quien tuviera medios para explotarlos; paralelamente, los avances tecnológicos posibilitaron una capacidad de captura muy por encima de las posibilidades de reproducción de los ecosistemas marinos apoyada por muchos gobiernos, que subvencionaron generosamente la construcción de más y mejor equipados barcos.

Los resultados no se hicieron esperar. La actividad pesquera industrial ha ido agotando las poblaciones de las especies que ocupan los lugares más elevados de las complejas redes tróficas marinas. Actualmente se calcula que la abundancia de peces predadores a nivel global es aproximadamente tan sólo un 10% de los niveles pre-industriales; muchas poblaciones de cetáceos podrían desaparecer en las próximas décadas; la producción pesquera ha estado descendiendo desde principios de los 90 pese a que disponemos cada vez de buques más potentes y tecnologías más eficaces para capturar peces en numerosas pesquerías, particularmente en las de arrastre, un porcentaje importante de las capturas son devueltas muertas al mar dos de los ecosistemas costeros más productivos en las zonas tropicales han sido destruidos en gran medida: el 25% de los arrecifes de coral ha desaparecido y el 25% de los bosques de manglar ha sido destruido en los últimos 20 anos. Como resultado disponemos de ecosistemas menos funcionales y mucho más vulnerables a fenómenos de alcance global como el cambio climático o la contaminación.

Precaución cero: un par de ejemplos cercanos y recientes

El desastre anunciado por todos en la costera de la anchoa este mismo año no hace sino confirmar la total falta de seriedad de nuestros gobernantes en cuanto a políticas responsables de pesca. De nada han servido las advertencias de los científicos, ni las demandas de los pescadores, que el año pasado exigían el cierre de la pesquería de anchoa en el cantábrico por dos años para permitir la recuperación del recurso, que se encuentra en niveles mínimos históricos. Como en 2005, este año el cierre de la pesquería lo han tenido que llevar a cabo los propios pescadores, renunciando a salir a faenar ante la falta de capturas. Nuestra administración pesquera sigue diciendo que no cerrará el caladero si no hay pruebas científicas que demuestren la necesidad del cierre. La situación exige exactamente lo contrario: cerrar el caladero hasta que haya evidencias de su recuperación.

Como Greenpeace ha denunciado estos días una de las pesquerías más emblemáticas del Mediterráneo, la del atún rojo, desaparece. Lo estamos viviendo en directo. Avisamos hace cuatro años, cuando los gobiernos miembros de la CICAA, organización que gestiona la pesca de atún en la región, acordaron una cuota de pesca un 25% mayor de la recomendada por los científicos. Hemos venido calificando de pesca pirata lo que sucede con esta especie en la región: todo el mundo pesca lo que puede y los gobiernos mediterráneos se toman a broma sus obligaciones de comunicar debidamente sus capturas a los organismos de gestión.

La flota atunera mediterránea podría estar capturando un 40% más de lo legalmente permitido en el Mediterráneo, condenando a la especie a su extinción comercial (45.000 toneladas frente a las 32.000 legales). Pese a que el estado de sobreexplotación del recurso era evidente, tanto España como otros Gobiernos mediterráneos han venido subvencionando generosamente a la industria atunera mediterránea en los últimos años, incluyendo la renovación de buena parte de esta flota. Dinero público destinado a que hoy en día tan sólo unas pocas empresas asociadas a capital japonés y australiano monopolicen el grueso de las capturas de atún en el Mediterráneo.

Son tan sólo dos ejemplos que muestran por un lado la gravedad del problema, y por otro la poca seriedad de los responsables de administrar la actividad pesquera. La búsqueda de niveles máximos de capturas en lugar del uso de un enfoque más precautorio y la gestión de los pesquerías especie por especie, en lugar de tener en cuenta el conjunto del ecosistema son factores fundamentales en el fracaso de la gestión pesquera tradicional.

En los últimos años no ha habido cambios significativos en la forma en la que los gobiernos hacen frente a esta crisis. Las grandes flotas industriales han seguido recibiendo generosas subvenciones; las flotas ilegales continúan eludiendo todo control; los modelos de acuicultura industrial más destructiva -como la del langostino tropical- siguen expandiéndose; la contaminación es un grave problema en amplias zonas costeras; y un largo etcétera.

Una red de reservas marinas como instrumento de gestión precautoria

Algo fundamental es que el mismo objetivo de la gestión pesquera debe cambiar, desde la actual maximización de los rendimientos a corto plazo hacia la minimización de los impactos sobre el medio ambiente, y especialmente del riesgo de dañar las poblaciones o los ecosistemas marinos de forma irreversible. Ninguna pesquería debería poner en peligro la capacidad de cualquier especie de resistir las fluctuaciones medioambientales, ya sean naturales o inducidas por el ser humano, ni inhibir la recuperación de cualquier especie que se encuentre amenazada o en peligro de extinción. Los impactos destructivos de las actividades pesqueras sobre los hábitats y ecosistemas marinos deben ser también eliminados, y la pesca en zonas de especial sensibilidad ecológica debería ser prohibida.

Además, para compensar nuestras grandes lagunas de conocimiento en lo que se refiere a los procesos ecológicos marinos, la gestión pesquera debe ser precautoria, poniendo el acento en la prevención del daño, en contraposición a los intentos de reparar los errores con medidas de recuperación o de mitigación una vez que estos se han producido. Las reservas marinas, mediante las cuales se protegen áreas enteras contra una amplia gama de impactos de origen humano, contribuyen precisamente a estos objetivos, lo que las convierte en una herramienta de conservación única. Contar con una parte del ecosistema al margen de las actividades extractivas es sin duda una forma de disminuir el riesgo, hoy día muy elevado, de sobreexplotación de los recursos.

Las reservas no son una herramienta tan nueva. Ciertamente en el pasado existían muchos refugios naturales para las especies marinas, proporcionados por zonas que eran simplemente inaccesibles y que explicaban la resilencia de algunas pesquerías. Se trata de lugares protegidos que en buena medida han desaparecido con el surgimiento de nuevas tecnologías, pero que podrían ser ahora recuperados a través de la creación de reservas marinas.

Beneficios de las reservas marinas

Se ha comprobado que el establecimiento de reservas marinas tiene como resultado aumentos a largo plazo y a menudo rápidos en la abundancia, diversidad y productividad de organismos marinos. Si bien los beneficios de la protección son más evidentes para las especies que pasan la mayor parte de su tiempo dentro de la reserva marina, también las reservas pueden brindar protección a las especies migratorias, si éstas son protegidas en etapas vulnerables tales como las que pasan en áreas de desove y cría. Las reservas marinas pueden reestablecer el equilibrio ecológico alterado por las actividades humanas. Por ejemplo, la pesca puede alterar la relación predador/presa y ocasionar cambios en el hábitat y las reservas pueden ayudar a mitigar estos efectos. Es vital que los hábitats más importantes estén representados dentro de una red regional. Estos deben incluir hábitas vulnerables; etapas críticas de la vida de las especies, p.e. lugares de desove y cría; lugares capaces de dar apoyo a especies sobreexplotadas o poco abundantes; etc.

Las reservas marinas como herramienta de gestión pesquera

Por definición las reservas marinas están cerradas a la pesca pero el establecimiento de una red de reservas marinas puede beneficiar a las pesquerías de varias maneras. Las reservas marinas permiten que las poblaciones explotadas recuperen sus hábitats y que los hábitats modificados por las actividades pesqueras se regeneren. Existen evidencias cada vez mayores que sugieren que el establecimiento de una red de reservas marinas puede producir mejores rendimientos en las zonas de pesca adyacentes. Esto esta relacionado con la migración de peces adultos y jóvenes más allá de los límites de la reserva así como con la exportación de larvas y huevos desde la reserva hacia las áreas de pesca. Al ser áreas no explotadas, las reservas marinas sirven también como áreas valiosas de referencia que se pueden utilizar para facilitar la comprensión de los efectos de la pesca fuera de la reserva y para informar las decisiones de gestión.

Las reservas marinas brindan además la oportunidad a las comunidades locales de obtener derechos de propiedad sobre las reservas de su área y sobre sus zonas adyacentes, un hecho muy importante que tiende a ser infravalorado. Otras actividades no extractivas tales como el buceo, la fotografía submarina y la observación de cetáceos se benefician todas ellas con una vida marina diversa y abundante.

¿Por qué una red? Tamaño, escala y conectividad de las reservas marinas

Diferentes modelos parecen dejar claro que independientemente de su tamaño, el establecimiento de reservas marinas conduce a incrementos en la densidad, biomasa, talla de los especimenes así como de la diversidad. Para proteger el ecosistema en su conjunto es importante garantizar que todos los hábitats estén representados dentro de una red de reservas marinas.

Para conservar una gama representativa de hábitats y especies se necesitará establecer cierto número de reservas marinas y es importante que éstas estén ubicadas en una red que garantice su conectividad. Muchas especies marinas tienen fases dispersas en aguas abiertas y con frecuencia los huevos y las larvas son transportados a sitios muy alejados de donde fueron fecundados. En la misma medida en que aumenta la cobertura de un área se incrementa también la conectividad.

El Congreso Mundial de Parques de Durban en 2003 recomendó que "las redes deberían ser extensas e incluir áreas estrictamente protegidas que abarquen por lo menos el 20-30% de cada hábitat". Dos expertos destacados en los aspectos científicos de las reservas marinas, Callum Roberts y Julie Hawkins, de la Universidad York en el Reino Unido, han llegado a la conclusión de que "todos los argumentos convergen hacia la importancia de la protección a gran escala, con un máximo de beneficios generalmente en el rango de entre el 20 y el 40% del mar como parte de reservas".

Se ha subrayado también la importancia de crear reservas en una red de distintos tamaños. Crear una red de reservas marinas más pequeñas en la zona costera tendrá la ventaja de distribuir los beneficios entre las comunidades pesqueras a lo largo de la costa en vez de concentrarlos en unas pocas y extensas reservas marinas donde varias comunidades juntas perderán sus espacios de pesca.

La propuesta de Greenpeace

Greenpeace está promoviendo una red global de reservas marinas que abarque el cuarenta por ciento de los océanos del planeta con el fin de disponer de océanos y mares bien conservados y de permitir su recuperación en los casos necesarios. Esto significa establecer una red representativa de reservas marinas, que comprenda reservas a gran escala en alta mar, y un mosaico de reserva marinas de menor extensión en conjunción con áreas de pesca bien gestionadas y sostenibles en la zona costera. Para garantizar que tanto los beneficios de la reservas marinas y el acceso a las áreas de pesca de distribuyan equitativamente alrededor de la línea costera, en el diseño de una red se deben considerar tanto los factores sociales como los biológicos.

Se trata de una medida con importantes ventajes desde el punto de la gestión pesquera, cuyos beneficios son cada vez más evidentes y en la que es necesario comenzar a dar pasos cuanto antes. Por el momento, las primeras experiencias piloto han ofrecido en general resultados muy positivos cuando han estado bien gestionadas. Es hora de pasar de pequeños ejemplos casi diríamos anecdóticos, a redes más consistentes que permitan explorar su funcionamiento a pleno rendimiento.

Fuente: mi+d,

-Un escurridizo mamífero que vivía entre dinosaurios: el Yanoconodon

Los investigadores han declarado a la revista Nature que el peculiar animal, rescatado en una formación de rocas ricas en fósiles al norte de China, da a conocer un elemento crucial en la evolución de los mamíferos: la estructura del oído que permite una gran sensibilidad de audición.

El animal, llamado Yanoconodon por las montañas Yan de la provincia de Hebei, vivió hace 125 millones de años durante el periodo cretácico, el tercero y último de la era mesozoica, conocida a veces como la Edad de los Dinosaurios. Su cuerpo era muy raro para ser un mamífero, con un torso alargado y extremidades cortas y rechonchas. "En cierto modo, es como el cuerpo de una salamandra en un mamífero", ha declarado en una entrevista el responsable de los científicos Zhe-Xi Luo del
museo Carnegie de historia natural en Pittsburgh, Pensilvania.

Los científicos piensan que Yanoconodon - que medía unos 15 centímetros de largo y pesaba alrededor de 30 gramos - era un animal nocturno que comía insectos. Vivió en un ambiente abundante de lagos de agua potable, plantas con flores y otros muchos animales. Entre ellos había una variedad de dinosaurios a los que nada les hubiera gustado más que convertirlo en un aperitivo con pieles.

Luo ha declarado que el Yanoconodon es particularmente importante porque supone una etapa intermedia en la evolución de la estructura auditiva de los mamíferos. Los mamíferos poseen una capacidad auditiva superior al resto de vertebrados, una característica fundamental para la vida del mamífero. Los investigadores creen que muchos mamíferos primitivos adoptaron una existencia nocturna que les mantuvo alejados de las multitudes de dinosaurios y otras bestias que buscaban un alimento fácil.

Los científicos llevan tiempo buscando pistas sobre los orígenes de la estructura auditiva de los mamíferos. Los primeros mamíferos aparecieron hace unos 220 millones de años, no mucho después de los primeros dinosaurios, pero el proceso de adquisición de la anatomía de los modernos mamíferos llevó muchas decenas de millones de años más.
 

Fuente: El País, 16 de Marzo de 2007

 


 

-Descubren una nueva especie de pantera

El Fondo Mundial para la Naturaleza (WWF, por sus siglas en inglés) anunció que la pantera nebulosa encontrada en las islas de Borneo y Sumatra es una especie distinta a la que habita en el sureste del continente asiático.

La pantera nebulosa, que debe su nombre a las grandes manchas de su pelaje que le permiten confundirse entre las hojas, es el mayor depredador de Borneo y se caracteriza por ser el felino con los colmillos más largos en relación a su tamaño, que oscila entre los 60 y los 110 centímetros de largo.

"Las pruebas de ADN muestran una cuarentena de diferencias genéticas entre las dos especies", por lo que "la pantera nebulosa de Borneo debe ser considerada como una especie distinta", explicó en un comunicado de prensa el responsable del estudio, Stephen O'Brien. El WWF señaló que tales diferencias "son comparables a las que existen entre otras especies de felinos como el león, el tigre, el leopardo, el jaguar o el leopardo de las nieves".

En paralelo, se analizaron los pelajes de varios ejemplares procedentes de distintas regiones y se compararon la forma y el color de sus manchas y "quedó claro que se trataba de dos especies distintas", aseguró el investigador del departamento de Ciencias Naturales del
Museo Nacional de Escocia, Andrew Kitchener.

La pantera nebulosa continental, también llamada pantera longibanda, está cubierta de grandes manchas irregulares con borde negro e interior pardo, pero las de la especie de Borneo son de un color más vivo y tienen pequeñas manchas oscuras en su interior. Los expertos, que creen que las dos especies se diferenciaron hace 1,4 millones de años, estiman la población de panteras nebulosas de Borneo entre 8.000 y 18.000 ejemplares.

"Que el mayor depredador de Borneo sea una especie distinta enfatiza la importancia de conservar el área del Corazón de Borneo", aseguró el coordinador del programa de ese mismo nombre en el Fondo, Stuart Chapman.

Se trata de una región montañosa y selvática de 220.000 kilómetros cuadrados, situada en el centro de la tercera isla más grande del mundo, donde se identificó la mayor parte de las 52 especies que se descubrieron allí en 2006.

Fuente: EFE, 16 de Marzo de 2007

 

 

-El agua congelada en el polo sur marciano podría cubrir toda la superficie de Marte

Una nueve medición de la sonda 'Mars Express' ha descubierto una enorme masa de agua congelada bajo el polo sur marciano, reveló el Laboratorio de Propulsión a Chorro (JPL), de la NASA en un comunicado.

El texto señala que esa región polar contiene suficiente agua congelada como para cubrir toda la superficie del planeta con una capa líquida de 11 metros de profundidad.

"Los depósitos del polo sur de Marte cubren una región mayor que la superficie del estado de Texas. La cantidad de agua que contienen había sido calculada antes, pero nunca con tanta precisión", manifestó Jeffrey Plaut, científico del JPL.

La misión de 'Mars Express' es una operación conjunta de la
NASA y de la Agencia Espacial Europea y la masa de hielo fue detectada por el 'Radar Avanzado para Investigación Subterránea y Ionosférica de Marte' (MARSIS, por sus siglas en inglés).

Ese instrumento, desarrollado de forma conjunta por la NASA y la
Agencia Espacial de Italia, también está investigando el grosor de depósitos similares en el polo norte marciano, señaló el JPL.

El comunicado del JPL cita declaraciones de Giovanni Picardi, de la
Universidad de Roma 'La Sapienza' e investigador principal a cargo del instrumento, quien manifiesta que "MARSIS demuestra ser un instrumento muy poderoso para investigar bajo la superficie de Marte".

Las capas de hielo polar contienen la mayor parte del agua existente en Marte, aun cuando hay otras zonas que parecen haber sido húmedas en el pasado, según el JPL. "Comprender la historia y la suerte corrida por el agua en Marte es clave para comprender si el planeta tuvo vida, ya que toda la vida depende del agua líquida", señaló el JPL.
 

Fuente: EFE, 16 de Marzo de 2007


 

-El invierno más cálido de los últimos 127 años

El último invierno en el hemisferio norte ha sido el más cálido desde que comenzaron a registrarse las temperaturas ambientales en 1880, según ha revelado la Administración Nacional Oceánica y Atmosférica de Estados Unidos (NOAA, siglas en inglés).

El organismo del Gobierno de EEUU indicó en su página "web" de Internet que en el periodo diciembre-febrero, las temperaturas fueron de 1,3 grados centígrados superiores a la media del siglo XX.

El informe indicó que uno de los factores que contribuyó a las temperaturas récord del invierno en el hemisferio norte fue el fenómeno estacional de 'El Niño', que cada fin de año se centra en las aguas del océano Pacífico. El aumento se debilitó en febrero cuando las temperaturas oceánicas en la zona del Pacífico ecuatorial bajaron en más de 0,5 grados centígrados.

NOOA también señaló que durante el último siglo, las temperaturas en la superficie del planeta han aumentado una media de 0,06 grados centígrados por década. Sin embargo, ese incremento ha sido tres veces superior a partir de 1976 (0,18 grados centígrados) por década, y los mayores aumentos se han registrado en las latitudes altas del hemisferio norte.

A pesar de que NOAA no planteó la relación, su informe se suma a la serie de estudios que señalan que el planeta está sufriendo un calentamiento como resultado de la contaminación causada por los gases de efecto invernadero, producidos por las actividades industriales, el uso de combustibles no renovables, y otros procesos.

Fuente: El Mundo, 16 de Marzo de 2007

 

 

-Una enorme masa de agua subterránea, se encuentra en Marte

La parte superior muestra la capa de hielo. La inferior muestra el corte topográfico

Una nueve medición de la sonda 'Mars Express' ha descubierto una enorme masa de agua congelada bajo el polo sur marciano, reveló el Laboratorio de Propulsión a Chorro (JPL), de la NASA en un comunicado. El texto señala que esa región polar contiene suficiente agua congelada como para cubrir toda la superficie del planeta con una capa líquida de 11 metros de profundidad.

"Los depósitos del polo sur de Marte cubren una región mayor que la superficie del estado de Texas. La cantidad de agua que contienen había sido calculada antes, pero nunca con tanta precisión", manifestó Jeffrey Plaut, científico del JPL.

La misión de 'Mars Express' es una operación conjunta de la NASA y de la Agencia Espacial Europea y la masa de hielo fue detectada por el 'Radar Avanzado para Investigación Subterránea y Ionosférica de Marte' (MARSIS, por sus siglas en inglés).

Ese instrumento, desarrollado de forma conjunta por la NASA y la Agencia Espacial de Italia, también está investigando el grosor de depósitos similares en el polo norte marciano, señaló el JPL.

El comunicado del JPL cita declaraciones de Giovanni Picardi, de la Universidad de Roma 'La Sapienza' e investigador principal a cargo del instrumento, quien manifiesta que "MARSIS demuestra ser un instrumento muy poderoso para investigar bajo la superficie de Marte".

Las capas de hielo polar contienen la mayor parte del agua existente en Marte, aun cuando hay otras zonas que parecen haber sido húmedas en el pasado, según el JPL. "Comprender la historia y la suerte corrida por el agua en Marte es clave para comprender si el planeta tuvo vida, ya que toda la vida depende del agua líquida", señaló el JPL.

Fuente: El Mundo, 16 de Marzo de 2007

 

-La NASA confirma la existencia de mares de metano líquido en Titán

La sonda Cassini de la NASA ha descubierto inmensos mares, probablemente de metano o etano, en las regiones del norte de la luna Titán de Saturno, ha anunciado este martes la agencia espacial estadounidense.

Los instrumentos de radar de la nave han captado regiones oscuras -que prueban la existencia de esos mares-, cuya superficie sería mayor a las observadas anteriormente, algunas más grandes incluso que muchos mares terrestres. Titán es el segundo satélite natural de Saturno y la segunda luna más grande del Sistema Solar, casi un 50% mayor que nuestra luna.

"Desde hace tiempo nos planteábamos hipótesis sobre los océanos de Titán y ahora con múltiples instrumentos tenemos indicaciones de mares que empequeñecen los lagos que habíamos visto antes", ha señalado Jonathan Lunine, científico de la misión en la
Universidad de Arizona.

La NASA ha explicado que hasta el momento no existe una indicación concluyente de que en esos mares haya algún tipo de líquido. Sin embargo, debido a las condiciones prevalecientes en Titán, es probable que sean una combinación de metano y etano, gases que son abundantes en la atmósfera de esa luna.

La misión de la sonda Cassini, iniciada con su lanzamiento en 1997, es un proyecto conjunto de la NASA, la
Agencia Espacial Europea y la Agencia Espacial de Italia.

Fuente: El País, 15 de Marzo de 2007

 

 

 

-El meteorito Apophis podría chocar con la Tierra

Duque señaló que el asteroide Apophis, de unos 250 metros de largo, pasará muy cerca de la Tierra en 2029 y causará, siete años después, un tsunami peor que el de 2004.

 
El ingeniero y astronauta español Pedro Duque advirtió de que existe "una certeza matemática absoluta" de que el asteroide Apophis pasará "enormemente cerca" de la Tierra en 2029. Hay una gran posibilidad de que derribe satélites comerciales y de que siete años después, en 2036, atraído por el campo magnético del planeta, pueda caer en la superficie marítima originando un "inmenso tsunami", "infinitamente más grande" que el que asoló Indonesia en 2004.

En un coloquio sobre Defensa y el sector aeroespacial organizado en el Hotel Palace de Madrid, el astronauta señaló que el asteroide, de unos 250 metros de largo, quedaría inmerso en el campo electromagnético terrestre y se precipitaría previsiblemente contra el mar, provocando "un inmenso tsunami". El asteroide causaría, según Duque, "un agujero" en la superficie marítima de "varios kilómetros de extensión".

Don Quijote y Sancho

El astronauta señaló que tanto la Unión Europea como Estados Unidos están evaluando los procedimientos a adoptar para afrontar esta situación e indicó que el coste de una misión para desviarlo rondaría los 1.000 millones de euros. En ese sentido, afirmó que la Agencia Espacial Europea está evaluando la posibilidad de desplegar una misión centrada en el lanzamiento de dos satélites, uno para alejar el asteroide, bautizado como Don Quijote, y otro para dar cobertura en órbita el primer satélite, denominado Sancho.

Duque dijo que está misión está en proceso de análisis y que su objetivo pasaría además por poder detectar asteroides que pudieran aproximarse a la Tierra y subrayó que se trata de una operación de prioridad para la ESA y que España podría asumirla porque su coste económico no es muy elevado.

¿Vida más allá de la Tierra?

Consultado sobre si cree que hay vida más allá de la Tierra, el astronauta español dijo que doce personas han visitado la Luna sin obtener indicios de esa posibilidad y que el "reto" actual es llegar a Marte para poder responder la cuestión de si "hubo o va a haber vida" en este planeta del sistema solar.

Duque realizó estas declaraciones junto al ministro de Defensa, José Antonio Alonso, quien reclamó que no se establezca "una contraposición tajante" entre la vertiente civil y militar en materia de Investigación, Desarrollo e Innovación (I+D+i) porque ambas áreas "se realimentan".

El titular de Defensa destacó la calidad de la industria aeroespacial y de defensa española y sus aportaciones al campo civil y resaltó el aumento de personal y tecnología en la Guardia Civil y los servicios de Inteligencia para afrontar con garantías la lucha contra el terrorismo internacional.

 

Fuente: elsemanaldigital.com, 13 de Marzo de 2007



 

-Consiguen borrar recuerdos de ratas

Científicos del Centro de Neurociencia de la New York University han logrado eliminar un recuerdo concreto del cerebro de una rata, sin tocar los demás.

Como señala la revista Nature (en cuyo especial de Neurociencia aparece publicado el resultado de la investigación), el hallazgo sirve para mejorar nuestro conocimiento sobre cómo se forman y alteran los recuerdos en el cerebro, y podría aliviar a los que sufren el síndrome de estrés post-traumático, al librarlos de los recuerdos que les causan ese síndrome.

El cerebro, como asegura la revista, fija los recuerdos traspasándolos de la memoria a corto plazo a la memoria a largo plazo, mediante un proceso llamado reconsolidación.

Este proceso podía ser hasta ahora interrumpido por medio de medicación, pero no había sido posible aislar y borrar un recuerdo concreto.

En la investigación, los científicos adiestraron a las ratas para mostrar temor ante dos tonalidades musicales diferentes, aplicando sobre ellas impulsos eléctricos mientras sonaba la música.

Luego les dieron a la mitad de las ratas una droga que causa amnesia (U0126), cuyo uso no está autorizado en humanos, y volvieron a hacer escuchar a todas (incluidas las que estaban bajo efecto de la medicación) una de las dos tonalidades musicales.

La mitad olvidaron sus recuerdos

Cuando sometieron a las ratas al sonido de los dos tonos días después, las que no habían sido drogadas seguían mostrándose temerosas ante ambas melodías, mientras que las que habían sido tratadas ya no mostraban temor ante la tonalidad a la que fueron expuestas cuando fueron drogadas.

El proceso de intentar reavivar el recuerdo de temor de las ratas con uno de los dos tonos había borrado ese recuerdo completamente en las ratas drogadas, mientras que el recuerdo del temor al segundo de los tonos seguía intacto.

El estudio también confirmó la importancia que tiene la amígdala cerebral en el proceso de formación de recuerdos.

Los científicos descubrieron que si bien la comunicación entre las neuronas de esta parte del cerebro generalmente aumenta cuando se forma un recuerdo relacionado con el miedo, en el caso de las ratas drogadas disminuía, lo que sugiere que los recuerdos se borraban de forma efectiva.

Fuente: 20 minutos, 20 de Marzo de 2007

 

 

--La ESA quiere llegar a Marte en el 2007

El año 2025 es la fecha que se ha fijado la Agencia Espacial Europea (ESA) para enviar la primera misión tripulada a Marte, un reto que, dado su enorme coste y complejidad, sólo se podrá llevar a cabo en colaboración con la NASA, que, por el momento, tiene otras prioridades.

"No podemos ir solos. Tiene que ser una misión global, con la participación de la NASA y de la Agencia Federal Espacial rusa", ha explicado Bruno Gardini, director del programa Aurora de la ESA, que se propone la exploración a largo plazo de los planetas del sistema solar para encontrar indicios de vida.

Gardini, que asegura que este es el reto aeroespacial más complicado que afronta Europa, ha señalado que esta misión requeriría de una partida de entre 4.000 y 5.000 millones de dólares, una cantidad inasumible para la ESA, cuyo presupuesto representa sólo el 10% del que dispone la agencia estadounidense.

La NASA, sin embargo, no ha mostrado un especial interés por este proyecto, ya que actualmente está invirtiendo casi todos sus esfuerzos y recursos en las misiones a la Luna, y concretamente al primer vuelo tripulado que Estados Unidos enviará al planeta después de 1969, año en que el Apolo 11 colocó los primeros hombres en la superficie lunar.

Por el momento, y para preparar el camino a la presencia humana en el planeta rojo, la ESA está planificando una serie de misiones robóticas que, si se cumple el calendario previsto, podrían partir de la Tierra con destino a Marte en el año 2013 para que en 2015, cuando llegue a la superficie marciana, empiecen a buscar evidencias biológicas o sonoras de vida.

El objetivo de esta misión, denominada 'Exomars', será describir con más precisión el entorno biológico de Marte, lo que servirá de preparación para futuras misiones robóticas y, posteriormente, para la exploración humana.

Científicos de los 17 países que componen la ESA, entre ellos varios españoles, están trabajando actualmente en el diseño y desarrollo de la tecnología de esta misión, que requerirá de una sonda orbital para Marte y de un módulo que descienda al planeta con un vehículo todoterreno en su interior para explorar la superficie.

Esta sonda, ha subrayado Gardini, incorporará un novedoso perforador automático que permitirá, por primera vez, recoger muestras del suelo de entre un metro y medio y dos metros de profundidad.

"Para encontrar restos de vida hay que perforar. Si buscas en la superficie no encuentras nada, porque en las condiciones de Marte no puede sobrevivir nada", ha indicado el responsable de la Agencia Espacial Europea, que, aunque reconoce que "es bastante improbable" hallar señales de vida presente en el planeta, sí confía en encontrar trazos de vida pasada.

Si esta expedición finaliza con éxito, la ESA abordaría la segunda misión del programa Aurora, el 'Mars Sample Return' (MSR), cuya finalidad sería recoger más muestras del suelo marciano y traerlas de vuelta a la Tierra para analizar los restos, todo ello en el año 2020.

El último intento de la ESA por aterrizar en el planeta rojo se materializó en el denominado 'Beagle 2', que fracasó en 2003, año en que desapareció sin dejar rastro cuando se disponía a aterrizar, en la fase más crítica de todo el proceso.

Bruno Gardini sostiene que este proyecto "se desarrolló de manera precipitada, con poco presupuesto y con un grupo de científicos que estaba poco supervisado", cuestiones que se han superado en esta nueva etapa de la ESA, que en 2006 tuvo un presupuesto de unos 2.904 millones de euros.

"De la experiencia se aprende y hay cosas que no se volverán a hacer", asegura Gardini, que ha ofrecido una conferencia en el museo Cosmocaixa de Barcelona, en el marco del programa de Medio Ambiente y Ciencia de la Obra Social de La Caixa.
 

Fuente: EFE, 14 de Marzo de 2007

 

-El Grantecan espera la luz

Si dentro de algunos miles de años quedaran arqueólogos sobre la Tierra, y si se pasearan por lo que hoy es el parque Nacional de la Caldera de Taburiente, en la isla canaria de la Palma, se quedarían perplejos al descubrir los restos de una serie de grandes estructuras en forma de cúpula que dominan, a casi 2.500 metros de altura, el paisaje circundante.
 

La sorpresa de los arqueólogos del futuro sería comparable, quizá, a la de sus colegas de la actualidad que hace unas semanas resolvieron el enigma de las Trece Torres de Chankillo, parte de un complejo de construcciones erigidas hace 2.300 años por un pueblo del que poco más se sabe, repartidas en un área de cuatro kilómetros en la costa norte peruana y que forman parte de uno de los primeros observatorios solares de los que se tiene noticia.

Como templos dedicados a las estrellas, las cúpulas de la isla de la Palma (conocidas como el Observatorio del Roque de los Muchachos), se abren a uno de los cielos más limpios y claros del planeta, formando parte, junto a un complejo similar en la isla de Tenerife (en el Teide), del llamado Observatorio del Norte Europeo, uno de los «paraísos astronómicos» más importantes del mundo.

Y es aquí, en lo más alto de esta isla bonita, para deleite de los arqueólogos del futuro (y de los astrónomos del presente), donde está a punto de terminarse el que será, al menos durante una década, el mayor telescopio óptico jamás construido.

Con una superficie reflectora formada por 36 espejos individuales de 1,92 metros de diámetro cada uno, cuando esté completamente montado, el
Gran Telescopio de Canarias (GTC) funcionará, a todos los efectos, como si contara con un único espejo circular de 10,4 metros. Permitirá ver con un detalle sin precedentes las galaxias lejanas o violar la intimidad de remotos planetas en órbita de estrellas distantes.

PROCESO DE «ALUMINIZACIÓN»

Cada segmento de espejo cuesta un millón de dólares, y está constituido por un bloque cerámico montado sobre una serie de mecanismos que permiten mantenerlo alineado, en la forma deseada con relación a los demás segmentos. Cuando los espejos llegan al telescopio, no tienen aún una superficie reflectora. Eso se consigue aquí mediante un proceso de «aluminización», dentro de una cámara especial sellada al vacío.

Cuando el segmento de espejo está en posición dentro de la cámara, se aplica corriente eléctrica a una serie de filamentos de aluminio, que se evaporan y se van adhiriendo a la superficie cerámica del espejo, en rotación para un proceso uniforme. Cuando el telescopio esté a pleno rendimiento, cada segmento de espejo pasará por esta cámara al menos una vez al año, en un proceso de mantenimiento normal.

ARMAZÓN SÓLIDO Y FLEXIBLE

Todo es enorme alrededor de este majestuoso instrumento. Desde su cúpula, de 500 toneladas de peso (seis de ellas sólo de tornillería), a sus cimientos, o al armazón metálico articulado que tiene, a la vez, que soportar el peso del telescopio y ser lo suficientemente flexible como para permitir moverlo a voluntad de los científicos.

Hasta los cimientos de este singular edificio son diferentes al resto. De hecho, no forman un bloque único de hormigón, sino que están separados, dispuestos en dos círculos concéntricos entre los que se ha inyectado, a modo de separación, una capa de espuma elástica. El círculo exterior soporta la cúpula, el interior el telescopio. Así se evita que la menor vibración del edificio pueda afectar al delicado instrumento.

Cualquier movimiento, por leve que sea, puede arruinar una valiosa observación científica. Un cambio de temperatura, o de humedad, modificar la forma del espejo, variar, aunque sea unas centésimas de milímetro, la geometría de su superficie cóncava... Una mota de polvo que se interponga en el camino de un preciado rayo de luz procedente del espacio exterior puede alterar la información única que transporta...

Tras ocho años de trabajo, completadas la construcción, la ingeniería y la mecánica, ha llegado la hora de montar y calibrar la pieza clave: su espejo principal. Seis de los treinta y seis segmentos están acoplados ya en su lugar definitivo. Otros doce están preparados para ser montados en las próximas semanas, y el resto ocuparán su lugar antes de que termine el año. Pero las primeras pruebas de este gigante de la astronomía están a punto.

«Hasta ahora -explica Pedro Álvarez, director de Grantecan S.A, la empresa pública creada para la construcción del telescopio- todas las pruebas que se han realizado han sido técnicas. Las primeras pruebas «con cielo» se harán a finales de abril o primeros de mayo. Pero en ellas aún no habrá astrónomos. Se trata de pruebas de ingeniería y sistemas, y no de carácter científico». Desde el 13 de julio todo cambiará. Ese día, los segmentos del espejo que ya estén montados recibirán su «primera luz» de las estrellas. «Y a partir de ahí -dice Álvarez- empezarán las pruebas de los astrónomos».

José Miguel Rodríguez Espinosa, director científico, puntualiza que «lo que se busca con las pruebas de cielo es hacer un «modelo» de telescopio. Al moverse, por ejemplo, el instrumento cede algo bajo su propio peso y se inclina, aunque sea unos milímetros, a causa de la gravedad. Al apuntar hacia una estrella lejana, esa desviación hace que se apunte mal. Hay que construir un modelo que tenga en cuenta esas posibles desviaciones, elaborar tablas de datos e introducirlas en la memoria del telescopio, para que haga cálculos correctos y logre apuntar bien».

NUMEROSAS SOLICITUDES

Rodríguez Espinosa, además de director, es astrofísico y trabaja en el campo de las galaxias activas, aquellas en cuyos centros hay grandes agujeros negros devorando estrellas y planetas de forma continua. Y él, también, está «a la cola» de los científicos que han solicitado tiempo para trabajar con el telescopio. «Eso -comenta- depende de un Comité de Asignación de Tiempo (CAT) que evalúa los proyectos».

Fuente: ABC, 12 de Marzo de 2007

 



 

-Grupo de telómeros y telomerasa

María Blasco es Vicedirectora de Investigación Básica del Centro Nacional de Investigaciones Oncológicas, directora del Programa de Oncología Molecular y jefa del grupo de Telómeros y Telomerasa. Además, es miembro del Consejo de la selecta y prestigiosa Academia Europea.

Desde el punto de vista biológico, un ser humano es un organismo compuesto por unos 95 billones de células inmersas en un continuo ciclo de nacimiento y muerte. La vida es por tanto el proceso inexorable en el que este grupo de células que tuvieron su principio tienen también su fin. Desde el prólogo hasta el epílogo de esta historia se encuentra escrito en nuestros más de 30.000 mil genes, y sus combinaciones. Sin embargo, este lenguaje biológico es tan criptográfico, que muy pocos están capacitados para descifrarlo. La doctora María Blasco es una de las personas que más ha trabajado esta privilegiada capacidad.

fortunadamente, el ser humano tiene otras dimensiones y cualidades que la puramente biológica. Una de las más genuinas es su instinto curioso, al que se unen su sociabilidad y su habilidad para comunicarse y crear una cultura transmisible. Estas características podrían definir el concepto de ciencia, y es precisamente esta actividad humana la que trabaja y está en condiciones de conseguir que esas deterministas leyes biológicas puedan ser modificadas para el beneficio de la propia especie. Es decir, somos organismos capacitados para desafiar la selección natural. El desafío no es precisamente fácil, y las veces en las que triunfamos, en términos de vida o muerte, son todavía mucho más escasas que en las que perdemos. El envejecimiento y el cáncer son dos procesos biológicos que nos lo recuerdan diariamente desde el principio de los Tiempos. Pero poco a poco, en el terreno de la genética, vamos logrando avances que nos hacen más comprensibles las leyes biológicas, y, por tanto, más tratables, por conocidas. Una de las personas que más saben sobre ello en el mundo es española e investiga en nuestro país, un binomio menos común de lo deseable. Su nombre es María Blasco y es vicedirectora del Centro Nacional de Investigaciones Oncológicas (CNIO), una institución especialmente fértil en resultados y reconocimientos en este campo.
La actividad investigadora de esta científica está especializada en los telómeros y la telomerasa. Los telómeros son regiones de ADN no codificante situados en los extremos de los cromosomas, de los que depende el tiempo de vida de las células, además de su estructura. Explicado de una manera más ilustrativa por María Blasco, los telómeros son "como tener un bono para la noria con un número limitado de pases. El número de estos pases está determinado genéticamente, ya que la longitud de los telómeros es heredada. Cada vez que damos una vuelta en la noria, es decir, cada vez que se dividen nuestras células para regenerar los tejidos, se gasta un pase, hasta que nos quedamos sin pases y no podemos dar más vueltas." La telomerasa es una enzima decisiva en los procesos de incremento de los telómeros. A mayor longitud de los telómeros en los cromosomas mayor tiempo de vida.

Siguiendo con el símil de la noria, la investigadora del CNIO nos define a la telomerasa como "una máquina expendedora de pases, que nos permitiría dar vueltas infinitamente. Las células tumorales tienen telomerasa de manera aberrante y esto les permite dividirse inmortalmente. Sin embargo, las células normales no tienen suficiente telomerasa para ser inmortales."

Investigaciones decisivas

El 21 de enero de 2007 el grupo de Telómeros y Telomerasa del CNIO publicaba en la revista Nature Genetics -la de mayor factor de impacto en genética- un trabajo en el que se demuestra, por primera vez, que el acortamiento de los telómeros causa defectos epigenéticos, o estructurales, en las células. La investigación llevada a cabo por las investigadoras Roberta Benetti y María García-Cao, dentro del grupo que dirige María Blasco, concluye que "cuando los telómeros se acortan a una longitud muy corta se producen cambios en su arquitectura, denominados cambios epigenéticos, que pueden resultar en una lectura alterada de la información almacenada en los genes. A su vez - nos dice María Blasco- esta lectura aberrante de los genes podría contribuir al cáncer y al envejecimiento, ya que ambas patologías se caracterizan por tener telómeros muy cortos". Este proyecto, financiado por la Unión Europea, los Ministerios de Sanidad y Educación y Ciencia, la Comunidad de Madrid y la Fundación Josef Steiner, supone una continuidad en la investigación del grupo sobre epigenética y telómeros, cuyos resultados han sido sucesivamente publicados desde el año 2002 en las revistas Nature Genetics y Nature Cell Biology.

Una de estas investigaciones, les llevó en 2005 a demostrar la importancia de la proteína telomérica TRF2 en los procesos de cáncer y envejecimiento. En el laboratorio, los ratones "enriquecidos" con esta proteína desarrollaban un síndrome caracterizado por el envejecimiento prematuro de la piel y una mayor incidencia de cáncer de piel. Por tanto, la TRF2 le robaba la negra exclusividad a la telomerasa.

El otro proyecto culminado en este 2007 por el Grupo de Telómeros y Telomerasa del CNIO nos ha aportado una herramienta decisiva para analizar la longitud telomérica, y, por tanto, la "esperanza de vida" celular. Iniciada en 2004, con financiación europea, la investigación "Zincage. Nutritional zinc, oxidative stress and inmunosenescence: biochemical, genetic and lifestyle implications for healthy ageing" ha resultado en una herramienta de análisis de longitud telomérica de alto rendimiento (high-thoughput Q-FISH), que permite medir los telómeros en muestras de sangre. "Hemos confirmado, además, que los telómeros se acortan con la edad tanto en hombres como mujeres. Sin embargo, las mujeres tienen los telómeros más largos que los hombres para cada grupo de edad. Así mismo, hemos visto que hay diferencias significativas en la longitud telomérica entre distintos países europeos, lo cual indica que la longitud de los telómeros está determinada tanto por factores genéticos como ambientales. Los franceses tienen telómeros inusualmente largos comparados con otros países, lo que podría explicar la llamada "paradoja francesa", que consiste en que los franceses tiene muy bajo riesgo cardiovascular a pesar de tener dietas muy altas en colesterol", nos resume la doctora Blasco. El trabajo se publicará próximamente en la revista PNAS. Estos resultados nos demuestran que se puede cuantificar la esperanza de vida genética de un ser humano, a partir de la longitud de sus telómeros, lo cual, nos dice María Blasco, "ya se podía hacer, pero nuestra herramienta permite hacer estos análisis de una manera más precisa y rápida, estudiando hasta noventa muestras a la vez".

También queda de manifiesto en Zincage que diversos factores externos afectan a nuestra genética, en este caso a la longitud de los telómeros. Fumar, estilos de vida, obesidad e incluso nivel socioeconómico son algunos de los factores ambientales, que no son los únicos condicionantes, pues factores psicosociales, como el stress percibido y la capacidad cognitiva también tienen su protagonismo. "Sin embargo, son necesarios más estudios de tipo epidemiológico para determinar la importancia de éstos y otros factores en el mantenimiento de los telómeros", según la investigadora.

Telomerasa, enzima de la inmortalidad

Esta Doctora en Ciencias por la Universidad Autónoma de Madrid, cuya tesis dirigió otra de las grandes de nuestra ciencia, Margarita Salas, habla con una familiaridad pasmosa de la posibilidad de intervenir en la longevidad de un organismo alterando sus genes: "Sí, ya es factible. Desde hace ya bastante años se ha conseguido aumentar la longevidad de organismos inferiores como el gusano C. elegans o la mosca del vinagre Drosophila melanogaster, de manera genética. La asignatura pendiente es alargar la vida de un ratón alterando sus genes."

Y ¿a qué no es difícil adivinar cuál es el próximo proyecto del grupo que dirige María Blasco? Efectivamente, alargar la vida de un ratón, con el objetivo de identificar qué genes son importantes para modular el envejecimiento en mamíferos. La identificación de estos genes supone descubrir potenciales dianas terapéuticas contra el envejecimiento, y así poder desarrollar fármacos. "Queremos alargar la vida de un ratón mediante la telomerasa, sin que esto resulte en un aumento del cáncer. Es una asignatura pendiente, y los ratones son los modelos genéticos por excelencia para entender el papel de los genes en las patologías humanas." En este caso, además de los científicos del CNIO, hay dos protagonistas, la telomerasa y el ratón. Sobre la primera, María Blasco afirma que controlar la activación o inhibición de la telomerasa equivale a la posibilidad de actuar sobre el envejecimiento celular y las patologías asociadas a este proceso. "En el caso de la células cultivadas en el laboratorio, la telomerasa es suficiente para convertir una célula mortal en inmortal. De hecho, a la telomerasa también se le ha denominado la "enzima de la inmortalidad". Así mismo, la pérdida de telómeros es suficiente para hacer que una célula envejezca. El objetivo es hacer ratones más longevos modulando la cantidad de telomerasa".

¿Y por qué esta fijación con los inocentes ratones?, se preguntarán. "Los ratones son los mamíferos que mas fácilmente podemos alterar genéticamente. Además, al igual que los humanos, los ratones padecen cáncer y sufren de enfermedades asociadas al envejecimiento, muy similares a las humanas. Desde los años 70-80 en que se desarrollaron las tecnologías de transgénesis en ratón, se han creado cientos de nuevas cepas de ratones modificadas genéticamente, lo cual nos permite entender el papel de esos genes en patologías como el cáncer. Si un gen produce cáncer en un ratón, es muy posible que lo produzca en humanos. Igualmente, si quitando un gen conseguimos que un ratón no desarrolle cáncer esto indica que este gen es una buena diana terapéutica contra la cual desarrollar fármacos. Lo mismo aplicaría a las patologías asociadas al envejecimiento". Como ven, está justificado.

Ética, ciencia y conocimiento

Siempre que se habla de genética, especialmente cuando nos proponemos modificarla, y en algunos casos, cuando para ello se utilizan animales, surge irremediablemente el debate sobre la ética y los límites de la investigación. Los fines que tienen estos proyectos no tendrían por qué plantear ningún debate, pero sobre ello María Blasco nos dice: "Creo que las consideraciones éticas están claras: mientras se pueda hacer algo para mejorar la calidad de vida humana y hacer que vivamos más y mejor, se hará. La genética se ha quedado obsoleta, y la burlamos con fármacos que nos permiten vivir más y mejor. El problema es que haya países subdesarrollados donde la gente todavía se muera de infecciones debido a la falta de desarrollo económico. Éste para mí es el problema ético: que los avances de la ciencia no están ahora, ni estarán en el futuro, al alcance de todos."

En esta reflexión queda suficientemente evidenciada su postura ética. Su posicionamiento en otro gran debate, esta vez exclusivamente científico, en torno a la genética, también es concluyente. La controversia se centra en el determinismo absoluto de la genética sobre nuestra vida, asunto sobre el que existe un consenso más o menos sólido, pero sobre el que se han producido históricos cruces de opiniones y a veces no demasiado fundamentados científicamente. "Los genes son responsables sólo de una parte de las patologías, sobre todo de las infantiles. La mayor parte de las enfermedades adultas resultan de la combinación de genes y de factores ambientales. Por ejemplo, procesos inflamatorios o los hábitos alimentarios pueden ser mas decisivos en que tengamos un cáncer que nuestros genes." Y hablando de conocimientos científicos y de cáncer, la última cuestión para abordar es conocer su opinión sobre los factores que hacen que la investigación pueda optimizar sus esfuerzos en España: "Para mí, hay dos factores decisivos para desarrollar un área de investigación al máximo nivel. El primero es hacer que los mejores estudiantes se formen en los mejores laboratorios del mundo, y allí consigan prestigio y reconocimiento internacional, que sean conocidos por los líderes del campo. Esto es algo que muy pocos consiguen, pero que hay que seguir fomentando. El segundo es que el Gobierno central y los gobiernos de las comunidades autónomas apuesten por la creación de nuevos centros de investigación en los que acoger a nuestros mejores científicos internacionales, dándoles espacio, financiación, y libertad administrativa para desarrollar su investigación. Además, estos centros de investigación tienen que estar dirigidos por científicos activos y de prestigio internacional, que garanticen que el principal objetivo del centro será la excelencia científica, comparándose sólo con los mejores centros del mundo."

Y esto no lo dice María Blasco, pero es fácil coincidir en que ella es un claro ejemplo de los frutos de trabajar en la dirección que propone. Esta bióloga, que fue becaria post-doc en el Cold Spring Harbor, de Nueva York, es una de la científicas más reconocidas del mundo en el ámbito de la oncología y el envejecimiento, con más de una decena de premios internacionales como investigadora, miembro de la Academia Europea, editora de revistas especializadas, y, por concluir, no porque se acabe el currículo, con casi una veintena de publicaciones con un índice de impacto mayor que quince.

Ah! Y no debe de tener muchos más de cuarenta años.

Fuente: mi+d, 12 de Marzo de 2007

 

 

-Evolución dentro de la misma especie

Un equipo de tres investigadores del Museo Nacional de Ciencias Naturales, perteneciente al Consejo Superior de Investigaciones Científicas, en colaboración con un investigador de la Universidad de California, ha identificado las pistas del desarrollo que diferencian la ontogénesis de embriones vivíparos y ovovivíparos de la salamandra común (Salamadra salamandra). El trabajo se publica en el último número de la revista Evolution & Development, y junto a estudios filogenéticos y filogeográficos anteriores, constituye un paso esencial para entender el origen de la aparición del viviparismo y del canibalismo intrauterino.

Según los investigadores, la forma en que los cambios microevolutivos conducen a acontecimientos macroevolutivos originales es una de las grandes incógnitas de la Biología Evolutiva. El investigador formado en el Museo Nacional de Ciencias Naturales David Buckley, primer autor de la publicación explica: "el caso de la salamandra común representa un sistema biológico único donde la aparición de novedades evolutivas se puede estudiar dentro de la misma especie, es decir, a escala microevolutiva".

Normalmente los cambios macroevolutivos sólo se estudian en linajes completamente diferenciados, pero en esta investigación la variación de los modos reproductivos asociada a las secuencias de desarrollo se puede estudiar dentro de la misma especie", afirman Mario García-París y Marina Alcobendas, directores del trabajo de Buckley. "El viviparismo se conforma, por tanto, como un sistema único para el examen del origen de innovaciones macroevolutivas, por lo que estas zonas reproductivas híbridas constituyen laboratorios insólitos naturales para estudiar la dinámica de la evolución de la novedad evolutiva", concluye García-París.

UN DESARROLLO HETEROCRÓNICO

Para David Buckley, existe un interés doble en la salamandra común. "En S. salamandra se dan dos modos distintos de reproducción: el ovovivíparo (las hembras paren muchas larvas acuáticas) y el vivíparo (hembras que producen sólo unas pocas crías terrestres)". Esta especie permite el análisis empírico de cambios evolutivos por la modificación de programas del desarrollo (del ovoviviparismo al viviparismo). Por ello, "esta salamandra representa un modelo biológico único", afirma Buckley.

Los investigadores han comparado el desarrollo in vitro (de la fertilización a la metamorfosis) de los embriones ovovivíparos y vivíparos de salamandras y han detallado los acontecimientos-clave que distinguen los dos modos de reproducción. Para el estudio, se han diferenciado las etapas del desarrollo de los embriones ovovivíparos y vivíparos sobre un eje temporal (desde la incubación y el principio de alimentación activa hasta la metamorfosis). El desarrollo de los embriones vivíparos se combina con la presencia de huevos abortivos y sin fertilizar que, junto a la aceleración de las secuencias del desarrollo, provoca el desplazamiento de la incubación y de las estructuras relacionadas con la alimentación, es decir, la heterocronía. Por consiguiente, en embriones vivíparos la fase del desarrollo se acorta drásticamente en comparación con los individuos ovovivíparos.

LAS CAUSAS DEL CANIBALISMO INTRAUTERINO

El canibalismo intrauterino se da en los embriones vivíparos, pero nunca ocurre en embriones ovovivíparos. Según los análisis de los investigadores, la incubación precoz y la apertura de la boca, junto con la temprana diferenciación de la vía digestiva, permiten la alimentación de los embriones vivíparos dentro del útero materno con huevos abortivos o con algunos de sus hermanos. Aunque ni la boca ni la dentadura se desarrollen completamente, los embriones son capaces de ingerir los huevos grandes. La yema ingerida llena la parte anterior de la vía digestiva, formada precozmente en embriones vivíparos.

Fuente: mi+d, 12 de Marzo de 2007

 

 

-Los submarinos pronto imitarán a los peces

Un sistema inspirado en la llamada "línea lateral" de los peces, con la que estos animales pueden evitar obstáculos o rastrear presas, ha sido desarrollado de manera artificial por científicos norteamericanos para aplicarlo en submarinos y robots acuáticos. Compuesto por unos sensores capaces de detectar cambios en la presión y el movimiento del agua, la novedosa tecnología podría servir para completar la información que habitualmente registran el sonar y los sistemas de detección tradicionales de los submarinos. Las primeras pruebas ya han sido realizadas con éxito, demostrando que, gracias a dicho sistema, se puede localizar una fuente de vibración acuática cercana, así como detectar estelas hidrodinámicas (como las que dejan las hélices de los submarinos) en rastreos de larga distancia.
 

Un sistema inspirado en la llamada "línea lateral" de los peces, con la que estos animales pueden evitar obstáculos o rastrear presas, ha sido desarrollado de manera artificial por científicos norteamericanos para aplicarlo en submarinos y robots acuáticos.

Los peces o las bacterias acuáticas consiguen encontrar una presa o evitar convertirse ellos mismos en presas de otros depredadores gracias a un órgano sensorial denominado "línea lateral", que consiste en un canal que se extiende a lo largo de los laterales del cuerpo y que se comunica con el exterior a través de poros sensoriales y escamas que detectan vibraciones de baja frecuencia y diferencias de presión.

Este detector natural de presencias cercanas ha inspirado a un equipo de científicos de la universidad de Illinois en Urbana-Champaign (Estados Unidos), liderados por el profesor Chang Liu, para desarrollar una línea lateral artificial que funcionaría de la misma forma, pero aplicada a vehículos submarinos.

Según publica el centro Engineering at Illinois, de dicha universidad, en un comunicado, el sistema serviría para aumentar la habilidad humana de detección, navegación y supervivencia en el medio submarino.

GUÍA Y RASTREO

En los peces, la línea lateral sirve de guía para
la sincronización de los desplazamientos, para evitar depredadores y obstáculos, y para detectar y rastrear a las presas. Un submarino o un robot submarino equipados con una línea lateral artificial podrían detectar y rastrear de la misma forma objetivos bajo el agua, y evitar colisiones con objetos quietos o en movimiento.

El sistema consiste en una serie lineal integrada por micro sensores individuales, separados entre sí de manera similar a como se separan los sensores naturales de los peces.

Estos sensores son capaces de detectar cambios en la presión y el movimiento del agua, por lo que servirían para completar la información que habitualmente registran el sonar y los sistemas de detección tradicionales en los submarinos y robots acuáticos.

Para fabricar las finas estructuras tridimensionales que componen esta línea lateral artificial, los investigadores aplicaron las técnicas de grabado de circuitos en semiconductores. Las minúsculas piezas diminutas que equivaldrían a las células sensoriales de los peces, se elaboraron sobre un material magnético. En la última etapa de fabricación, un campo magnético las hizo girar para que se colocaran adecuadamente.

PRUEBAS PROMETEDORAS 

Cada uno de los sensores de fluido (diseñados para registrar la variación de presión del agua) mide 400 micras de ancho y 600 de alto y están separados entre sí por una distancia de un milímetro. Se encuentran alineados formando un prototipo de línea lateral, que ya ha sido probado.

En los tests, el sistema demostró que era capaz de localizar una fuente de vibración submarina cercana, así como detectar estelas hidrodinámicas (como las que dejan las hélices de los submarinos) en rastreos de larga distancia.

Con posteriores avances en la tecnología, podrían hacerse vehículos submarinos capaces de registrar los fenómenos hidrodinámicos de su alrededor de manera autónoma, publica Liu en dicho comunicado.

Los científicos reconocen que aún la biología es muy superior a la ingeniería humana, pero añaden que ésta debe aprender mucho de los sistemas biológicos. Los resultados de este trabajo han sido publicados en la revista
Proceedings of the National Academy of Sciences.

Fuente: Tendencias 21, 9 de Marzo de 2007

 

 

-¡Dime que es ese átomo!

Los avances significativos en nanotecnología permiten visualizar y manipular la materia en escalas cada vez más pequeñas, mediante los llamados microscopios de proximidad.

En un artículo publicado en el último número de la revista Nature, científicos de las Universidades de Osaka (Japón) y Autónoma de Madrid demuestran como es posible añadir a estas capacidades la posibilidad de identificar la especie química de átomos individuales sobre una superficie utilizando el microscopio de fuerzas atómicas (AFM, Atomic Force Microscope)[1]. Este método abre perspectivas nuevas en numerosos campos de interés tecnológico, como la catálisis (control de reacciones químicas sobre superficies) o la nanoelectrónica, donde nos acerca, por ejemplo, a la posible construcción de nanoestructuras como los qbits, componentes básicos de lo que podría llegar a ser un ordenador cuántico.

El funcionamiento de un AFM es similar al que tenían los antiguos tocadiscos o al uso de un bastón por una persona invidente: Una punta afilada, montada al final de una barra de tamaño micrométrico, recorre la superficie desplazándose verticalmente para seguir su relieve. Si la punta está tan afilada que termina en un solo átomo deberíamos poder obtener imágenes de los átomos de la superficie. En realidad, la técnica necesaria es un poco más compleja. Al pasar la punta por la superficie, "tocándola" (modo contacto), se corre el riesgo de modificarla. Para evitar este problema, el microscopio se opera en un modo de funcionamiento distinto, el modo dinámico, en el que la punta oscila, alejándose y acercándose periódicamente a la superficie sin llegar a chocar con ella. La interacción con la superficie "frena" el movimiento de la punta y cambia el tiempo que la punta tarda en realizar una oscilación completa. De estos pequeños cambios, que podemos medir de forma muy precisa como función de la distancia de máximo acercamiento, es posible obtener la fuerza asociada al enlace químico entre el último átomo de la punta y el más cercano de la superficie.

Estas medidas permiten crear una imagen de los átomos individuales que forman la superficie pero no son suficientes para identificar la especie química de cada uno de ellos: Tanto los valores absolutos de las fuerzas como su variación con la distancia dependen de la estructura de la punta, cuya terminación exacta es desconocida. Por ello, las fuerzas varían en cada sesión experimental aunque se midan sobre átomos superficiales idénticos. El avance significativo que se ha dado en este trabajo es el descubrimiento de una magnitud que es independiente de la punta: la división entre los valores de la fuerza máxima atractiva medida para dos especies químicas. Este cociente proporciona una "huella dactilar", que se puede determinar en una superficie formada por sólo dos especies químicas conocidas, y utilizar mas tarde en una superficie desconocida, donde varios tipos de átomos están presentes, para identificar su naturaleza química individual.

Fuente: mi+d, 6 de marzo de 2007

 

 

 

-Un paso más hacia el genoma del cáncer

Uno de los intentos más ambiciosos llevados a cabo hasta ahora para tratar de descifrar el genoma del cáncer ha permitido identificar por primera vez importantes mutaciones genéticas implicadas en la aparición y desarrollo de un tumor; muchas de ellas desconocidas hasta ahora.

Los resultados de dos estudios publicados simultáneamente en las páginas de la revista 'Nature' permiten dar un paso más hacia el conocimiento de la biología del cáncer.

En uno de estos trabajos, llevado a cabo en el
Instituto Wellcome Trust Sanger, en Cambridge (Reino Unido), los científicos secuenciaron más de 500 genes extraídos de 210 muestras de tumores diferentes (de mama, pulmón, colon o estómago, entre otros). En total, 250 millones de letras del código genético que revelaron nada menos que 1.000 mutaciones diferentes. "Este trabajo demuestra, a partir de la secuenciación de un volumen importante de muestras, lo que ya se sospechaba, que existen muchas mutaciones somáticas en los diferentes tipos de tumores y que unas son más importantes que otras", explica Alfredo Martínez, investigador del Instituto Cajal del Consejo Superior de Investigaciones Científicas de Madrid.

Un tumor maligno es el resultado de una acumulación de mutaciones y otros cambios genéticos en ciertas células. Y aunque hasta ahora se habían descrito anomalías en alrededor de 350 genes, la realidad es que todavía se desconoce el número real de 'genes del cáncer'. Hay que tener en cuenta que el genoma humano está formado por más de 20.000 genes y, de momento, ningún científico se anima a descartar ninguno de ellos en el proceso del cáncer.

Los investigadores centraron su análisis sólo en 518 genes por pertenecer a un tipo denominado cinasas (en inglés, kinasas); un grupo que ya ha sido ampliamente estudiado hasta ahora por su relación con el proceso tumoral y de los que se sospecha que pueden convertirse en buenas 'dianas' para futuros tratamientos (como ya ha ocurrido por ejemplo con Glivec para la leucemia mieloide crónica).

Las cinasas son enzimas que activan (o desactivan) otras proteínas agregándoles un grupo fosfato. "Son muy importantes como transmisores de señales y por su función en el ciclo celular [como es el caso de la división incontrolada que puede dar lugar a la formación de un tumor]", señala Javier Benítez, jefe del Grupo de Genética Humana del
Centro Nacional de Investigaciones Oncológicas (CNIO).

EL GENOMA DE LAS CINASAS

Este análisis del 'cinoma' (un juego de palabras a partir de las cinasas y el genoma) reveló muchas más mutaciones de las que hasta ahora se conocían, pero además permitió distinguir la presencia de los llamados 'genes conductores' y 'genes viajeros'.

Los investigadores bautizaron con el apelativo de 'conductoras' a 158 mutaciones detectadas en 120 genes que resultaron ser clave en el proceso de desarrollo del tumor. El resto, la mayoría, no parece jugar ningún papel en la aparición del cáncer, aunque sí se ven alterados a lo largo del proceso.

El análisis también reveló una amplia variedad en el número y la pauta de estas mutaciones de unos tipos de cáncer a otros, lo que parece revelar diferentes defectos y orígenes celulares. O bien puede que reflejen diversas exposiciones a elementos carcinogénicos, como los rayos del sol o el tabaco en el caso del melanoma y el cáncer de pulmón, respectivamente.

"Parece que la mayor parte de estas mutaciones descubiertas son 'viajeras'", apunta el doctor Andy Futreal, firmante de este estudio y codirector del Proyecto Genoma del Cáncer. "Aunque también hemos descubierto que, enterradas entre ellas, hay muchas más mutaciones 'conductoras' de lo que habíamos supuesto hasta ahora. Y esto sugiere que los genes que contribuyen al desarrollo del cáncer son muchos más de lo que se sospechaba".

"Este trabajo ha identificado algunos de los cambios genéticos que experimentan varios tipos de tumores. Se trata de definir la biología del tumor, a partir de la cual se pueden identificar algunas vías para diseñar fármacos eficaces", explica Javier Benítez.

HARÁN FALTA ANÁLISIS MÁS AMPLIOS

El siguiente paso será aprender a distinguir a los 'conductores' y 'viajeros' presentes en el mismo cáncer. Algo para lo que serán necesarias muchas más muestras que las empleadas en este caso, y en lo que las potentes tecnologías de secuenciación del ADN tendrán vital importancia.

De hecho, como advierten en un comentario en la misma revista Daniel Haber y Jeff Settleman, del
Hospital General de Massachusetts, "hará falta [analizar] un gran número de muestras para lograr captar todo el repertorio de heterogeneidad genética del cáncer".

Un proyecto al que ya se ha puesto manos a la obra el
Instituto Nacional del Cáncer de EE.UU., que pretende estudiar nada menos que 12.500 muestras tumorales (250 de 50 tipos de cáncer diferentes). Y como apuntan los investigadores, no es descabellado pensar que cuando se lleve a cabo este análisis más amplio, se descubra que el número de genes mutados en el cáncer es mayor de lo que hasta ahora se podía imaginar.

No obstante, como reconoce Benítez, todavía faltan muchos años de investigación para analizar los miles de genes que conforman el genoma humano y conocer su papel en el desarrollo de los numerosos tumores que afectan a nuestra salud.

De la misma opinión es Alfredo Martínez que señala que a partir de este trabajo se desarrollarán muchos estudios para comprobar si estos genes tienen un efecto concreto en el cáncer. "En un futuro habría que hacer un listado con los genes más implicados en un tumor determinado. Quizás de aquí a cinco o seis años contemos con marcadores por cada paciente que nos permitan ajustar el tratamiento a su cáncer específico", apunta.

El segundo de los documentos, firmado por especialistas del
Hospital Infantil St. Jude, de Memphis (EE.UU.), se centró exclusivamente en el análisis de mutaciones genéticas relacionadas con la leucemia linfoblástica aguda. Mediante el estudio del ADN de las células enfermas de 242 niños con esta patología, los investigadores han podido obtener un completo catálogo de 'lesiones genéticas' de este cáncer, algunas de ellas nunca relacionadas con este tipo de leucemia.

Fuente: El Mundo, 8 de Marzo de 2007

 


 

-Los dilemas éticos de la robótica

El Gobierno de Corea del Sur prepara la publicación de un código ético para prevenir los abusos de humanos a robots y viceversa, informa la página web de la BBC.

La Carta de Ética para Robots recoge una serie de principios que afectarán tanto a los fabricantes de los ingenios como a los mismos usuarios y está previsto que despliegue sus efectos para finales de año. En su elaboración participa un equipo que incluye a científicos y escritores de novelas de ficción. La robótica es una de las claves del crecimiento económico del país asiático y las autoridades de Seúl invierten millones de euros anuales en investigaciones al respecto.

"El Gobierno establecerá una serie de principios éticos relativos al papel y a las funciones que desempeñan en la actualidad los robots, teniendo en cuenta que en el futuro irán adquiriendo tareas que impliquen una inteligencia mayor", ha explicado el ministro de Comercio, Industria y Energía. Las palabras de este responsable se apoyan en un reciente informe oficial que vaticina que los robots, conforme su mecanismo sea más sofisticado, tendrán mayor protagonismo. Su presencia se multiplicará en la sociedad: en el año 2018 sustituirán a los cirujanos para operaciones rutinarias que no requieran una gran especialización, según este dossier.

CUESTIONES ÉTICAS

Corea del Sur es una de las naciones más tecnificadas del planeta. Sus ciudadanos disfrutan de las conexiones a Internet más rápidas del mundo y tienen acceso, mucho antes que los países occidentales, a la tecnología móvil más puntera. En consecuencia, su Gobierno está muy comprometido con los avances en nuevas tecnologías. En este contexto, el ministro de Información y Comunicaciones ha predicho que todos los hogares coreanos tendrán un robot para que les facilite las tareas diarias antes de 2020.

Por ello la necesidad de adoptar una especie de tratado o carta fundacional que establezca los pilares de la nueva, y en principio duradera, relación entre robots y humanos. "Imagínense si la gente tratara a los androides como si fueran sus mujeres", ha apuntado Park Hye-Young, uno de los especialistas implicados en la normativa. "Otros podrían convertir el trato con la máquina en una adicción, parecida a la que provoca el uso excesivo de Internet".

Las pautas que prepara Corea del Sur se inspiran en las tres leyes de la robótica formuladas por el célebre escritor Isaac Asimov en su relato Runaround, de 1942:

1) Un robot no debe de agredir a un humano ni, con su inacción, permitir que un humano sufra algún daño

2) Un robot debe obedecer las órdenes dadas por los seres humanos salvo si dicho mandato entra en conflicto con la primera de las leyes arriba formulada.

3) Un robot debe proteger su propia existencia siempre y cuando no entre en conflicto con la primera y la segunda de estas leyes.

Traducidos al mundo real dichos principios supondrán el establecimiento de una serie de garantías para que el uso que hacen los humanos de los robots no termine siendo abusivo, con especial énfasis en la protección de los datos adquiridos por un robot para prevenir su uso ilegal.

La importancia de los robots también ha sido tomada en consideración por otros países mucho menos tecnificados. Un estudio del Gobierno británico publicado en 2006 vaticinó que en los próximos 50 años los robots demandarían los mismos derechos que actualmente ostentan los humanos. El Centro de Investigación Europeo de Robótica también prepara un código de pautas y conductas respecto al uso de robots. Esta hoja de ruta ética ha sido promovida por investigadores que creen que los robots rápidamente se introducirán en disciplinas hasta ahora desconocidas para ellos como la física nuclear y la bioingeniería.

Uno de los principios de este código es rotundo en su formulación: "En el siglo XXI los humanos tendrán que convivir con la primera inteligencia artificial extraterrestre en la historia de la humanidad: los robots. Será un encuentro que provocará problemas de tipo ético, social y económico".

Fuente: El País, 8 de Marzo de 2007

 

 

-El agua que fluía en la superficie marciana posiblemente no se mantuvo en estado líquido

Los investigadores plantean una teoría alternativa para explicar la presencia en Marte de depósitos de evaporita, un tipo de rocas sedimentarias formadas tras la evaporación de agua. Los sedimentos ricos en sulfato, que algunos especialistas creen son los restos de océanos de agua evaporados desde hace tiempo, podrían haberse formado al emanar agua de la superficie del planeta y evaporarse.

Los autores explican que cuando el 'Opportunity Mars Exploration Rover' aterrizó, su descubrimiento de depósitos de evaporita en la región 'Meridiani Planum' fue aclamada por algunos como una evidencia de que había existido agua líquida en la superficie de Marte durante periodos significativos del pasado del planeta rojo. Pero sin embargo, los críticos apuntan a la carencia de una cuenca cerrada en la localización del 'Meridiani Planum' como un posible problema de esta interpretación.

El equipo de investigadores dirigido por Jeffrey C. Andrews-Hanna presenta los resultados de un modelo de estudio sobre la hidrología global del planeta. Su modelo predice dónde podría haber emanado el agua sobre la superficie marciana a lo largo del tiempo y apunta al área del 'Meridiani Planum' como una de las regiones en las que se habrían formado significativos depósitos de evaporita.

Los científicos sugieren en su trabajo que no sería necesaria la existencia de concentraciones permanentes de agua para explicar la formación y distribución de depósitos de evaporita en Marte.

Fuente: La Vanguardia Digital, 8 de Marzo de 2007

 

 

-Consiguen leer los pensamientos

En un laboratorio alemán saben lo que vas a hacer incluso antes de que lo pienses. No es ciencia ficción, ni una película al estilo Minority Report, es una realidad conseguida mediante un escáner cerebral. No es la primera vez que se consigue "ver" los pensamientos de una persona pero sí que se logra detectar las decisiones de alguien antes de que las tome.

El experimento consiste en seleccionar a un voluntario para que se someta a un escáner cerebral. El voluntario se desliza dentro de la máquina y sólo tiene que decidir si sumar o restar dos cifras. Únicamente tiene que elegir entre dos posibilidades: añadir o sustraer. Mientras, él no sabe que en la sala de al lado, un grupo de científicos está tratando de leer su mente, usando un escáner para descifrar su intención antes de que se convierta en acción.

Hace ya algún tiempo que los científicos consiguieron detectar las intenciones de una persona antes de realizar un movimiento físico. La novedad está, en que por primera vez, se han identificado las decisiones de un grupo de gente sobre lo que más tarde harán en un grado alto de actividad mental, no física, en este caso sumar o restar. Los autores de la proeza son un grupo de investigadores del
Bernstein Center for Computational Neuroscience de Berlín, que piensan aplicar, en un futuro, su descubrimiento en áreas como interrogatorios criminales o control de pasajeros en aeropuertos.

DISPUTA ENTRE LOS CIENTÍFICOS

El laboratorio Bernstein de Berlín, reclama ser el primero en haber llegado hasta este punto, pero investigadores estadounidenses afirman haber identificado mucho antes diferentes tipos de actividad cerebral, con lo que desarrollaron escáneres cerebrales diseñados para detectar mentiras. Pero, los científicos de otros países están de acuerdo en que el experimento del Doctor John Dylan Haynes en este centro es realmente rompedor.

La opinión del doctor Paul Wolpe, profesor de psiquiatría en la
Universidad de Pensilvania, que no pertenece al proyecto, es que "el hecho de que podamos determinar la intención de una persona en su mente, eleva el nivel de nuestro entendimiento del pensamiento subjetivo a un nuevo escalón" lo que para él supone un salto gigante en el estudio de esta disciplina, aunque aún es pronto para adelantar éxitos, ya que sólo se ha probado en 21 personas.

También existe otro proyecto alemán, del
Max Planck Institute for Human Cognitive and Brain Sciences en Leizpig, que ha generado un fuerte interés en la comunidad científica. En este caso, los voluntarios tuvieron que decidir si sumar o restar dos cifras antes de que éstas les fueran dadas. De este modo, ellos pensaban cuál de las dos opciones elegir mientras una computadora capturaba imágenes de sus ondas cerebrales para predecir su decisión final, incluso antes de que pudieran ver los dos números.

ATRIBUCIONES PRÁCTICAS

"El experimento de Haynes, da de lleno en la clave de cómo de buenos llegaremos a ser prediciendo comportamientos" ha señalado el doctor Todd Braver, profesor asociado del departamento de psicología de la
Universidad de Washington, dejando muy claro que este experimento es revolucionario. "Las barreras que existían en lectura de mentes, están empezando a romperse" indica. El equipo de Haynes empezó su investigación, tratando de identificar qué parte de la mente era la que almacenaba las intenciones. Descubrieron que se encontraban en la región prefrontal del córtex, gracias a que buscaban ráfagas de actividad cuando los sujetos pensaban entre las dos opciones.

Según Haynes, estos descubrimientos, contribuirán al desarrollo de máquinas que ya existen, pero que en un futuro podrán localizar señales mentales y permitirán, por ejemplo, que gente totalmente paralizada, pueda cambiar de canal, navegar en Internet o usar pequeños robots, sólo pensando. Pero, por ahora, las aplicaciones prácticas del descubrimiento de Haynes parecen estar a años luz.

En la actualidad, leer mentes es un proceso engorroso y no hay garantías de que los científicos no entren en un terreno personal, espiando los pensamientos propios. De este modo, surge el debate ético acerca de la moralidad de este tipo de acciones. Lo cierto es que, los investigadores están haciendo tantos progresos que los eticistas ya han comenzado a poner el grito en el cielo desde que las investigaciones consiguieron identificar las regiones del cerebro donde residen los pensamientos y, además, consiguieron descifrar esos pensamientos, alertando de que el concepto de los pensamientos como algo privado, podría variar en un futuro.

Fuente: El País, 8 de Marzo de 2007

 

 

-Una expedición explorará la corteza de la Tierra en el fondo del océano Atlántico

Anteayer comenzó una expedición que pretende revelar los secretos de un inmenso y misterioso agujero existente en el fondo del océano Atlántico. En un viaje inspirado por la visión que presentó Julio Verne en 'Viaje al centro de la Tierra' y '20.000 leguas de viaje submarino', una embarcación de investigadores británicos valorada en 40 millones de libras (casi 59 millones de euros) partirá en su viaje inaugural para abrir lo que los científicos llaman "una ventana hacia el interior de la Tierra".

El RRS 'James Cook' pasará seis semanas navegando por los arrecifes del Atlántico para tomar medidas del extraordinario agujero del fondo del océano que tiene perplejos a todos los expertos. Los científicos intentan averiguar por qué cientos de kilómetros cuadrados de la corteza de la Tierra han desaparecido, dejando al descubierto el manto, el interior del planeta, lo que se encuentra bajo tierra.

El agujero en la corteza cubre un área tan enorme como una cordillera montañosa, y se halla oculto bajo las olas. Lo que asombra a los científicos es que este boquete desafía las teorías convencionales de las placas tectónicas. La corteza debería tener seis kilómetros y medio de grosor, pero en su lugar se encuentra esta capa del manto de la Tierra en el fondo del océano.

Se habría esperado encontrar el agujero lleno de material volcánico, dado que se formó a causa de la separación de las placas tectónicas, que aumenta a un índice de dos centímetros al año, pero lo que en realidad han hallado ha sido el manto.

Robot submarino

Chris MacLeod, de la Escuela de la Tierra, el Océano y las Ciencias Planetarias de la Universidad de Cardiff, es uno de los científicos al mando en la expedición, que tomará medidas precisas realizadas mediante sónar del fondo del océano. Los investigadores, que partieron de Tenerife, enviarán un robot submarino a los pies de esta cordillera submarina, a 5.000 metros por debajo de la superficie, para taladrar el manto y extraer muestras del mismo.

Mediante el uso de las cámaras del barco, los investigadores esperan poder ver el inmenso agujero. Las montañas se elevan a 4.000 metros por encima del fondo marino, 1.000 metros por debajo de las olas, y las muestras principales se extraerán de distintas profundidades. El doctor Mac Leod cree que la expedición revelará la extensión del agujero en la corteza a lo largo del fondo oceánico, así como a qué se debe su formación.

Según el propio investigador, "no encaja en el modelo generalmente aceptado de placas tectónicas. Esperamos obtener una visión directa de los procesos que tienen lugar en la Tierra. Constituye parte esencial de la comprensión básica del funcionamiento de la Tierra". La formación de la corteza fue un "mecanismo fundamental de la Tierra, y afecta a la química del océano·, añadió. También explicó que se barajan dos teorías principales sobre por qué se formó el agujero, y se sospecha que la respuesta sea una combinación de las dos.

Por una parte, el agujero podría haberse formado cuando las placas tectónicas se separaron, pero en lugar de que el manto se elevara hacia el exterior en forma derretida o magma, pudo elevarse como un bloque sólido. La segunda teoría es que la corteza se rasgara hacia los lados, creando un agujero sobre el manto.

El navío en el que habitará el equipo de nueve investigadores y tres investigadoras se construyó para sustituir al ya envejecido 'RRS Darwin'. Está financiado por el Consejo de Investigación de los Entornos Naturales y por el Fondo de Instalaciones Científicas a Gran Escala del ministerio británico de Comercio e Industria.

En el barco se han instalado equipos e instalaciones multidisciplinares que permitirán a los investigadores trabajar en cualquier parte de los océanos del mundo. Para el doctor MacLeod, el uso de este navío constituye una oportunidad única para dar respuesta a los grandes misterios del mundo, y confía en que resultará de un valor incalculable: "Se trata del primer viaje científico de esta embarcación, posiblemente el barco de investigación más avanzada del mundo".

Fuente: El Mundo, 7 de Marzo de 2007

 

 

-Excelencia e independencia en la ciencia

Excelencia e independencia fueron las dos palabras más oídas en las jornadas que sirvieron, en Berlín, para presentar formalmente el Consejo Europeo de Investigación, la nueva agencia para financiar la investigación básica.

Unos 300 científicos y gestores asistieron, en un ambiente de optimismo e incluso excitación, la semana pasada a las sesiones, inauguradas por la canciller alemana Angela Merkel, en su papel de presidenta de turno de la Unión Europea.

El optimismo se debía a que los europeos, incluidos los políticos, creen haber logrado, tras una gestación laboriosa, iniciar una nueva era en la investigación básica de ámbito europeo, crear algo que se distingue de la tradición hasta ahora dominante, porque surge de abajo, de la comunidad científica. Hasta los políticos -europeos y de los países miembros- aseguran estar incluso contentos de que no les dejen meter la cuchara.

"El Consejo Europeo de Investigación es una verdadera Copa de Campeones", aseguró el comisario europeo de investigación, Janez Potocnik. "La excelencia será su único criterio". El ERC, como se le conoce por sus siglas en inglés, forma parte del VII Programa Marco de I+D y es la herramienta en la que se depositan grandes esperanzas para hacer de Europa un líder en ciencia y tecnología, al paliar la fragmentación y duplicación de esfuerzos que tanta ventaja da a EE.UU.

Tres factores destacan en el ERC, aseguró la ministra alemana de Educación y Ciencia, Annette Schavan: la autonomía e independencia de la institución, la posibilidad de identificar y premiar a los investigadores que mayor talento muestren, sin atender a cuotas por países, y que es la primera vez que la investigación básica dispone de una base para desarrollarse. "Las personas creativas tendrán la posibilidad de explorar ideas que den lugar a nuevos productos, servicios y procedimientos. La cadena de valor incluye ahora la investigación básica como clave para la prosperidad futura", aseguró.

Uno de los políticos que más han luchado por la independencia del ERC es la eurodiputada Angelika Niebler y en Berlín reconoció que en Europa no existe todavía una comunidad de investigadores pero que el ERC supone un hito en el camino. "El ERC no es otra agencia europea más", recordó, "es un asunto de los científicos y de nadie más, en el que los políticos y la Comisión no pueden intervenir". Niebler aseguró que el Parlamento vigilará la transparencia del ERC y comentó que sólo se destinará el 5% de los fondos a la administración.

El presidente del Comité Científico del ERC es el griego Fotis Kafatos, la cara hasta ahora del nuevo organismo. A este biólogo molecular no le dolieron prendas en reconocer la labor de Potocnik para su creación -"no sólo prometió sino que cumplió"- y en valorar positivamente el presupuesto del que va a disponer en los próximos siete años, los de vigencia del programa marco. En 2007 van a ser 300 millones de euros, que aumentarán progresivamente hasta 1.500 millones en 2013, equivalente como media al 0,7% del presupuesto total europeo. Kafatos se mostró muy seguro del modelo elegido: "No se trata de si va a ser un éxito o no, sino de lo deprisa que lo conseguirá".

"Estamos cruzando las fronteras nacionales con el ERC", aseguró Angela Merkel en su intervención ante los centenares de asistentes. La política alemana, que es física, reconoció que Europa no va a alcanzar los objetivos de Lisboa (convertirse en 2010 en la sociedad basada en el conocimiento más avanzada del mundo y destinar un 3% de su PIB a investigación y desarrollo), pero señaló que nada se puede alcanzar si no se fijan objetivos. Comentó que la experiencia alemana con el
Deutsche Forschungsgemeinschaft (DFG) ha permitido contribuir a la creación del ERC y también aseguró que vigilarán su independencia y su compromiso con la excelencia.

"Los científicos tienen que ser libres, no se les puede obligar a que obtengan resultados", añadió Merkel. "No disponemos de suficientes científicos e ingenieros para alcanzar los objetivos, tenemos que motivar a los buenos investigadores a que vengan o vuelvan a Europa". También recordó que el ERC no puede ser una nube de excelencia flotando sobre lo demás ni puede crear por sí mismo un ambiente investigador en Europa, sino que debe conectarse con el resto, especialmente con el sector privado.

De pilotar el DFG procede Ernst-Ludwig Winnacker, el primer secretario general del ERC. "La transparencia, la calidad y la excelencia están muy relacionados", comentó, refiriéndose al hecho de que se van a hacer públicos los integrantes de los paneles que juzgarán las propuestas de financiación, de las que esperan unas 3.000 en esta primera convocatoria para investigadores jóvenes. Carlos Martínez, presidente del
CSIC, es el único científico español que preside uno de estos paneles.

El investigador deberá de tener una institución que le acoja y permanecer en ella al menos dos de los cinco años que duran los proyectos, aclara Oscar Marín, miembro del consejo científico. "Luego se puede ir con su dinero debajo del brazo a otra institución y eso es importante para incrementar la competencia entre ellas. Eso se ha discutido mucho pero hemos creído que debemos pedirlo para evitar que países que pueden generar.

Fuente: El País, 7 de Marzo de 2007

 

 

-La comunicación y la teleportación, cada día más cerca

Construir redes cuánticas es muy complejo y aún no existen físicamente, ni siquiera de forma experimental, pero los investigadores aseguran que serán la base de la comunicación cuántica del futuro. Así que han empezado a trabajar con ellas en modelos de ordenador. Y han descubierto un inesperado fenómeno nuevo y que constituye una buena noticia: "En el mundo cuántico es posible establecer conexiones perfectas a grandes distancias a partir de conexiones imperfectas", afirman los investigadores. Su trabajo se ha publicado en la versión digital de Nature Physics.

La telecomunicación cuántica se basa en el fenómeno del entrelazamiento entre partículas, por ejemplo entre fotones. El entrelazamiento permite que una partícula permanezca en cierto modo unida o, técnicamente, correlacionada a otra, a pesar de encontrarse lejos de ella; de esta forma, cuando se produce un cambio en una de las partículas también se produce en la otra. Así, las propiedades de una partícula se teleportan de modo instantáneo a la otra. En una red cuántica, los nodos de la red compartirían parejas de partículas relacionadas. "Por desgracia, establecer correlaciones perfectas incluso a distancias cortas es un desafío formidable. En los experimentos sólo podemos hacer correlaciones imperfectas", afirman Antonio Acín, español, y su colega polaco Maciej Lewenstein, ambos profesores ICREA en el
Instituto de Ciencias Fotónicas, en Barcelona.

Pero los investigadores observaron que en las redes cuánticas simuladas aparecía un fenómeno muy habitual en el mundo macroscópico llamado percolación. En el mundo a escalas humanas, el cotidiano, la percolación es responsable de que, por ejemplo, un incendio acabe propagándose a pesar de que sus focos están lejos entre sí. Por encima de un cierto grado de conexión entre los focos, aunque esta conexión sea pobre, el fuego acabará propagándose y será difícil de parar.

Los investigadores observaron que en las redes cuánticas pasa igual: aunque las correlaciones sean imperfectas, una vez superado un nivel mínimo de imperfección la correlación perfecta a larga distancia es posible.

Lo que más les sorprendió fue el darse cuenta no sólo de que había percolación cuántica, sino de que ésta podía ser mucho más eficaz que la clásica; es decir, podía tolerar un grado de imperfecciones mucho mayor que la percolación del macromundo. De hecho, el trabajo que ahora se publica muestra con qué protocolos de red es posible mejorar la capacidad de percolación de la red.

¿Cómo se consigue esto? La clave, explican los autores, es el concepto de que en comunicación cuántica las partículas se comportan también como ondas, y en las ondas se producen interferencias que pueden ser destructivas -que impiden la comunicación- o constructivas. El truco está en hacer la red de forma que las interferencias sean constructivas.

Nadie hasta ahora había observado el fenómeno de la percolación cuántica porque las investigaciones se habían centrado en las conexiones lineales, el equivalente a una conexión punto a punto, no en redes. "Éste es el primer trabajo que muestra lo que ocurre con las redes. Estamos abriendo una nueva vía en la que seguro que hay muchas cosas por descubrir", dice Acín.

El hallazgo tiene consecuencias prácticas: "Si en una red cuántica se establecen conexiones imperfectas en distancias cortas, es probable que se pueda, con la ayuda de métodos clásicos de comunicación como teléfonos o conexiones normales entre ordenadores, establecer correlaciones cuánticas perfectas en distancias largas", afirman los autores. Las conexiones normales, como el teléfono, servirían para hacer el protocolo que mejora la percolación de la red cuántica.

El año que viene ya hay planeado un primer experimento con redes cuánticas en Viena, a través del proyecto europeo SECOQC, en el que se intentará crear una red cuántica con los nodos situados a pocos kilómetros de distancia.

Fuente: El País,  7 de Marzo de 2007

 


 

-Izimi quiere crear la web 2.1

Los mejores ejemplos de este tipo de servicios son aquellas páginas en las que los usuarios son quienes gestionan, difunden e incluso crean los contenidos, y que se suelen conocer como redes sociales. Pues bien, con un nombre sonoro y absurdo, como impone la moda, Izimi quiere dar una nueva vuelta de tuerca al negocio, evitando a los intermediarios.

Y es que, hasta ahora, quienes quieren utilizar uno de estos servicios, tienen que registrarse en una web del tipo de MySpace o YouTube y crear un usuario. Y del espacio que se les asigna, cuelgan sus contenidos. Dependen, por tanto, de un tercero, que es el responsable en última instancia de mantener esos contenidos on-line. Y que puede censurarlos, o echar el cierre un buen día, sin dar más explicaciones, eliminando todo lo almacenado.

DE INTERNAUTA A INTERNAUTA, PASANDO POR IZIMI.COM

Izimi, en cambio, reduce al mínimo la necesidad de intermediarios, ya que pone a disposición de los usuarios un programa para compartir directamente los contenidos con otras personas, a través de un enlace. Su intervención se limita a la generación de un enlace, que es el que permite que los internautas puedan acceder a los videos, las fotos, o cualquier otro archivo que otro ciudadano quiera hacer públicos. De forma complementaria, Izimi.com funciona también como el resto de sitios sociales, al aglutinar en una sola página toda la información que el usuario quiere hacer pública.

Bien, el resultado no es exactamente nuevo, ya que cualquiera puede, en la actualidad, convertir su PC en un servidor, de manera que el ordenador responda a las peticiones de otros internautas y envíe las páginas o los archivos solicitados. Claro que, para ello, se necesitan conocimientos avanzados de informática.

UN SERVIDOR DE ARRASTRAR Y SOLTAR

Izimi pretende acabar con esa dificultad y para ello ha lanzado un software -aún en pruebas- que permite al usuario arrastrar sus contenidos desde el disco duro hasta la ventana del servicio. El programa, luego, indexa esos contenidos en la web de Izimi, que crea a su vez un enlace directo al ordenador del usuario, del tipo
http://uksbd.izimi.com/840.izimi. Ese link permite que cualquiera enlace con esos contenidos desde otros servicios de Internet distintos a los de Izimi: correo electrónico, foros, otras webs...

La principal pega es que, como los contenidos se sirven directamente por el PC que el usuario tiene en su casa, el ordenador tendrá que estar siempre encendido. De lo contrario, el internauta se encontrará con un mensaje como el que aparece en la imagen que acompaña a esta información. Pero sigue teniendo la ventaja para los usuarios de que reduce al mínimo la interferencia de terceros. Y para la compañía, fundada en California pero con tecnología desarrollada en la
Universidad de Oxford, el hecho de que la capacidad de almacenamiento, y lo que cuesta mantenerla, la ponen sus clientes.

Fuente: El País, 5 de Marzo de 2007

 

-

 

-Logran desarrollar el material tecnológico más fino del mundo

Físicos de dos instituciones académicas del Reino Unido y Alemania han desarrollado el material tecnológico más delgado del mundo, una membrana de tan sólo un átomo de grosor que, según sus autores, revolucionará la electrónica y facilitará la investigación sobre nuevos medicamentos

Este logro, que recoge la revista científica 'Nature' en su última edición, es obra de físicos de la Universidad de Manchester (noroeste de Inglaterra) y del Instituto Max Planck, prestigiosa institución pública alemana dedicada a la investigación científica y tecnológica.
La nueva membrana podría usarse para filtrar gases, construir aparatos electrónicos ultra-rápidos y analizar moléculas con extrema precisión, una utilidad esta última que contribuiría a acelerar el desarrollo de nuevos medicamentos.

Hasta ahora, se había conseguido crear materiales similares a esta nueva membrana, pero siempre adheridos a otros elementos.

Los investigadores atribuyen su existencia independiente de otros materiales a su forma ligeramente arrugada.

El nuevo material está hecho de grafeno, una estructura de carbono que permite a los electrones viajar distancias sub-micrométricas sin dispersarse y más rápidamente que cualquier otro transistor.

La de esta membrana "es una tecnología totalmente nueva, no se incluye ni siquiera dentro del término nanotecnología", explica Andre Geim, responsable del equipo de científicos de la Universidad de Manchester que ha contribuido a este hallazgo.

"El verdadero desafío ahora es hacer que sea barata para que pueda ser usada en aplicaciones a gran escala", añade.

Fuente: EFE, 1 de Marzo

 



-Éxito en el desarrollo de nuevas vacunas contra el SIDA

El desarrollo de cepas resistentes a los antirretrovirales es uno de los principales motivos por los que fracasa la terapia contra el sida. Ahora dos nuevos fármacos, con una vía de acción novedosa, podrían dar una oportunidad a los enfermos cuando los tratamientos convencionales fallan. Cuatro ensayos clínicos, presentados en el último congreso de Retrovirus e Infecciones Oportunistas celebrado en Los Ángeles (EE.UU.), demuestran que son eficaces y seguros en personas con VIH, resistentes a la terapia clásica.
 

Los dos fármacos -«maraviroc» y «raltegravir»- inauguran dos nuevas familias de medicamentos que se suman a las cuatro ya disponibles en la lucha contra el virus del sida. Son las primeras novedades desde que en 2003 se autorizó un nuevo medicamento inyectable, llamado «fuzeon», y los primeros orales tras una década sin cambios.

NIVELES INDETECTABLES DEL VIRUS

Ambos ofrecen buenos resultados, pero los más llamativos son los de «raltegravir». Ningún antirretroviral destruye el virus, sino que lo combaten impidiendo su multiplicación. Eso se consigue bloqueando una enzima específica. El nuevo fármaco inhibe la acción de la integrasa, una enzima que produce el virus del sida y se encarga de que el material genético del VIH se integre en el material genético de las células del sistema inmune. Una vez incorporado, el ADN viral manda a la célula que haga más copias del virus.

En la reunión de Los Ángeles se han presentado dos estudios con 700 pacientes resistentes, al menos, a una de las tres clases de fármacos existentes. En el 60% de los tratados, el medicamento logró que la presencia del virus cayera a niveles casi indetectables. En todos los casos el nuevo fármaco no se administró en solitario, sino en combinación con los tratamientos clásicos. Esa carga viral indetectable se mantuvo después de 16 semanas, según el ensayo.

«Maraviroc» utiliza otro camino para luchar contra la infección. Bloquea una proteína denominada CCR5, una de las principales vías de acceso que utiliza el virus del sida para infectar a la célula. Esta «puerta» de entrada fue descubierta en 1996 y desde entonces varios grupos de científicos han trabajado sobre ella para desarrollar medicamentos que pudieran bloquearla.

«Maraviroc» ha sido el primero en lograr resultados esperanzadores. Dos estudios presentados en Los Ángeles lo demuestran, en esta ocasión con 1.049 pacientes. Con el tratamiento en combinación con otros antirretrovirales, más del 40% redujo su carga viral hasta niveles casi indetectables. En este caso la prueba era más dura, porque los enfermos que lo probaron eran resistentes a las tres clases de fármacos contra el virus del sida.

Pero algunos expertos piden cautela antes de tener resultados a largo plazo. Temen que al bloquear una proteína humana en lugar de una viral, aparezcan efectos indeseados a largo plazo. Dos fármacos en desarrollo, que también inhibía la CCR5, fueron desechados por su toxicidad hepática y su considerable riesgo de cáncer. John W. Mellors, de la Universidad estadounidense de Pittsburgg, cree, sin embargo, que se trata de un avance «tan emocionante como el descubrimiento de los famosos cócteles», dijo al «New York Times».

Para José María Gatell, responsable de Enfermedades Infecciosas del Hospital Clínico de Barcelona, es una valoración exagerada. «Son dos fármacos importantes, que nos permitirán dar otra oportunidad a pacientes a los que los tratamientos existentes no reducen su carga viral a niveles indetectables. Pero no suponen un salto tan cualitativo como el que se consiguió en los 90 con el cóctel de antirretrovirales», explicó a ABC desde la conferencia de Los Ángeles.

Fuente: ABC, 2 de Marzo de 2007

 

 

--Hawking ingrávido

Hawking dijo que, para alguien que ha estudiado la gravedad toda su vida, es emocionante poder experimentar la ausencia del fenómeno en cuerpo propio.

Su viaje -que tiene un costo de US$3.750- será financiado por una compañía estadounidense llamada Zero Gravity. La empresa también planea subastar dos de los asientos del vuelo con fines caritativos. Hawking, que usa una silla de ruedas y está casi completamente paralizado, será acompañado por personal médico.

Ascenso y caída

El avión Boeing 727 despegará en abril desde la base espacial Kennedy en Florida, Estados Unidos.

Volará a una altura de 9,75 kilómetros en un ángulo empinado y luego descenderá en picado unos 2.400 metros para que los pasajeros puedan experimentar la gravedad cero durante 25 segundos.

Mientras el avión asciende, los pasajeros se sienten 1,8 veces más pesados que en la tierra.

En una entrevista por correo electrónico, Hawking dijo que quería fomentar el interés público en los viajes espaciales.

"También quiero mostrarle a la gente que no deben estar limitados por sus incapacidades físicas mientras no estén incapacitados en el espíritu", dijo.

El año pasado, Hawking habló de la necesidad de colonizar el sistema solar -y más allá- si la humanidad desea sobrevivir.

Hawking ya se ha referido a su deseo de viajar al espacio.

 

Fuente: BBC Mundo, 2 de Marzo de 2007



 

--El eclipse de Luna del 3 de Marzo

El próximo 3 de marzo habrá un eclipse total de Luna. El primer contacto de la sombra de la Tierra con el disco lunar se realizará a las 20:16 UT (Tiempo Universal), que corresponden a las 21:16 en la península. La totalidad se alcanzará a las 22:43 UT y durará hasta las 23:58 UT. El fenómeno terminará a las 2:25 UT

En esta ocasión Europa y África están situadas de manera privilegiada para observar el eclipse. Sin embargo, solamente se verá parte del eclipse desde las Américas, siendo mejor la visibilidad cuanto más hacia el Este esté localizado el punto de observación.

En cualquier caso, varias asociaciones, entidades culturales y universidades realizarán retransmisiones en directo para aquéllos que no puedan asistir, estén lejos o se encuentren con un cielo cubierto. En Madrid, la Universidad Complutense, en colaboración con la asociación ASAAF, en una actividad conjunta de las redes PRICIT ASTRID y ASTROCAM, dispondrá de información en directo a través de sus páginas de Internet, con imágenes del evento. El Planetario de Madrid realizará observaciones en directo en una jornada de puertas abiertas, en una actividad gratuita. En el resto de España, la Universidad de Barcelona, entre otras, tiene cierto historial en la retransmisión en directo vía Internet de eclipses.

El siguiente eclipse lunar total será el 28 de agosto de este año. En el año 2008 habrá dos eclipses lunares y otros dos solares. Los de Sol, mucho más espectaculares, serán visibles el 7 de febrero, en esta ocasión anular, y el 1 de agosto, total y que cruzará el Ártico desde Canadá hasta China.

Fuente: Redacción mi+d, 2 de Marzo de 2007