|
NOTICIAS CIENTIFICAS
--Nuevas Noticias Próximamente--
TITULARES DE LAS NOTICIAS DEL MES :
Spitzer descubre un sistema planetario con dos soles
El exterior del núcleo de la Tierra se encuentra a más de 3500 grados centígrados
El futuro está en la electrónica del plástico
Un extraño hexágono es fotografiado por la sonda Cassini
El misterio del agua y la mecánica cuántica
Científicos surcoreanos clonan lobos
Nuevas superlentes permiten llegar al microscopio óptico a la escala del virus
Científicos españoles investigan los fondos de la Antártida
Canarias propondrá que Macaronesia sea un santuario de cetáceos
60 equipos de investigación desarrollan la predicción climática detallada para Europa
Cada dólar invertido en meteorología ahorra siete de pérdidas en catástrofes humanas
Una red de reservar marinas podría frenar la desaparición de pesquerías
Un escurridizo mamífero que vivía entre dinosaurios: el Yanoconodon
Descubren una nueva especie de pantera
El agua congelada en el polo sur marciano podría cubrir toda la superficie de Marte
El invierno más cálido de los últimos 127 años
Una enorme masa de agua subterránea, se encuentra en Marte
El meteorito Apophis podría chocar con la Tierra
Consiguen borrar recuerdos de ratas
La ESA quiere llegar a Marte en el 2025
Grupo de telómeros y telomerasa
Evolución dentro de la misma especie
Los submarinos pronto imitarán a los peces
Un paso más hacia el genoma del cáncer
Los dilemas éticos de la robótica
El agua que fluía en la superficie marciana posiblemente no se mantuvo en estado líquido
La NASA confirma la existencia de mares de metano líquido en Titán
Consiguen leer los pensamientos
Una expedición explorará la corteza de la Tierra en el fondo del océano Atlántico
Excelencia e independencia en la ciencia
La comunicación y la teleportación, cada día más cerca
Logran desarrollar el material tecnológico más fino del mundo
Éxito en el desarrollo de nuevas vacunas contra el SIDA
El eclipse de Luna del 3 de Marzo
-Spitzer descubre un sistema planetario con dos soles
El telescopio espacial 'Spitzer', de la NASA, ha descubierto innumerables sistemas planetarios con dos soles, según ha informado el Laboratorio de Propulsión a Chorro (JPL). Según los astrónomos de la agencia espacial, ha dejado de ser una fantasía el doble atardecer que hipnotiza a Luke Skywalker en la película 'La guerra de las galaxias'.
Esos sistemas binarios, formados por discos de asteroides, cometas y posiblemente planetas, parecen ser tan numerosos como los de un solo sol, como el nuestro, manifiesta el organismo de la agencia espacial estadounidense.
"Ya parece no haber oposición a la idea de que se hayan formado planetas en sistemas binarios", según manifiesta David Trillin, científico de la Universidad de Arizona y autor de un informe sobre las operaciones del 'Spitzer' en la revista 'Astrophysical Journal'.
En el universo "podría haber incontables planetas con dos o más soles", añadió Trillin.
Según el comunicado de JPL, hasta ahora los astrónomos sabían que los planetas podían formarse en sistemas binarios en los que sus estrellas están separadas por mil veces la distancia que existe entre nuestro Sol y la Tierra.
De los aproximadamente 200 planetas descubiertos hasta ahora fuera de nuestro vecindario espacial, alrededor de 50 giran en torno a uno de dos soles en el mismo sistema.
En su estudio, los astrónomos apuntaron el telescopio infrarrojo para buscar los discos de polvo cósmico en los sistemas binarios.
Según JPL, esos discos están formados por rocas similares a los asteroides que nunca llegaron a formar parte de un planeta.
Su presencia indica que en algún momento ocurrió el proceso de formación de planetas en torno a una estrella, añadió.
Los astrónomos también se vieron sorprendidos por el hecho de que esos discos son más frecuentes o numerosos en los sistemas binarios y esto podría significar que la formación de un planeta se inclina más hacia los dos soles.
"Pero también podría significar que esos sistemas binarios en realidad sólo son más polvorientos. Una mejor respuesta a este interrogante deberá provenir de futuras observaciones", señaló Trilling
Fuente: El Mundo, 30 de Marzo de 2007
-El exterior del núcleo de la Tierra se encuentra a más de 3500 grados centígrados
La temperatura de la corteza del núcleo de la Tierra supera los 3.500 grados centígrados, según un estudio dirigido por el Instituto de Tecnología de Massachusetts en Cambridge (Estados Unidos) que se publica esta semana en la revista 'Science'.
Los investigadores han utilizado un método sísmico
tomado de las instalaciones de explotación petrolífera para estimar las
temperaturas que existen a 3.000 kilómetros por debajo de la superficie.
Los investigadores estudiaron miles de kilómetros de área bajo América Central.
Bajo estas profundidades, la temperatura estimada es de 3.950 Kelvin (3.676,85
grados centígrados), con una variabilidad de más o menos 200.
Una estimación exacta de la temperatura proporciona a los geólogos información
sobre cómo se transfiere el calor hacia el interior, la evolución térmica del
planeta y la generación de los campos magnéticos de la Tierra.
La comparación de mapas de las estructuras y las temperaturas en localizaciones
distintas del planeta completarán los detalles sobre la evolución dinámica de la
Tierra.
Los investigadores recogieron datos de cientos de seismógrafos y utilizaron un
proceso de dispersión tridimensional para analizar los límites entre el núcleo y
su corteza externa. Tras ello evaluaron la transición de la perovskita, el
material común del manto, a postperovskita.
Los científicos, utilizando teorías y medidas de laboratorio, emplearon la
posición de la transición de la perovskita a postperovskita para determinar la
temperatura de los límites entre el núcleo y su corteza.
Fuente: El Mundo, 30 de Marzo de 2007
-El futuro está en la electrónica del plástico
Hay una industria electrónica nueva que parece estar a punto de irrumpir con fuerza en Europa y hay una empresa que se encuentra a la vanguardia de esta novedosa tecnología. A principios de este año, la empresa británica de tecnología Plastic Logic anunciaba que se había hecho con 100 millones de dólares (76 millones de euros) de capital riesgo para construir la primera planta comercial del mundo para fabricar electrónica de plástico (también llamada electrónica orgánica).
La función principal de dicha fábrica será
incrementar la producción comercial de pantallas para productos de lectura
electrónica para "llevar a cualquier parte y leer en cualquier parte".
Valiéndose de un proceso desarrollado por la propia compañía, esta planta
fabricará pantallas que, según sus creadores, son casi tan flexibles como el
papel, tienen su mismo aspecto y su mismo tacto.
Según Anusha Nirmalananthan, directora de marketing de la compañía, esta
tecnología revolucionará el mercado de las pantallas digitales. "Nuestras
pantallas flexibles serán delgadas, ligeras y resistentes y harán posible
fabricar productos de lectura electrónica que serán tan cómodos y tan naturales
para leer como el papel", aseguró.
"Su capacidad de conexión instantánea permitirá al usuario descargarse un libro
o un periódico y leerlo esté donde esté y cuando quiera. Su batería durará el
equivalente para leer miles de páginas, así que el usuario no tendrá qué
preocuparse por recargarla", agregó.
Plastic Logic, surgida del Laboratorio Cavendish de la
Universidad de Cambridge, participó en dos
proyectos financiados por la UE, Discel y Naimo, pertenecientes al Quinto y al
Sexto Programa Marco, respectivamente. En Naimo encabezó el desarrollo de
técnicas de nanofabricación que ahora se emplearán para fabricar los ingeniosos
materiales plásticos con los que se fabrican estas novedosas pantallas
flexibles.
"Europa se encuentra a la cabeza de esta tecnología a nivel mundial y el apoyo
de la UE a proyectos como Naimo han contribuido a garantizar que esta carrera la
vamos a ganar; no nos quedaremos simplemente en los puestos de cabeza", asegura
Stuart Evans, director ejecutivo de Plastic Logic.
En realidad, los semiconductores plásticos no son nada nuevo, ya que se
descubrieron en la década de los años sesenta; lo novedoso y emocionante es la
perspectiva de su comercialización, especialmente porque tiene lugar en Europa.
Esta compañía ha elegido la ciudad de Dresde, del este de Alemania, situada en
la denominada "Silicon Saxony" o "Sajonia de silicio" [en referencia al Silicon
Valley californiano], para ubicar su nueva fábrica, pensando en la sólida
tradición de la ciudad en el ámbito de la investigación microelectrónica.
Esta fábrica empleará un conjunto simple de operaciones de procesamiento para
construir planos posteriores de matriz activa sobre "sustratos" (el material
sobre el que se forman los circuitos) de plástico que, al combinarlos con un
material de plano anterior de papel electrónico, se usarán para crear módulos de
pantallas delgadas, ligeras y resistentes.
Esta empresa empezará hacia mediados de 2008 la producción en masa de estas
pantallas de 10 pulgadas (25 cm), 150 píxeles por pulgada y 16 grados de grises.
Plastic Logic se propone producir un millón de láminas semiconductoras de
plástico en su primer año y, después, 2,2 millones al año. La compañía augura
que las ventas anuales a nivel mundial podrían aumentar hasta 41,6 millones de
unidades de aquí a 2010.
Mientras despega esta nueva tecnología de la electrónica de plástico, muchos de
los gigantes del mundo de la electrónica están ansiosos por llevarse su parte
del pastel. El grupo franco-estadounidense Alcatel-Lucent, la neerlandesa
Philips, la japonesa Hitachi, la surcoreana Samsung todos están trabajando en
los semiconductores plásticos o, como mínimo, se mantienen alerta a su
desarrollo.
Según Anusha Nirmalananthan, los científicos están "creando una industria de la
electrónica nueva y muy importante que complementará al silicio".
"Es más, les llevamos dos años de ventaja a nuestros competidores", afirma.
Fuente: CORDIS, 29 de Marzo de 2007
-Un extraño hexágono es fotografiado por la sonda Cassini
La NASA ha publicado unas imágenes de una extraña figura de seis caras con forma de enjambre hexagonal que rodea la totalidad del Polo Norte de Saturno. Los científicos analizan con curiosidad las imágenes, tomadas ya por las sondas Voyager hace dos décadas y que ahora ha vuelto a detectar la nave 'Cassini'.
Extraño hexágono en el polo Norte de Saturno
"Se trata de un fenómeno muy extraño, con unas formas geométricas casi perfectas, porque en el hexágono se pueden apreciar seis lados rectos que discurren en paralelo", señaló Kevin Baines, experto en fenómenos atmosféricos que forma parte del equipo de investigadores de la misión 'Cassini' en el Laboratorio de Propulsión a Chorro de la NASA. "Nunca hemos visto nada parecido en otro planeta. Desde luego, la espesa atmósfera de Saturno, hace que éste sea uno de los últimos lugares donde hubiéramos esperado ver una figura geométrica tan regular", matizó.
La figura mide unos 25.000 kilómetros y se calcula que dentro del remolino podrían caber cuatro planetas del tamaño de la Tierra.
Las imágenes nocturnas del polo norte de Saturno fueron tomadas por las cámaras de infrarrojos de la sonda 'Cassini', y muestran claramente la estructura hexagonal que gira alrededor del polo. Para los científicos tiene gran importancia no sólo porque ayudará a explicar este curioso fenómeno, sino también porque supone una de las imágenes más detalladas de esta región del planeta jamás tomada.
Hace dos décadas, las naves Voyager 1 y 2 lograron fotografiar este remolino, con menor resolución, el extraño fenómeno, y según se revela por las imágenes tomadas por la 'Cassini', parece que se trata de una característica duradera del planeta. En las imágenes de la 'Cassini' también se puede ver un segundo hexágono, más oscuro y brillante que el original captado por las 'Voyager'.
En la fotografía, el color rojo indica la radiación cuya longitud de onda son cinco micras, el calor generado en el interior caliente de Saturno que escapa del planeta. Las imágenes fueron tomadas entre el 30 de octubre y el 11 de noviembre de 2006 desde una distancia de 1.3 millones de kilómetros.
Fuente: El Mundo, 28 de Marzo de 2007
-El misterio del agua y la mecánica cuántica
La ecuación de Schrödinger, uno de los fundamentos de la
teoría de la mecánica cuántica, ha desvelado el funcionamiento de las moléculas
del agua gracias al uso de un conjunto de ordenadores superpotentes. Formada por
dos átomos de hidrógeno y por uno de oxígeno, se cree que el secreto de las
propiedades de este líquido tan común como misterioso radica en la capacidad de
sus moléculas para formar determinados enlaces entre los átomos de hidrógeno. El
desarrollo de este nuevo modelo informático podría tener múltiples aplicaciones,
y quizá resuelva determinadas cuestiones como la razón por la que el agua, en
estado sólido (hielo), no se hunde dentro de sí misma.
Esencial para todas las formas de vida, y objetivo eterno de estudio, el agua es
una sustancia con algunos misterios que aún no han podido ser revelados, al
menos desde la física clásica.
El acercamiento a este extraño elemento constitutivo, sin embargo, desde la
perspectiva de la física cuántica (desde la ecuación de Schrödinger para ser más
exactos), y gracias al uso de un conjunto de ordenadores superpotentes, ha
revelado la estructura subyacente del conjunto de moléculas aparentemente
sencillas del agua, que están formadas "tan sólo" por dos átomos de oxígeno y
uno de hidrógeno.
El logro lo ha alcanzado un equipo de científicos de la
universidad norteamericana de
Delaware y de la
Radboud
University de Holanda, que han desarrollado un nuevo método para desvelar
las propiedades ocultas del agua, y sin necesidad de concienzudos experimentos
de laboratorio: simplemente, informática.
PRINCIPIOS FUNDAMENTALES
Y es que, en teoría, toda la química y la física de la materia a escala
macroscópica podría ser descrita íntegramente por una enorme ecuación de
Schrödinger aplicable a más de 10 elevado a 23 átomos de una unidad de materia.
Utilizar esta ecuación y aplicarla de manera eficaz es actualmente posible
gracias al uso de ordenadores con una capacidad de cálculo superpotente, que
permitirían comprender algunas de las enigmáticas propiedades del agua. Este
tipo de herramienta informática de análisis ya se ha aplicado en otros campos,
como la meteorología y la mecánica celeste.
Los resultados de la investigación han sido publicados por la revista
Science y han sido
explicados en un comunicado de la universidad de Delaware. La investigación ha
estado liderada por el profesor de física y astronomía de dicha universidad,
Krzysztof Szalewicz, que ha colaborado con Robert Bukowski, de la
Cornell University, y
Gerrit Groenenboom y Ad van der Avoird, del
Institute for Molecules and
Materials de la Radboud University.
PROPIEDADES EXTRAÑAS
Todo el mundo sabe que una molécula de agua es H2O, pero, aunque su composición
parezca simple, el agua líquida en realidad es mucho más compleja que eso. Por
ejemplo, señala Szalewicz, contrariamente a otros líquidos, el agua aumenta de
volumen cuando se congela, lo que explica que el hielo flote en el agua. Por
otro lado, el agua puede absorber grandes cantidades de calor antes de empezar a
calentarse y lo libera lentamente mientras se enfría.
Las características únicas del agua parecen relacionarse con su estructura
molecular y con la capacidad de sus moléculas para formar enlaces de hidrógeno
con otras moléculas de agua. El hidrógeno de la molécula del agua tiene una
carga ligeramente positiva, mientras que la carga del otro extremo de la
molécula es ligeramente negativa.
Tradicionalmente se pensó que en el agua en estado líquido cada molécula se
coordinaba con una media de otras cuatro moléculas gracias a estos enlaces de
hidrógeno. Sin embargo, posteriormente se descubrió que esta coordinación tiene
lugar sólo con dos moléculas.
AMBIGÜEDADES
Todas estas ambigüedades del agua han sido estudiadas desde la mecánica cuántica
por Szalewicz y sus colegas, aplicando leyes de la física a un nivel
microscópico.
El resultado: los investigadores han conseguido generar un nuevo marco teórico
para describir la estructura y el comportamiento de la molécula del agua átomo a
átomo, gracias a los ordenadores de última generación, multiprocesadores,
capaces de aportar soluciones bastante ajustadas de las ecuaciones de la
mecánica cuántica para la descripción de las fuerzas que ejercen unas moléculas
del agua sobre otras. Esto debería permitir desvelar el porqué de las extrañas
propiedades de este líquido.
Con un conjunto de ordenadores Linux funcionando en paralelo, y que realizaron
cálculos a gran escala, el estudio tardó varios meses en completarse. El nuevo
modelo puede predecir con bastante exactitud, tanto las propiedades de un par de
moléculas de agua, como las del agua en estado líquido.
Las aplicaciones de este novedoso modelo, señalan los investigadores, van desde
la posibilidad de comprender mejor el agua en diversos estados y en condiciones
extremas, hasta el estudio de otros líquidos y sistemas moleculares, el ADN en
biología o el llamado plegamiento de proteínas (proceso por el que una proteína
alcanza su estructura tridimensional), entre otras.
Fuente: Tendencias 21, 27 de marzo de 2007
-Fotones, mejor que electrones
IBM va a desvelar un prototipo de microprocesador que utiliza
conexiones ópticas en lugar de las tradicionales (mediante semiconductores) y
que, según publica el diario
The Wall Street
Journal es capaz de procesar 160.000 millones de bits por segundo, o lo que
es lo mismo, 160 Gbit/s. Para entendernos, tantos datos como los que contiene
una película de alta definición en una fracción de segundo.
La compañía planea tener este tipo de microprocesadores en la
calle en un plazo de entre 18 y 30 meses, pero eso sí, para un mercado especial:
el de los supercomputadores y el de algunos servidores de red, ya que no sólo
servirá para aumentar su capacidad de procesamiento, sino sobre todo para
reducir drásticamente el espacio que necesitan, la energía que consumen y los
gastos en refrigeración que conllevan.
Detrás de este salto tecnológico está un proyecto que ha sido cofinanciado por
la conocida agencia
DARPA, y
una idea teóricamente obvia, pero que hasta ahora planteaba serias dificultades
técnicas pero sobre todo de rentabilidad: sustituir las conexiones eléctricas
(los datos se transmiten mediante electrones) por conexiones ópticas (en las que
los fotones toman el papel de bits de información).
Fuente: Cinco días, 27 de marzo de 2007
-Científicos surcoreanos clonan lobos
Un grupo de científicos surcoreanos ha anunciado la clonación de dos ejemplares de lobo, las primeras conseguidas de esta especie. Según los investigadores, que pertenecen al equipo del polémico Woo Suk Hwang, se trata de un importante avance para la protección de esta especie, que en dicho país ya no vive en libertad.
Los dos lobos clonados nacieron entre el 18 y 26 de octubre del año 2005, según confirmó Lee Byeong-chun, un profesor de veterinaria de la Universidad Nacional de Seúl, citado por la oficina de investigación del plantel educativo. Sin embargo, el equipo ha tardado año y medio en confirmar la noticia, puesto que las diferentes publicaciones científicas a las que se lo enviaron han querido revisar concienzudamente todos y cada uno de los datos para evitar fraudes como el ocurrido anteriormente con el anuncio de Hwang, que falsificó datos de sus experimentos con células madre.
Según informan los científicos surcoreanos, las pruebas genéticas realizadas con los dos ejemplares de lobo -llamados 'Snuwolf' y 'Snuwolffy'- han mostrado que ambos son clones. Los resultados de la investigación serán publicados en la revista 'Cloning and Stem Cells'. Sin embargo, hasta el momento el equipo científico no ha aportado una verificación independiente de los estudios del ADN de los lobos.
El equipo científico, dirigido actualmente por el doctor Lee Byung-chun -antiguo colaborador de Hwang- es el mismo que hace dos años logró por primera vez clonar un perro. "Normalmente, las publicaciones científicas no exigen verificaciones del ADN mitocondrial antes de publicar una investigación, pero en este caso hemos tenido que proporcionárselo para que pudieran verificarlo, para evitar problemas que han sucedido anteriormente", señaló Lee a la agencia Reuters.
Según los científicos, la clonación de estos lobos servirá de gran avance para la protección de este especie, que en muchos países se encuentra en peligro. De hecho, en Corea del Sur hace más de 20 años que no se ven ejemplares en libertad, y los únicos de que se tiene constancia es de un pequeño grupo de diez ejemplares que vive en un parque natural en Seúl.
El doctor Lee fue el 'segundo de a bordo' del equipo de investigación liderado por Hwang, cuyos presuntos descubrimientos sobre la producción de células troncales humanas mediante la clonación resultaron ser un fraude. Hwang no sólo perdió el reconocimiento de la comunidad científica, sino que fue llevado a juicio en Corea del Sur, y algunos de sus colaboradores fueron suspendidos de empleo y sueldo por desviación de fondos y falsificación de datos.
Sin embargo, de todos los experimentos realizados por el equipo surcoreano, el único que se demostró cierto fue la clonación de un perro, un cachorro de raza afgana llamado 'Snuppy', y cuya investigación estaba directamente a cargo del doctor Lee.
El pasado mes de diciembre, el equipo del doctor Lee anunció la clonación de tres cachorros de perro, también de raza afgana, y que había sido factible gracias a una sustancial mejora en el procedimiento de clonación.
para conseguir los lobos clonados -dos hembras-, el equipo científico transfirió 251 embriones a 12 madres adoptivas, de las que lograron producir dos clones que salieron adelante.
Los perros son unos de los animales mamíferos más difíciles de clonar, debido a su complejo sistema reproductivo.
No se trata, evidentemente, de unas lentes convencionales, sino que están confeccionadas con «metamateriales» con un índice de refracción negativo. Es así como los investigadores han logrado superar la barrera que impone a los instrumentos ópticos el denominado «límite de difracción».
Fuente: El Mundo, 27 de Marzo de 2007
-Nuevas superlentes permiten llegar al
microscopio óptico a la escala del virus
Dos equipos de físicos estadounidenses han creado, trabajando de forma
independiente, las primeras superlentes capaces de una ampliación de la imagen
tal que va más allá de todos los límites de resolución óptica conocidos: pueden
poner bajo el ojo del investigador objetos de una escala de tamaños inimaginable
hasta la fecha, como proteínas, virus, o el mismo ADN.
La difracción es un fenómeno característico de las ondas, por
el que se dispersan y se curvan cuando encuentran un obstáculo. Se produce en
todo tipo de ondas: ondas sonoras, ondas en la superficie de un fluido y ondas
electromagnéticas, como las de la luz. La difracción sólo se observa si el
obstáculo que encuentran las ondas es del mismo orden que la longitud de onda.
LA DISTORISÓN DE LA LUZ
La distorsión de la luz por la difracción produce una borrosidad que limita la
capacidad de aumento útil de un microscopio, o de un telescopio. Así, los
detalles menores de media milésima de milímetro no pueden verse en la mayoría de
los microscopios ópticos. Sólo un microscopio de barrido de campo cercano puede
superar el límite de difracción y visualizar detalles ligeramente menores en
tamaño que la longitud de onda de la luz.
Ya en una primera aproximación al problema, se llegó a la conclusión de que el
límite de difracción sólo podía superarse mediante el empleo de ondas
«evanescentes», que al salvar los obstáculos sin distorsiones permiten
resoluciones ópticas muy superiores a las obtenidas con las ondas de luz visible
«normales», pero cuya captura por lentes convencionales provoca su rápido
decaimiento o «evanescencia».
John Pendry, físico del
Imperial College de Londres, predijo ya en el año 2000 que el decaimiento de
las ondas evanescentes puede resolverse si son amplificadas al pasar por un
material con índice de refracción negativo. Desde entonces, han sido fabricadas
varias superlentes con un éxito limitado en la transmisión de ondas
evanescentes, pero ninguna de ellas ha conseguido un índice de decaimiento
aceptable de la onda.
DESDE MARYLAND Y BERKELEY
Ahora, dos equipos de investigadores lo han conseguido en trabajos
independientes. En la
Universidad
de Maryland, un equipo dirigido por Igor Smolyaninov ha logrado construir
una superlente a partir de anillos concéntricos de distintos polímeros,
depositados sobre una delgadísima película de oro. De forma simultánea, otro
equipo, dirigido por Xiang Zhang, ha optado en la
Universidad de Berkeley,
en California, por un dispositivo en tres dimensiones (3D) de láminas de plata
curvadas, y de óxido de aluminio, incrustadas sobre una base de cuarzo.
Estos dos diseños han sido calificados de metamateriales por tratarse de
nanoestructuras artificiales creadas por los físicos, ya que no existen en la
naturaleza, o al menos no se conocen, sustancias con un índice de refracción
negativo.
A partir de estas superlentes, montadas en un dispositivo de geometría
cilíndrica, un equipo externo a la lente captura las ondas evanescentes emitidas
por los objetos a estudio tras ser iluminados por un finísimo rayo láser, de
forma que se obtiene una imagen ampliada más allá del límite de difracción,
mucho más de lo que un microscopio convencional puede registrar.
UNA SOLUCIÓN "RÉCORD"
Smolyaninov ha obtenido con su superlente de anillos de polímeros una resolución
de 70 nanometros, siete veces superior al límite de difracción de la iluminación
por láser efectuada sobre el objeto. Por su parte, Zhang, con su «hiperlente» en
3D -así prefiere llamarla-, ha logrado una resolución cercana a los 130
nanometros.
Estas enormes prestaciones logradas por ambas superlentes abren una nueva
dimensión al campo de la óptica. Las resoluciones obtenidas por Smolyaninov y
Zhang sólo son superadas por la microscopía electrónica -por los denominados
microscopios de fuerzas atómicas, o por los de túnel de barrido-, pero estos
microscopios no se basan en la óptica, sino en la interacción atómica: el
observador no «ve» la muestra, sólo contempla su «huella».
Igor Smolyaninov ha manifestado a la revista electrónica «Physicsweb»,
en cuyo último número aparecen reflejados ambos trabajos, que «ahora el
verdadero desafío reside en localizar la muestra a estudio -por su reducidísimo
tamaño-... apenas llegas a ver si la tienes enfocada o no».
Fuente: ABC , 27 de Marzo de 2007
La
Academia
Noruega de las Ciencias y las Letras, que concede el galardón, anunció el
nombre del premiado y destacó que los trabajos de Varadhan "tienen una gran
fuerza conceptual y una belleza intemporal". El Premio Abel 2007 está dotado con
750.000 euros.
Varadhan nació en Madrás (India) en 1940 y se doctoró en el Instituto Indio de
Estadística de Calcuta. Después se fue a Estados Unidos, donde inició su carrera
académica en el Instituto Courant de Ciencias Matemáticas de la Universidad de
Nueva York. La Teoría de la Probabilidad es la herramienta que se aplica en el
análisis de situaciones que se rigen por el azar; por ejemplo, al tirar una
moneda al aire repetidas veces. Varadhan, señaló la Academia Noruega en un
comunicado, ha hecho aportaciones esenciales "al haber creado una teoría
unificada de las grandes desviaciones". Esta área se aplica en diferentes
campos, desde la física y la biología, hasta la economía o la estadística.
Si se tira una moneda al aire muchas veces, cabe esperar que la mitad de ellas
salga cara y la otra mitad, cruz. Sin embargo, se producen valores inesperados:
sale más veces cara o cruz del valor medio. La teoría de las grandes
desviaciones permite analizar la incidencia de esos valores anómalos. Las
soluciones sirven para abordar problemas como: ¿Qué reservas de capital se
requieren para que la probabilidad de quiebra de una empresa de seguros se
mantenga a un nivel aceptable?
Fuente: El País, 23 de Noviembre de 2007
Si el petróleo se convirtió en el oro
negro del siglo XX y aún hoy sigue provocando turbulencias en el mercado, el
agua es el indiscutible oro azul del siglo XXI. En la teoría económica se maneja
la llamada paradoja del diamante, para explicar cómo en el desierto una gota de
agua cobra un valor económico muy superior al de un diamante.
El hecho es que más de 1.100 millones de
personas no tienen un acceso normalizado al agua y dos de cada cinco personas en
el mundo carecen de saneamiento adecuado, según estadísticas de la ONU, que
vaticina que las necesidades de agua aumentarán un 55% a escala mundial en los
próximos 20 años. El oro líquido es ya un activo de inversión para el futuro.
El sector llega en buena forma al día mundial del agua. El índice Bloomberg de
empresas de distribución de aguas acumula una rentabilidad a 12 meses del
10,94%, frente al 5,98% que logra el índice Euro Stoxx. Si bien es cierto que
sobre el sector siempre ha pesado una prima de concentración corporativa, que
explica también la buena marcha de la compañía española Aguas de Barcelona, que
gana un 16,86% en ese periodo.
'La perspectiva del sector es atractiva y comparativamente favorable en relación
con los mercados de acciones mundiales', constatan desde Pictet Funds, cuyo
fondo basado en la industria del agua logra una rentabilidad del 72,9% en un
plazo de tres años. 'Globalmente la infraestructura del agua está desfasada y la
necesidad de financiación es ya de 534.000 millones de dólares en EE.UU. y de
330.000 millones de euros en Europa', apunta David Owen, gestor de Pictet Funds.
El Banco Mundial cifra entre 60.000 y 80.000 millones de dólares anuales la
necesidad inversión en todo el mundo para cubrir los servicios básicos, aunque
la inversión real no llega al 40% de esa cantidad, lo que da una idea de las
posibilidades futuras del sector.
'Las perspectivas de crecimiento son buenas; el mercado de EE.UU. se está
liberalizando cada vez más y el tratamiento de agua, especialmente en países
como China e India, ofrece grandes oportunidades debido a la polución', constata
Jerôme Schupp, de Banque Syz.
Así, el fondo New Resources de DWS (la gestora de fondos de Deutsche Bank),
donde la industria del agua tiene un peso del 38,4% en la cartera, logra en un
plazo de 12 meses un rendimiento próximo al 10%. El índice Wowax, sobre el que
Société Générale crea productos derivados basados en agua, tiene una
rentabilidad histórica del 120% en los últimos tres años.
Aunque las empresas de distribución de agua pierden de media un 3,58% en lo que
va de año, todo el mercado está esperando una oleada de operaciones
corporativas, lideradas por las francesas Suez y Veolia, que den combustible a
las cotizaciones, que en un plazo de 12 meses ya arrojan un saldo positivo del
10,94%.
En cualquier caso, las necesidades de inversión también apuntan a un futuro
brillante para el sector. DWS calcula que las necesidades de inversión para los
próximos ochos años, supondrán un incremento del 330% en EE.UU. y del 100% en
Europa, respecto a los niveles de inversión del año 2000. En los países en
desarrollo se espera crecimiento superior incluso al 1.000%.
Fuente: Cinco Días, 22 de Marzo de 2007
-Científicos españoles investigan los fondos de la Antártida
El deshielo de las plataformas antárticas Larsen A y Larsen B ha permitido a un equipo español estudiar la fauna de unos fondos marinos inaccesibles para el hombre desde hacía más de 1.000 años y descubrir que los fondos bentónicos son mucho más ricos y diversos de lo que se pensaba.
|
Estrella de mar de 12 brazos encontrada a 100 metros de profundidad en la plataforma Larsen A |
curioso pez cuya coloración es azul. |
Según explicaron en rueda de prensa los investigadores del CSIC Enrique Isla y Josep-María Gili, el objetivo de su proyecto, 'Climant', es estudiar el "acoplamiento" que se produce en la Antártida entre el fondo marino (bentos) y la columna de agua (pélagos).
Cuando se desintegran fragmentos de la plataforma helada, los icebergs resultantes se comportan como "verdaderos bulldozers" y destruyen los fondos a su paso, apuntó Enrique Isla, responsable del proyecto en España, en el que también participan científicos alemanes y chilenos.
Después, los micronutrientes y semillas almacenados en el hielo se precipitan al fondo del mar, lo que permite que la vida se desarrolle y se produzca la colonización con especies de zonas cercanas en las zonas arrasadas, dijo Isla.
"La retirada de las plataformas de hielo de la zona estudiada nos ha dado la posibilidad de llegar a un lugar en el primer momento de esta recolonización", añadió.
Lo que más asombró a los científicos fue descubrir que el fondo marino en esta plataforma continental era mucho más rico y diverso en animales bentónicos de lo que tenían previsto, puesto que hasta el momento se pensaba que "el ecosistema antártico era más lento", explicó Gili.
Entre las especies halladas durante la campaña se encuentran ascidias, de aspecto semejante a tubos de plástico, y holoturias, similares a las babosas, que al parecer son los primeros grupos en llegar a las zonas despobladas. En algunos lugares estas comunidades de animales cubren casi por completo el lecho marino.
En el apartado de las curiosidades, se ha descubierto una especie de esponja que, por forma y tamaño, ha recibido el nombre de 'Stilogorgia chupachups', algo para lo que, según explicó Gili "ha habido incluso que pedir permiso a la empresa" que fabrica los caramelos. Se trata de una especie "muy común en la zona, que tiene una historia de aislamiento de 30 millones de años".
Lo más llamativo para la comunidad científica no es hallar especies nuevas porque "en la Antártida lo normal es descubrir entre 30 y 40 en cada viaje", sino el hecho de que, de las detectadas "más del 50% son endémicas", es decir, que "sólo viven" en el continente helado, lo que convierte a la región en el lugar con "la fauna marina más antigua de la Tierra"; con "el nivel más alto de especies endémicas" y, durante "un mes al año, el lugar con el ecosistema más productivo del planeta".
Además, encontraron crinoideos pedunculados, animales cuyos brazos se extienden en forma de palmera, que hasta ahora eran asociados a mares profundos, "lo que induce a pensar que las condiciones ambientales existentes bajo las plataformas de hielo son parecidas a las que se dan en el mar profundo", dijo Enrique Isla.
Los deshielos, y consecuentes desprendimientos de icebergs, por sí mismos no se pueden considerar negativos.
Durante los 40 millones de años en que la Antártida "está donde está" este proceso ha provocado un aumento en la diversidad de especies.
El gran peligro del cambio climático es la posible envergadura que pueda alcanzar porque "si desaparece el hielo alrededor de las zonas destruidas, no habrá desde donde colonizar", especificó Gili.
Sin embargo, el científico opina que la mayor amenaza para estos ecosistemas no es el calentamiento global, "tras 40 millones de años congelándose la Antártida no se descongelará en 100", sino el aumento de las cuotas de pesca de krill, un pequeño crustáceo que sirve de alimento a muchas especies polares como las ballenas.
Esta especie es "clave" porque sirve de vector entre los nutrientes del hielo y muchas especies.
A diferencia del Ártico, "mucho más sensible al cambio climático", en la Antártida el Polo Sur se está enfriando y la península se está calentando. "Las muestras de agua, animales y sedimentos obtenidas ayudarán en el análisis de cómo el cambio climático está presionando en ecosistemas especialmente sensibles", concluyó Isla.
La campaña, que se desarrolló a bordo del rompehielos alemán 'Polarsten', se integra en el Proyecto 'Climant', un trabajo internacional que estudia los efectos del calentamiento global en el continente helado en el que participan 40 científicos de 12 países.
Junto a los científicos del Instituto de Ciencias del Mar del CSIC han participado investigadores de la Universidad de Sevilla.
El equipo científico señaló que la biodiversidad del fondo marino de la Antártida evoluciona a una velocidad "mucho mayor de la esperada" a causa del cambio climático por lo que, cuando antes se viajaba allí para estudiar el terreno de década en década, "ahora habrá que ir con más frecuencia, quizá anualmente".
. Sin embargo, es algo que resulta muy complicado, especialmente económicamente hablando porque, según apuntaron "sólo el combustible" les ha costado "seis millones de dólares" y aunque el Gobierno alemán "ha prestado sus plataformas de trabajo" y "un barco que tiene instalaciones y facilidades que no tiene otro en el mundo" lo que financia el Ministerio de Educación y Ciencia español, "no llega al 5% del gasto real", que es "mucho dinero".
Fuente: El Mundo, 21 de Marzo
-Canarias propondrá que Macaronesia sea un santuario de cetáceos
El Gobierno de Canarias propondrá que la Macaronesia -región a la que pertenece este archipiélago junto con las Azores, Madeira, las Salvajes y Cabo Verde- sea un santuario para cetáceos, informó la Consejería de Medio Ambiente y Ordenación Territorial del Gobierno canario.
La propuesta se hará en la Conferencia Internacional de Protección de los Delfines que se celebrará en noviembre de este año en Tenerife y en la que participarán representantes de Portugal, España y países africanos con motivo de la celebración en 2007 del Año Internacional de Protección de los Delfines.
El director general del Medio Natural del Gobierno canario, Juan Carlos Moreno, que hoy se reunió con representantes de entidades para concretar el desarrollo de esta propuesta, indica en un comunicado que el diseño de las acciones se sustentará en los pilares de educación ambiental e investigación.
Juan Carlos Moreno destaca la importancia de que las entidades privadas en Canarias tengan conocimiento de la necesidad de potenciar y sacar rendimiento a la riqueza del mar en las islas, tanto desde el punto de vista educativo como desde el económico y el investigador.
La apuesta, en palabras de Juan Carlos Moreno, debe hacerse desde la óptica de la protección y la conservación de las aguas insulares.
Fuente: EFE, 21 de Marzo de 2007
-60 equipos de investigación desarrollan la predicción climática detallada para Europa
Una de las áreas prioritarias de la
investigación es la modelización climática a escala regional, una difícil
disciplina en la que son líderes mundiales los científicos europeos.
Más de 60 equipos de investigación, casi todos de la UE, están trabajando en un
macroproyecto denominado Ensembles, entre cuyos objetivos destaca la creación de
modelos de clima que permitan hacer proyecciones para las próximas décadas con
una elevada resolución espacial: 25 kilómetros. Los actuales modelos climáticos
globales, que abarcan todo el planeta, tienen una resolución máxima de unos 200
kilómetros, por lo que con ellos no es posible simular la evolución de las
temperaturas o las lluvias a lo largo del siglo en áreas más pequeñas.
"Ensembles va a realizar simulaciones climáticas para todo el siglo, con
especial atención al periodo 2000-2050, usando modelos climáticos regionales
avanzados de 25 kilómetros de resolución", explica Manuel de Castro, catedrático
de la
Universidad de Castilla-La Mancha
y participante en el proyecto europeo. "Además, vamos a calibrar los diferentes
modelos que usemos, comparando sus resultados y cuantificando las incertidumbres
que presentan". Pero Ensembles, enfocado al territorio europeo y la cuenca del
Mediterráneo, tiene otro objetivo ambicioso: "Al final del proyecto, en 2009,
muchos de estos modelos regionales podrán hacer simulaciones en otras zonas,
fuera de Europa", explica Chris Hewitt, científico del
Hadley Centre británico y
director de Ensambles.
Las simulaciones y proyecciones climáticas, puntualiza De Castro, no son iguales
a las predicciones meteorológicas. No tratan de predecir qué tiempo hará en un
día y un lugar concretos dentro de 35 años, algo que impide la naturaleza
caótica de la atmósfera, sino de simular el cambio de las condiciones
climáticas, es decir, de valores promedio a lo largo de las próximas décadas en
la región de interés.
Los modelos regionales son clave, por ejemplo, para conocer los impactos del
calentamiento a esa escala, lo que es muy útil para los responsables políticos y
económicos que preparan las medidas de respuesta. España, entre otros, está
trabajando en esta orientación de análisis de impactos.
De momento, y a la espera de resultados con mayor resolución, las simulaciones
indican que en el último tercio de siglo las temperaturas medias en la península
Ibérica podrían aumentar entre cuatro y siete grados centígrados en verano,
respecto a los valores actuales; las precipitaciones podrían disminuir entre un
30% y un 70% en primavera y verano. En invierno, en la mitad sur de la
Península, las lluvias posiblemente se reducirían entre el 10% y el 30%, pero en
la mitad norte disminuirían menos o incluso aumentarían ligeramente. De Castro
puntualiza que estos valores están calculados para uno de los peores escenarios
posibles, es decir, para un incremento más acelerado que el actual en las
emisiones de gases de efecto invernadero.
Ensembles, financiado con 15 millones de euros por el VI Programa Marco de la
UE, deriva en parte de otro proyecto europeo, Prudence, en cuyo marco se
prepararon y aunaron 10 modelos regionales con resolución de 50 kilómetros
(algunos ya de 25 kilómetros) y con proyecciones para el último tercio del siglo
XXI. Uno de ellos era -y sigue siéndolo en Ensembles- el modelo Promes,
desarrollado por el equipo de De Castro.
Los resultados de Prudence se recogen en el AR4 del IPCC, tanto en el volumen
dedicado a la ciencia del cambio climático como en el que se ocupa de sus
impactos. El hecho de que en el capítulo 11 del informe, sobre proyecciones
regionales, sólo se establezcan conclusiones derivadas de modelos sobre Europa
demuestra hasta qué punto, por ahora, la ciencia europea es líder mundial en
modelización regional. Para el resto del planeta, los análisis de impacto se han
ceñido a los resultados de los modelos globales, que dividen la superficie de la
Tierra y la atmósfera en celdillas de más de 200 kilómetros de lado.
"Hasta ahora, sólo las simulaciones de Prudence han generado un conjunto
coordinado multimodelo de simulaciones con resolución de 50 kilómetros para
todas las zonas; un conjunto similar de experimentos se está realizando ahora en
Norteamérica, en el proyecto Narccap", explica Jens Christensen, experto del
Instituto Meteorológico Danés y líder de dicho capitulo 11 del AR4. Él destaca
el objetivo de Ensembles de reducir la resolución a 25 kilómetros, y añade que
se aplicarán estos modelos en otras partes del mundo, como África occidental y
Latinoamérica.
PARA MEDIADOS DE SIGLO
En el proyecto Ensembles los científicos europeos han asumido el reto de acercar
a la primera mitad del siglo XX el plazo de la proyección climática, y ya con
alta resolución -algunos de los 10 modelos del programa anterior, el Prudence,
ya estaban en 25 kilómetros, pero otros eran de 50 kilómetros-.
"Las proyecciones a medio plazo son más difíciles porque el ruido que generan en
la simulación las fluctuaciones naturales del clima resulta algo más dominante",
aclara el experto danés Jens Christensen. El problema es que es más difícil, por
ejemplo, identificar con rigor en una simulación un aumento de temperatura media
de dos grados en las próximas décadas que un aumento de cuatro a finales de
siglo.
Hay que tener en cuenta que estas simulaciones del clima, tanto a escala global
como las regionales, son complejísimas. Son modelos que reproducen
razonablemente bien la evolución de las condiciones climáticas y los fenómenos
físicos y biogeoquímicos que las determinan, y exigen el uso de superordenadores
muy potentes. De Castro comenta que realizar una simulación climática de cien
años requiere un tiempo de computación continuo de entre seis y nueve meses,
dependiendo de la potencia del superordenador.
Los científicos, una vez desarrollado un modelo, primero lo arrancan en el
pasado -por ejemplo, a principios o mediados del siglo XX-, para hacerlo avanzar
hasta el presente, de manera que así pueden verificar si los resultados de la
simulación, por ejemplo en la década de los noventa, reproducen bien las
condiciones climáticas ya observadas en la región que interesa. Sólo entonces se
ejecuta el modelo hacia el futuro.
Además del equipo de Castilla-La Mancha participan tres instituciones españolas
más entre las 65 de Ensembles: el
Instituto
Nacional de Meteorología, la
Universidad de Cantabria
y la Fundación para la Investigación del Clima, pero éstas no utilizan modelos
climáticos regionales propios.
Fuente: El País, 21 de Marzo de 2007
-Cada dólar invertido en meteorología ahorra siete de pérdidas en catástrofes humanas
Según señaló Michel Jarraud, secretario
general de la
Organización Meteorológica Mundial (OMM),
"invertir un euro en medidas de prevención de los riesgos asociados a fenómenos
climáticos puede evitar que se tengan que desembolsar siete en gastos
relacionados con los desastres".
Jarraud ha participado en Madrid en la conferencia internacional para mejorar
los servicios del tiempo, el clima y el agua en el mundo, que ha inaugurado la
Reina Sofía y en la que participarán durante toda la semana centenares de
expertos de todo el mundo. Unas jornadas de las que esperan sacar los marcos de
actuación de la comunidad internacional, así como crear un foro de diálogo entre
productores y usuarios finales de servicios meteorológicos para introducir
mejoras en la utilidad de los productos dirigidos a agricultura, la salud
humana, el turismo, la energía, el transporte, o el desarrollo sostenible, entre
otros temas.
Para el secretario general de la OMM, en los últimos 20 años los desastres
naturales han dejado un menor balance de víctimas mortales, debido en parte a la
mejoría de los sistemas de alerta temprana de fenómenos meteorológicos extremos.
"Unos servicios meteorológicos, climatológicos e hidrológicos adecuados puede
ayudar a las sociedades a atajar, o al menos reducir sustancialmente buena parte
de esas muertes, y también pueden ayudarnos a luchar contra el cambio
climático", señaló.
El presidente de la OMM, Alexander Bedritsky, señaló que "es evidente que los
servicios nacionales de meteorología e hidrología en muchos países carecen de
influencia política a los más altos niveles". Así, en esta conferencia, según
Bedritsky, "se pueden encarar estos retos mediante el incremento de la
comprensión global sobre cómo todos los sectores son dependientes de los
servicios del tiempo, agua y clima, mientras que sienta las bases para su
modernización y desarrollo".
"Las vidas de cientos de millones de personas en todo el mundo se ven afectadas
cada día por las decisiones que tienen que ver con el tiempo, el clima y el
agua, y los fenómenos hidrometeorológicos extremos -que representan un 90% de
los desastres naturales- han provocado en los últimos años catástrofes de
consecuencias devastadoras", matizó Jarraud. La ministra de Medio Ambiente,
Cristina Narbona, reiteró el compromiso del gobierno español con "todos aquellos
proyectos de Naciones Unidas que pretenden avanzar hacia un desarrollo más
sostenible a nivel mundial". Señaló que la Conferencia pretende avanzar en la
identificación de los beneficios económicos y sociales de los servicios
meteorológicos y apuntó que España es un país "especialmente vulnerable" ante el
cambio climático. Enrique Iglesias, secretario general de la Secretaría General
Iberoamericana, señaló que "la información relativa al clima es vital para
Iberoamérica, porque son países que dependen mucho de la exportación de materias
primas, por lo que la incidencia de la climatología en la agricultura, la
ganadería o la pesca son fundamentales". En cuanto a España, Portugal y el resto
de Europa, Iglesias matizó que la información meteorológica es también sumamente
importante, "porque predecir el tiempo es clave para un sector como el turismo,
de gran importancia en estos países".
Fuente: El Mundo, 20 de Marzo de 2007
Fuente: El País Digital, 15 de Marzo de 2007
-Una red de reservar marinas podría frenar la desaparición de pesquerías
Una presión humana excesiva sobre los
ecosistemas marinos, con la actividad pesquera a la cabeza, ha causado una
perdida de biodiversidad en el mar sin precedentes en las últimas décadas: el
desarrollo industrial de las flotas pesqueras ha permitido su expansión hasta un
punto en el que casi no queda un rincón de los océanos sin explotar y el
descenso general de los recursos pesqueros es incontestable. A este problema se
unen, entre otros, la contaminación, la destrucción de valiosísimos ecosistemas
costeros o los efectos potenciales del cambio climático y el agujero en la capa
de ozono. Hoy en día, el uso de nuevas herramientas como las reservas marinas
para la gestión integral y precautoria de los océanos está emergiendo con
fuerza. Greenpeace demanda la creación de una red global de reservas para la
recuperación y gestión sostenible de los ecosistemas marinos.
Entre el público general no existe
todavía una percepción adecuada de la agudeza de la crisis que sufren nuestros
océanos. A menudo asistimos a discusiones sobre la situación de los recursos
pesqueros, en torno a los recortes de las cuotas de pesca, pero hay un gran
desconocimiento de la globalidad y profundidad de este problema, de sus causas y
de las posibles soluciones.
El desarrollo industrial de la pesca durante el pasado siglo forzó la
desaparición del mito de los océanos como una fuente inagotable de recursos.
Durante demasiado tiempo los océanos estuvieron (y en cierta medida aún están)
al alcance de quien tuviera medios para explotarlos; paralelamente, los avances
tecnológicos posibilitaron una capacidad de captura muy por encima de las
posibilidades de reproducción de los ecosistemas marinos apoyada por muchos
gobiernos, que subvencionaron generosamente la construcción de más y mejor
equipados barcos.
Los resultados no se hicieron esperar. La actividad pesquera industrial ha ido
agotando las poblaciones de las especies que ocupan los lugares más elevados de
las complejas redes tróficas marinas. Actualmente se calcula que la abundancia
de peces predadores a nivel global es aproximadamente tan sólo un 10%
de los niveles pre-industriales; muchas poblaciones de cetáceos podrían
desaparecer en las próximas décadas; la producción pesquera ha estado
descendiendo desde principios de los 90 pese a que disponemos cada vez de buques
más potentes y tecnologías más eficaces para capturar peces en numerosas
pesquerías, particularmente en las de arrastre, un porcentaje importante de las
capturas son devueltas muertas al mar dos de los ecosistemas costeros más
productivos en las zonas tropicales han sido destruidos en gran medida: el 25%
de los arrecifes de coral ha desaparecido y el 25% de los bosques de manglar ha
sido destruido en los últimos 20 anos. Como resultado disponemos de ecosistemas
menos funcionales y mucho más vulnerables a fenómenos de alcance global como el
cambio climático o la contaminación.
Precaución cero: un par de ejemplos cercanos y recientes
El desastre anunciado por todos en la costera de la anchoa
este mismo año no hace sino confirmar la total falta de seriedad de nuestros
gobernantes en cuanto a políticas responsables de pesca. De nada han servido las
advertencias de los científicos, ni las demandas de los pescadores, que el año
pasado exigían el cierre de la pesquería de anchoa en el cantábrico por dos años
para permitir la recuperación del recurso, que se encuentra en niveles mínimos
históricos. Como en 2005, este año el cierre de la pesquería lo han
tenido que llevar a cabo los propios pescadores, renunciando a salir a faenar
ante la falta de capturas. Nuestra administración pesquera sigue diciendo que no
cerrará el caladero si no hay pruebas científicas que demuestren la necesidad
del cierre. La situación exige exactamente lo contrario: cerrar el caladero
hasta que haya evidencias de su recuperación.
Como Greenpeace ha denunciado estos días una de las pesquerías más emblemáticas
del Mediterráneo, la del atún rojo, desaparece. Lo
estamos viviendo en directo. Avisamos hace cuatro años, cuando los gobiernos
miembros de la CICAA, organización que gestiona la pesca de atún en la región,
acordaron una cuota de pesca un 25% mayor de la recomendada por los científicos.
Hemos venido calificando de pesca pirata lo que sucede con esta especie
en la región: todo el mundo pesca lo que puede y los gobiernos mediterráneos se
toman a broma sus obligaciones de comunicar debidamente sus capturas a los
organismos de gestión.
La flota atunera mediterránea podría estar capturando un 40% más de lo
legalmente permitido en el Mediterráneo, condenando a la especie a su extinción
comercial (45.000 toneladas frente a las 32.000 legales). Pese a que el estado
de sobreexplotación del recurso era evidente, tanto España como otros Gobiernos
mediterráneos han venido subvencionando generosamente a la industria atunera
mediterránea en los últimos años, incluyendo la renovación de buena parte de
esta flota. Dinero público destinado a que hoy en día tan sólo unas pocas
empresas asociadas a capital japonés y australiano monopolicen el grueso de las
capturas de atún en el Mediterráneo.
Son tan sólo dos ejemplos que muestran por un lado la gravedad del problema, y
por otro la poca seriedad de los responsables de administrar la actividad
pesquera. La búsqueda de niveles máximos de capturas en lugar del uso de un
enfoque más precautorio y la gestión de los pesquerías especie por especie,
en lugar de tener en cuenta el conjunto del ecosistema son factores
fundamentales en el fracaso de la gestión pesquera tradicional.
En los últimos años no ha habido cambios significativos en la forma en la que
los gobiernos hacen frente a esta crisis. Las grandes flotas industriales han
seguido recibiendo generosas subvenciones; las flotas ilegales continúan
eludiendo todo control; los modelos de acuicultura industrial más destructiva
-como la del langostino tropical- siguen expandiéndose; la contaminación es un
grave problema en amplias zonas costeras; y un largo etcétera.
Una red de reservas marinas como instrumento de gestión precautoria
Algo fundamental es que el mismo objetivo de la gestión pesquera debe cambiar,
desde la actual maximización de los rendimientos a corto plazo hacia la
minimización de los impactos sobre el medio ambiente, y especialmente del riesgo
de dañar las poblaciones o los ecosistemas marinos de forma irreversible.
Ninguna pesquería debería poner en peligro la capacidad de cualquier especie de
resistir las fluctuaciones medioambientales, ya sean naturales o inducidas por
el ser humano, ni inhibir la recuperación de cualquier especie que se encuentre
amenazada o en peligro de extinción. Los impactos destructivos de las
actividades pesqueras sobre los hábitats y ecosistemas marinos deben ser también
eliminados, y la pesca en zonas de especial sensibilidad ecológica debería ser
prohibida.
Además, para compensar nuestras grandes lagunas de conocimiento en lo que se
refiere a los procesos ecológicos marinos, la gestión pesquera debe ser
precautoria, poniendo el acento en la prevención del daño, en
contraposición a los intentos de reparar los errores con medidas de recuperación
o de mitigación una vez que estos se han producido. Las reservas marinas,
mediante las cuales se protegen áreas enteras contra una amplia gama de impactos
de origen humano, contribuyen precisamente a estos objetivos, lo que las
convierte en una herramienta de conservación única. Contar con una parte del
ecosistema al margen de las actividades extractivas es sin duda una forma de
disminuir el riesgo, hoy día muy elevado, de sobreexplotación de los recursos.
Las reservas no son una herramienta tan nueva. Ciertamente en el pasado
existían muchos refugios naturales para las especies marinas, proporcionados por
zonas que eran simplemente inaccesibles y que explicaban la resilencia de
algunas pesquerías. Se trata de lugares protegidos que en buena medida han
desaparecido con el surgimiento de nuevas tecnologías, pero que podrían ser
ahora recuperados a través de la creación de reservas marinas.
Beneficios de las reservas marinas
Se ha comprobado que el establecimiento de reservas marinas tiene como resultado
aumentos a largo plazo y a menudo rápidos en la abundancia, diversidad y
productividad de organismos marinos. Si bien los beneficios de la protección son
más evidentes para las especies que pasan la mayor parte de su tiempo dentro de
la reserva marina, también las reservas pueden brindar protección a las especies
migratorias, si éstas son protegidas en etapas vulnerables tales como las que
pasan en áreas de desove y cría. Las reservas marinas pueden reestablecer el
equilibrio ecológico alterado por las actividades humanas. Por ejemplo, la pesca
puede alterar la relación predador/presa y ocasionar cambios en el hábitat y las
reservas pueden ayudar a mitigar estos efectos. Es vital que los hábitats más
importantes estén representados dentro de una red regional. Estos deben incluir
hábitas vulnerables; etapas críticas de la vida de las especies, p.e. lugares de
desove y cría; lugares capaces de dar apoyo a especies sobreexplotadas o poco
abundantes; etc.
Las reservas marinas como herramienta de gestión pesquera
Por definición las reservas marinas están cerradas a la pesca pero el
establecimiento de una red de reservas marinas puede beneficiar a las pesquerías
de varias maneras. Las reservas marinas permiten que las poblaciones explotadas
recuperen sus hábitats y que los hábitats modificados por las actividades
pesqueras se regeneren. Existen evidencias cada vez mayores que sugieren que el
establecimiento de una red de reservas marinas puede producir mejores
rendimientos en las zonas de pesca adyacentes. Esto esta relacionado con la
migración de peces adultos y jóvenes más allá de los límites de la reserva así
como con la exportación de larvas y huevos desde la reserva hacia las áreas de
pesca. Al ser áreas no explotadas, las reservas marinas sirven también como
áreas valiosas de referencia que se pueden utilizar para facilitar la
comprensión de los efectos de la pesca fuera de la reserva y para informar las
decisiones de gestión.
Las reservas marinas brindan además la oportunidad a las comunidades locales de
obtener derechos de propiedad sobre las reservas de su área y sobre sus zonas
adyacentes, un hecho muy importante que tiende a ser infravalorado. Otras
actividades no extractivas tales como el buceo, la fotografía submarina y la
observación de cetáceos se benefician todas ellas con una vida marina diversa y
abundante.
¿Por qué una red? Tamaño, escala y conectividad de las reservas marinas
Diferentes modelos parecen dejar claro que independientemente de su tamaño, el
establecimiento de reservas marinas conduce a incrementos en la densidad,
biomasa, talla de los especimenes así como de la diversidad. Para proteger el
ecosistema en su conjunto es importante garantizar que todos los hábitats estén
representados dentro de una red de reservas marinas.
Para conservar una gama representativa de hábitats y especies se necesitará
establecer cierto número de reservas marinas y es importante que éstas estén
ubicadas en una red que garantice su conectividad. Muchas especies marinas
tienen fases dispersas en aguas abiertas y con frecuencia los huevos y las
larvas son transportados a sitios muy alejados de donde fueron fecundados. En la
misma medida en que aumenta la cobertura de un área se incrementa también la
conectividad.
El Congreso Mundial de Parques de Durban en 2003 recomendó que "las redes
deberían ser extensas e incluir áreas estrictamente protegidas que abarquen por
lo menos el 20-30% de cada hábitat". Dos expertos destacados en los
aspectos científicos de las reservas marinas, Callum Roberts y Julie Hawkins, de
la Universidad York en el Reino Unido, han llegado a la conclusión de que
"todos los argumentos convergen hacia la importancia de la protección a gran
escala, con un máximo de beneficios generalmente en el rango de entre el 20 y el
40% del mar como parte de reservas".
Se ha subrayado también la importancia de crear reservas en una red de distintos
tamaños. Crear una red de reservas marinas más pequeñas en la zona costera
tendrá la ventaja de distribuir los beneficios entre las comunidades pesqueras a
lo largo de la costa en vez de concentrarlos en unas pocas y extensas reservas
marinas donde varias comunidades juntas perderán sus espacios de pesca.
La propuesta de Greenpeace
Greenpeace está promoviendo una red global de reservas marinas que abarque el
cuarenta por ciento de los océanos del planeta con el fin de disponer de océanos
y mares bien conservados y de permitir su recuperación en los casos necesarios.
Esto significa establecer una red representativa de reservas marinas, que
comprenda reservas a gran escala en alta mar, y un mosaico de reserva marinas de
menor extensión en conjunción con áreas de pesca bien gestionadas y sostenibles
en la zona costera. Para garantizar que tanto los beneficios de la reservas
marinas y el acceso a las áreas de pesca de distribuyan equitativamente
alrededor de la línea costera, en el diseño de una red se deben considerar tanto
los factores sociales como los biológicos.
Se trata de una medida con importantes ventajes desde el punto de la gestión
pesquera, cuyos beneficios son cada vez más evidentes y en la que es necesario
comenzar a dar pasos cuanto antes. Por el momento, las primeras experiencias
piloto han ofrecido en general resultados muy positivos cuando han estado bien
gestionadas. Es hora de pasar de pequeños ejemplos casi diríamos anecdóticos, a
redes más consistentes que permitan explorar su funcionamiento a pleno
rendimiento.
Fuente: mi+d,
-Un escurridizo mamífero que vivía entre dinosaurios: el Yanoconodon
Los investigadores han declarado a la
revista
Nature que el peculiar
animal, rescatado en una formación de rocas ricas en fósiles al norte de China,
da a conocer un elemento crucial en la evolución de los mamíferos: la estructura
del oído que permite una gran sensibilidad de audición.
El animal, llamado Yanoconodon por las montañas Yan de la provincia de Hebei,
vivió hace 125 millones de años durante el periodo cretácico, el tercero y
último de la era mesozoica, conocida a veces como la Edad de los Dinosaurios. Su
cuerpo era muy raro para ser un mamífero, con un torso alargado y extremidades
cortas y rechonchas. "En cierto modo, es como el cuerpo de una salamandra en un
mamífero", ha declarado en una entrevista el responsable de los científicos Zhe-Xi
Luo del
museo Carnegie de historia natural
en Pittsburgh, Pensilvania.
Los científicos piensan que Yanoconodon - que medía unos 15 centímetros de largo
y pesaba alrededor de 30 gramos - era un animal nocturno que comía insectos.
Vivió en un ambiente abundante de lagos de agua potable, plantas con flores y
otros muchos animales. Entre ellos había una variedad de dinosaurios a los que
nada les hubiera gustado más que convertirlo en un aperitivo con pieles.
Luo ha declarado que el Yanoconodon es particularmente importante porque supone
una etapa intermedia en la evolución de la estructura auditiva de los mamíferos.
Los mamíferos poseen una capacidad auditiva superior al resto de vertebrados,
una característica fundamental para la vida del mamífero. Los investigadores
creen que muchos mamíferos primitivos adoptaron una existencia nocturna que les
mantuvo alejados de las multitudes de dinosaurios y otras bestias que buscaban
un alimento fácil.
Los científicos llevan tiempo buscando pistas sobre los orígenes de la
estructura auditiva de los mamíferos. Los primeros mamíferos aparecieron hace
unos 220 millones de años, no mucho después de los primeros dinosaurios, pero el
proceso de adquisición de la anatomía de los modernos mamíferos llevó muchas
decenas de millones de años más.
Fuente: El País, 16 de Marzo de 2007
-Descubren una nueva especie de pantera
El Fondo Mundial para la Naturaleza (WWF, por sus siglas en inglés) anunció que la pantera nebulosa encontrada en las islas de Borneo y Sumatra es una especie distinta a la que habita en el sureste del continente asiático.
La pantera nebulosa, que debe su nombre
a las grandes manchas de su pelaje que le permiten confundirse entre las hojas,
es el mayor depredador de Borneo y se caracteriza por ser el felino con los
colmillos más largos en relación a su tamaño, que oscila entre los 60 y los 110
centímetros de largo.
"Las pruebas de ADN muestran una cuarentena de diferencias genéticas entre las
dos especies", por lo que "la pantera nebulosa de Borneo debe ser considerada
como una especie distinta", explicó en un comunicado de prensa el responsable
del estudio, Stephen O'Brien. El WWF señaló que tales diferencias "son
comparables a las que existen entre otras especies de felinos como el león, el
tigre, el leopardo, el jaguar o el leopardo de las nieves".
En paralelo, se analizaron los pelajes de varios ejemplares procedentes de
distintas regiones y se compararon la forma y el color de sus manchas y "quedó
claro que se trataba de dos especies distintas", aseguró el investigador del
departamento de Ciencias Naturales del
Museo
Nacional de Escocia, Andrew Kitchener.
La pantera nebulosa continental, también llamada pantera longibanda, está
cubierta de grandes manchas irregulares con borde negro e interior pardo, pero
las de la especie de Borneo son de un color más vivo y tienen pequeñas manchas
oscuras en su interior. Los expertos, que creen que las dos especies se
diferenciaron hace 1,4 millones de años, estiman la población de panteras
nebulosas de Borneo entre 8.000 y 18.000 ejemplares.
"Que el mayor depredador de Borneo sea una especie distinta enfatiza la
importancia de conservar el área del Corazón de Borneo", aseguró el coordinador
del programa de ese mismo nombre en el Fondo, Stuart Chapman.
Se trata de una región montañosa y selvática de 220.000 kilómetros cuadrados,
situada en el centro de la tercera isla más grande del mundo, donde se
identificó la mayor parte de las 52 especies que se descubrieron allí en 2006.
Fuente: EFE, 16 de Marzo de 2007
-El agua congelada en el polo sur marciano podría cubrir toda la superficie de Marte
Una nueve medición de la sonda 'Mars Express' ha descubierto una enorme masa de agua congelada bajo el polo sur marciano, reveló el Laboratorio de Propulsión a Chorro (JPL), de la NASA en un comunicado.
El texto señala que esa región polar
contiene suficiente agua congelada como para cubrir toda la superficie del
planeta con una capa líquida de 11 metros de profundidad.
"Los depósitos del polo sur de Marte cubren una región mayor que la superficie
del estado de Texas. La cantidad de agua que contienen había sido calculada
antes, pero nunca con tanta precisión", manifestó Jeffrey Plaut, científico del
JPL.
La misión de 'Mars Express' es una operación conjunta de la
NASA
y de la
Agencia Espacial Europea
y la masa de hielo fue detectada por el 'Radar Avanzado para Investigación
Subterránea y Ionosférica de Marte' (MARSIS, por sus siglas en inglés).
Ese instrumento, desarrollado de forma conjunta por la NASA y la
Agencia
Espacial de Italia, también está investigando
el grosor de depósitos similares en el polo norte marciano, señaló el JPL.
El comunicado del JPL cita declaraciones de Giovanni Picardi, de la
Universidad de Roma 'La Sapienza' e
investigador principal a cargo del instrumento, quien manifiesta que "MARSIS
demuestra ser un instrumento muy poderoso para investigar bajo la superficie de
Marte".
Las capas de hielo polar contienen la mayor parte del agua existente en Marte,
aun cuando hay otras zonas que parecen haber sido húmedas en el pasado, según el
JPL. "Comprender la historia y la suerte corrida por el agua en Marte es clave
para comprender si el planeta tuvo vida, ya que toda la vida depende del agua
líquida", señaló el JPL.
Fuente: EFE, 16 de Marzo de 2007
-El invierno más cálido de los últimos 127 años
El último invierno en el hemisferio norte ha sido el más cálido desde que comenzaron a registrarse las temperaturas ambientales en 1880, según ha revelado la Administración Nacional Oceánica y Atmosférica de Estados Unidos (NOAA, siglas en inglés).
El organismo del Gobierno de EEUU indicó en su página "web" de Internet que en el periodo diciembre-febrero, las temperaturas fueron de 1,3 grados centígrados superiores a la media del siglo XX.
El informe indicó que uno de los factores que contribuyó a las temperaturas récord del invierno en el hemisferio norte fue el fenómeno estacional de 'El Niño', que cada fin de año se centra en las aguas del océano Pacífico. El aumento se debilitó en febrero cuando las temperaturas oceánicas en la zona del Pacífico ecuatorial bajaron en más de 0,5 grados centígrados.
NOOA también señaló que durante el último siglo, las temperaturas en la superficie del planeta han aumentado una media de 0,06 grados centígrados por década. Sin embargo, ese incremento ha sido tres veces superior a partir de 1976 (0,18 grados centígrados) por década, y los mayores aumentos se han registrado en las latitudes altas del hemisferio norte.
A pesar de que NOAA no planteó la relación, su informe se suma a la serie de estudios que señalan que el planeta está sufriendo un calentamiento como resultado de la contaminación causada por los gases de efecto invernadero, producidos por las actividades industriales, el uso de combustibles no renovables, y otros procesos.
Fuente: El Mundo, 16 de Marzo de 2007
-Una enorme masa de agua subterránea, se encuentra en Marte
La parte superior muestra la capa de hielo. La inferior muestra el corte topográfico
Una nueve medición de la sonda 'Mars Express' ha descubierto una enorme masa de agua congelada bajo el polo sur marciano, reveló el Laboratorio de Propulsión a Chorro (JPL), de la NASA en un comunicado. El texto señala que esa región polar contiene suficiente agua congelada como para cubrir toda la superficie del planeta con una capa líquida de 11 metros de profundidad.
"Los depósitos del polo sur de Marte cubren una región mayor que la superficie del estado de Texas. La cantidad de agua que contienen había sido calculada antes, pero nunca con tanta precisión", manifestó Jeffrey Plaut, científico del JPL.
La misión de 'Mars Express' es una operación conjunta de la NASA y de la Agencia Espacial Europea y la masa de hielo fue detectada por el 'Radar Avanzado para Investigación Subterránea y Ionosférica de Marte' (MARSIS, por sus siglas en inglés).
Ese instrumento, desarrollado de forma conjunta por la NASA y la Agencia Espacial de Italia, también está investigando el grosor de depósitos similares en el polo norte marciano, señaló el JPL.
El comunicado del JPL cita declaraciones de Giovanni Picardi, de la Universidad de Roma 'La Sapienza' e investigador principal a cargo del instrumento, quien manifiesta que "MARSIS demuestra ser un instrumento muy poderoso para investigar bajo la superficie de Marte".
Las capas de hielo polar contienen la mayor parte del agua existente en Marte, aun cuando hay otras zonas que parecen haber sido húmedas en el pasado, según el JPL. "Comprender la historia y la suerte corrida por el agua en Marte es clave para comprender si el planeta tuvo vida, ya que toda la vida depende del agua líquida", señaló el JPL.
Fuente: El Mundo, 16 de Marzo de 2007
-La NASA confirma la existencia de mares de metano líquido en Titán
La sonda Cassini de la NASA ha descubierto inmensos mares, probablemente de metano o etano, en las regiones del norte de la luna Titán de Saturno, ha anunciado este martes la agencia espacial estadounidense.
Los instrumentos de radar de la nave han
captado regiones oscuras -que prueban la existencia de esos mares-, cuya
superficie sería mayor a las observadas anteriormente, algunas más grandes
incluso que muchos mares terrestres. Titán es el segundo satélite natural de
Saturno y la segunda luna más grande del Sistema Solar, casi un 50% mayor que
nuestra luna.
"Desde hace tiempo nos planteábamos hipótesis sobre los océanos de Titán y ahora
con múltiples instrumentos tenemos indicaciones de mares que empequeñecen los
lagos que habíamos visto antes", ha señalado Jonathan Lunine, científico de la
misión en la
Universidad de Arizona.
La NASA ha explicado que hasta el momento no existe una
indicación concluyente de que en esos mares haya algún tipo de líquido. Sin
embargo, debido a las condiciones prevalecientes en Titán, es probable que sean
una combinación de metano y etano, gases que son abundantes en la atmósfera de
esa luna.
La misión de la sonda Cassini, iniciada con su lanzamiento en 1997, es un
proyecto conjunto de la NASA, la
Agencia Espacial Europea
y la
Agencia Espacial de Italia.
Fuente: El País, 15 de Marzo de 2007
-El meteorito Apophis podría chocar con la Tierra
Duque señaló
que el asteroide Apophis, de unos 250 metros de largo, pasará muy cerca de la
Tierra en 2029 y causará, siete años después, un tsunami peor que el de 2004.
El ingeniero y
astronauta español Pedro Duque advirtió de que existe "una
certeza matemática absoluta" de que el asteroide Apophis pasará "enormemente
cerca" de la Tierra en 2029. Hay una gran posibilidad de que derribe satélites
comerciales y de que siete años después, en 2036, atraído por el campo magnético
del planeta, pueda caer en la superficie marítima originando un "inmenso
tsunami", "infinitamente más grande" que el que asoló Indonesia en 2004.
En un coloquio sobre Defensa y el sector aeroespacial organizado en el Hotel
Palace de Madrid, el astronauta señaló que el asteroide, de unos 250 metros de
largo, quedaría inmerso en el campo electromagnético terrestre y se precipitaría
previsiblemente contra el mar, provocando "un inmenso tsunami". El asteroide
causaría, según Duque, "un agujero" en la superficie marítima
de "varios kilómetros de extensión".
Don Quijote y Sancho
El astronauta señaló que tanto la Unión Europea como Estados Unidos están
evaluando los procedimientos a adoptar para afrontar esta situación e indicó que
el coste de una misión para desviarlo rondaría los 1.000 millones de euros. En
ese sentido, afirmó que la Agencia Espacial Europea está evaluando la
posibilidad de desplegar una misión centrada en el lanzamiento de dos satélites,
uno para alejar el asteroide, bautizado como Don Quijote, y otro para dar
cobertura en órbita el primer satélite, denominado Sancho.
Duque dijo que está misión está en proceso de análisis y que su
objetivo pasaría además por poder detectar asteroides que pudieran aproximarse a
la Tierra y subrayó que se trata de una operación de prioridad para la ESA y que
España podría asumirla porque su coste económico no es muy elevado.
¿Vida más allá de la Tierra?
Consultado sobre si cree que hay vida más allá de la Tierra, el astronauta
español dijo que doce personas han visitado la Luna sin obtener indicios de esa
posibilidad y que el "reto" actual es llegar a Marte para poder responder la
cuestión de si "hubo o va a haber vida" en este planeta del sistema solar.
Duque realizó estas declaraciones junto al ministro de Defensa,
José Antonio Alonso, quien reclamó que no se establezca "una
contraposición tajante" entre la vertiente civil y militar en materia de
Investigación, Desarrollo e Innovación (I+D+i) porque ambas áreas "se
realimentan".
El titular de Defensa destacó la calidad de la industria aeroespacial y de
defensa española y sus aportaciones al campo civil y resaltó el aumento de
personal y tecnología en la Guardia Civil y los servicios de Inteligencia para
afrontar con garantías la lucha contra el terrorismo internacional.
Fuente: elsemanaldigital.com, 13 de Marzo de 2007
-Consiguen borrar recuerdos de ratas
Científicos del Centro de Neurociencia de la New York University han logrado eliminar un recuerdo concreto del cerebro de una rata, sin tocar los demás.
Como señala la revista Nature (en cuyo especial de Neurociencia aparece publicado el resultado de la investigación), el hallazgo sirve para mejorar nuestro conocimiento sobre cómo se forman y alteran los recuerdos en el cerebro, y podría aliviar a los que sufren el síndrome de estrés post-traumático, al librarlos de los recuerdos que les causan ese síndrome.
El cerebro, como asegura la revista, fija los recuerdos traspasándolos de la memoria a corto plazo a la memoria a largo plazo, mediante un proceso llamado reconsolidación.
Este proceso podía ser hasta ahora interrumpido por medio de medicación, pero no había sido posible aislar y borrar un recuerdo concreto.
En la investigación, los científicos adiestraron a las ratas para mostrar temor ante dos tonalidades musicales diferentes, aplicando sobre ellas impulsos eléctricos mientras sonaba la música.
Luego les dieron a la mitad de las ratas una droga que causa amnesia (U0126), cuyo uso no está autorizado en humanos, y volvieron a hacer escuchar a todas (incluidas las que estaban bajo efecto de la medicación) una de las dos tonalidades musicales.
La mitad olvidaron sus recuerdos
Cuando sometieron a las ratas al sonido de los dos tonos días después, las que no habían sido drogadas seguían mostrándose temerosas ante ambas melodías, mientras que las que habían sido tratadas ya no mostraban temor ante la tonalidad a la que fueron expuestas cuando fueron drogadas.
El proceso de intentar reavivar el recuerdo de temor de las ratas con uno de los dos tonos había borrado ese recuerdo completamente en las ratas drogadas, mientras que el recuerdo del temor al segundo de los tonos seguía intacto.
El estudio también confirmó la importancia que tiene la amígdala cerebral en el proceso de formación de recuerdos.
Los científicos descubrieron que si bien la comunicación entre las neuronas de esta parte del cerebro generalmente aumenta cuando se forma un recuerdo relacionado con el miedo, en el caso de las ratas drogadas disminuía, lo que sugiere que los recuerdos se borraban de forma efectiva.
Fuente: 20 minutos, 20 de Marzo de 2007
--La ESA quiere llegar a Marte en el 2007
El año 2025 es la fecha que se ha fijado la Agencia Espacial Europea (ESA) para enviar la primera misión tripulada a Marte, un reto que, dado su enorme coste y complejidad, sólo se podrá llevar a cabo en colaboración con la NASA, que, por el momento, tiene otras prioridades.
"No podemos ir solos. Tiene que ser una
misión global, con la participación de la NASA y de la Agencia Federal Espacial
rusa", ha explicado Bruno Gardini, director del programa Aurora de la ESA, que
se propone la exploración a largo plazo de los planetas del sistema solar para
encontrar indicios de vida.
Gardini, que asegura que este es el reto aeroespacial más complicado que afronta
Europa, ha señalado que esta misión requeriría de una partida de entre 4.000 y
5.000 millones de dólares, una cantidad inasumible para la ESA, cuyo presupuesto
representa sólo el 10% del que dispone la agencia estadounidense.
La NASA, sin embargo, no ha mostrado un especial interés por este proyecto, ya
que actualmente está invirtiendo casi todos sus esfuerzos y recursos en las
misiones a la Luna, y concretamente al primer vuelo tripulado que Estados Unidos
enviará al planeta después de 1969, año en que el Apolo 11 colocó los primeros
hombres en la superficie lunar.
Por el momento, y para preparar el camino a la presencia humana en el planeta
rojo, la ESA está planificando una serie de misiones robóticas que, si se cumple
el calendario previsto, podrían partir de la Tierra con destino a Marte en el
año 2013 para que en 2015, cuando llegue a la superficie marciana, empiecen a
buscar evidencias biológicas o sonoras de vida.
El objetivo de esta misión, denominada 'Exomars', será describir con más
precisión el entorno biológico de Marte, lo que servirá de preparación para
futuras misiones robóticas y, posteriormente, para la exploración humana.
Científicos de los 17 países que componen la ESA, entre ellos varios españoles,
están trabajando actualmente en el diseño y desarrollo de la tecnología de esta
misión, que requerirá de una sonda orbital para Marte y de un módulo que
descienda al planeta con un vehículo todoterreno en su interior para explorar la
superficie.
Esta sonda, ha subrayado Gardini, incorporará un novedoso perforador automático
que permitirá, por primera vez, recoger muestras del suelo de entre un metro y
medio y dos metros de profundidad.
"Para encontrar restos de vida hay que perforar. Si buscas en la superficie no
encuentras nada, porque en las condiciones de Marte no puede sobrevivir nada",
ha indicado el responsable de la Agencia Espacial Europea, que, aunque reconoce
que "es bastante improbable" hallar señales de vida presente en el planeta, sí
confía en encontrar trazos de vida pasada.
Si esta expedición finaliza con éxito, la ESA abordaría la segunda misión del
programa Aurora, el 'Mars Sample Return' (MSR), cuya finalidad sería recoger más
muestras del suelo marciano y traerlas de vuelta a la Tierra para analizar los
restos, todo ello en el año 2020.
El último intento de la ESA por aterrizar en el planeta rojo se materializó en
el denominado 'Beagle 2', que fracasó en 2003, año en que desapareció sin dejar
rastro cuando se disponía a aterrizar, en la fase más crítica de todo el
proceso.
Bruno Gardini sostiene que este proyecto "se desarrolló de manera precipitada,
con poco presupuesto y con un grupo de científicos que estaba poco supervisado",
cuestiones que se han superado en esta nueva etapa de la ESA, que en 2006 tuvo
un presupuesto de unos 2.904 millones de euros.
"De la experiencia se aprende y hay cosas que no se volverán a hacer", asegura
Gardini, que ha ofrecido una conferencia en el museo Cosmocaixa de Barcelona, en
el marco del programa de Medio Ambiente y Ciencia de la Obra Social de La Caixa.
Fuente: EFE, 14 de Marzo de 2007
Si dentro de algunos miles de años quedaran arqueólogos sobre
la Tierra, y si se pasearan por lo que hoy es el parque Nacional de la Caldera
de Taburiente, en la isla canaria de la Palma, se quedarían perplejos al
descubrir los restos de una serie de grandes estructuras en forma de cúpula que
dominan, a casi 2.500 metros de altura, el paisaje circundante.
La sorpresa de los arqueólogos del futuro sería comparable,
quizá, a la de sus colegas de la actualidad que hace unas semanas resolvieron el
enigma de las Trece Torres de Chankillo, parte de un complejo de construcciones
erigidas hace 2.300 años por un pueblo del que poco más se sabe, repartidas en
un área de cuatro kilómetros en la costa norte peruana y que forman parte de uno
de los primeros observatorios solares de los que se tiene noticia.
Como templos dedicados a las estrellas, las cúpulas de la isla de la Palma
(conocidas como el Observatorio del Roque de los Muchachos), se abren a uno de
los cielos más limpios y claros del planeta, formando parte, junto a un complejo
similar en la isla de Tenerife (en el Teide), del llamado Observatorio del Norte
Europeo, uno de los «paraísos astronómicos» más importantes del mundo.
Y es aquí, en lo más alto de esta isla bonita, para deleite de los arqueólogos
del futuro (y de los astrónomos del presente), donde está a punto de terminarse
el que será, al menos durante una década, el mayor telescopio óptico jamás
construido.
Con una superficie reflectora formada por 36 espejos individuales de 1,92 metros
de diámetro cada uno, cuando esté completamente montado, el
Gran Telescopio de Canarias (GTC)
funcionará, a todos los efectos, como si contara con un único espejo circular de
10,4 metros. Permitirá ver con un detalle sin precedentes las galaxias lejanas o
violar la intimidad de remotos planetas en órbita de estrellas distantes.
PROCESO DE «ALUMINIZACIÓN»
Cada segmento de espejo cuesta un millón de dólares, y está constituido por un
bloque cerámico montado sobre una serie de mecanismos que permiten mantenerlo
alineado, en la forma deseada con relación a los demás segmentos. Cuando los
espejos llegan al telescopio, no tienen aún una superficie reflectora. Eso se
consigue aquí mediante un proceso de «aluminización», dentro de una cámara
especial sellada al vacío.
Cuando el segmento de espejo está en posición dentro de la cámara, se aplica
corriente eléctrica a una serie de filamentos de aluminio, que se evaporan y se
van adhiriendo a la superficie cerámica del espejo, en rotación para un proceso
uniforme. Cuando el telescopio esté a pleno rendimiento, cada segmento de espejo
pasará por esta cámara al menos una vez al año, en un proceso de mantenimiento
normal.
ARMAZÓN SÓLIDO Y FLEXIBLE
Todo es enorme alrededor de este majestuoso instrumento. Desde su cúpula, de 500
toneladas de peso (seis de ellas sólo de tornillería), a sus cimientos, o al
armazón metálico articulado que tiene, a la vez, que soportar el peso del
telescopio y ser lo suficientemente flexible como para permitir moverlo a
voluntad de los científicos.
Hasta los cimientos de este singular edificio son diferentes al resto. De hecho,
no forman un bloque único de hormigón, sino que están separados, dispuestos en
dos círculos concéntricos entre los que se ha inyectado, a modo de separación,
una capa de espuma elástica. El círculo exterior soporta la cúpula, el interior
el telescopio. Así se evita que la menor vibración del edificio pueda afectar al
delicado instrumento.
Cualquier movimiento, por leve que sea, puede arruinar una valiosa observación
científica. Un cambio de temperatura, o de humedad, modificar la forma del
espejo, variar, aunque sea unas centésimas de milímetro, la geometría de su
superficie cóncava... Una mota de polvo que se interponga en el camino de un
preciado rayo de luz procedente del espacio exterior puede alterar la
información única que transporta...
Tras ocho años de trabajo, completadas la construcción, la ingeniería y la
mecánica, ha llegado la hora de montar y calibrar la pieza clave: su espejo
principal. Seis de los treinta y seis segmentos están acoplados ya en su lugar
definitivo. Otros doce están preparados para ser montados en las próximas
semanas, y el resto ocuparán su lugar antes de que termine el año. Pero las
primeras pruebas de este gigante de la astronomía están a punto.
«Hasta ahora -explica Pedro Álvarez, director de Grantecan S.A, la empresa
pública creada para la construcción del telescopio- todas las pruebas que se han
realizado han sido técnicas. Las primeras pruebas «con cielo» se harán a finales
de abril o primeros de mayo. Pero en ellas aún no habrá astrónomos. Se trata de
pruebas de ingeniería y sistemas, y no de carácter científico». Desde el 13 de
julio todo cambiará. Ese día, los segmentos del espejo que ya estén montados
recibirán su «primera luz» de las estrellas. «Y a partir de ahí -dice Álvarez-
empezarán las pruebas de los astrónomos».
José Miguel Rodríguez Espinosa, director científico, puntualiza que «lo que se
busca con las pruebas de cielo es hacer un «modelo» de telescopio. Al moverse,
por ejemplo, el instrumento cede algo bajo su propio peso y se inclina, aunque
sea unos milímetros, a causa de la gravedad. Al apuntar hacia una estrella
lejana, esa desviación hace que se apunte mal. Hay que construir un modelo que
tenga en cuenta esas posibles desviaciones, elaborar tablas de datos e
introducirlas en la memoria del telescopio, para que haga cálculos correctos y
logre apuntar bien».
NUMEROSAS SOLICITUDES
Rodríguez Espinosa, además de director, es astrofísico y trabaja en el campo de
las galaxias activas, aquellas en cuyos centros hay grandes agujeros negros
devorando estrellas y planetas de forma continua. Y él, también, está «a la
cola» de los científicos que han solicitado tiempo para trabajar con el
telescopio. «Eso -comenta- depende de un Comité de Asignación de Tiempo (CAT)
que evalúa los proyectos».
Fuente: ABC, 12 de Marzo de 2007
-Grupo de telómeros y telomerasa
María Blasco es Vicedirectora de Investigación Básica del Centro Nacional de Investigaciones Oncológicas, directora del Programa de Oncología Molecular y jefa del grupo de Telómeros y Telomerasa. Además, es miembro del Consejo de la selecta y prestigiosa Academia Europea.
Desde el punto de vista biológico, un ser humano es un organismo compuesto por unos 95 billones de células inmersas en un continuo ciclo de nacimiento y muerte. La vida es por tanto el proceso inexorable en el que este grupo de células que tuvieron su principio tienen también su fin. Desde el prólogo hasta el epílogo de esta historia se encuentra escrito en nuestros más de 30.000 mil genes, y sus combinaciones. Sin embargo, este lenguaje biológico es tan criptográfico, que muy pocos están capacitados para descifrarlo. La doctora María Blasco es una de las personas que más ha trabajado esta privilegiada capacidad.
fortunadamente, el ser humano tiene otras dimensiones y
cualidades que la puramente biológica. Una de las más genuinas es su instinto
curioso, al que se unen su sociabilidad y su habilidad para comunicarse y crear
una cultura transmisible. Estas características podrían definir el concepto de
ciencia, y es precisamente esta actividad humana la que trabaja y está en
condiciones de conseguir que esas deterministas leyes biológicas puedan ser
modificadas para el beneficio de la propia especie. Es decir, somos organismos
capacitados para desafiar la selección natural. El desafío no es precisamente
fácil, y las veces en las que triunfamos, en términos de vida o muerte, son
todavía mucho más escasas que en las que perdemos. El envejecimiento y el cáncer
son dos procesos biológicos que nos lo recuerdan diariamente desde el principio
de los Tiempos. Pero poco a poco, en el terreno de la genética, vamos logrando
avances que nos hacen más comprensibles las leyes biológicas, y, por tanto, más
tratables, por conocidas. Una de las personas que más saben sobre ello en el
mundo es española e investiga en nuestro país, un binomio menos común de lo
deseable. Su nombre es María Blasco y es vicedirectora del Centro Nacional de
Investigaciones Oncológicas (CNIO), una institución especialmente fértil en
resultados y reconocimientos en este campo.
La actividad investigadora de esta científica está especializada en los
telómeros y la telomerasa. Los telómeros son regiones de ADN no codificante
situados en los extremos de los cromosomas, de los que depende el tiempo de vida
de las células, además de su estructura. Explicado de una manera más ilustrativa
por María Blasco, los telómeros son "como tener un bono para la noria con un
número limitado de pases. El número de estos pases está determinado
genéticamente, ya que la longitud de los telómeros es heredada. Cada vez que
damos una vuelta en la noria, es decir, cada vez que se dividen nuestras células
para regenerar los tejidos, se gasta un pase, hasta que nos quedamos sin pases y
no podemos dar más vueltas." La telomerasa es una enzima decisiva en los
procesos de incremento de los telómeros. A mayor longitud de los telómeros en
los cromosomas mayor tiempo de vida.
Siguiendo con el símil de la noria, la investigadora del CNIO nos define a la
telomerasa como "una máquina expendedora de pases, que nos permitiría dar
vueltas infinitamente. Las células tumorales tienen telomerasa de manera
aberrante y esto les permite dividirse inmortalmente. Sin embargo, las células
normales no tienen suficiente telomerasa para ser inmortales."
Investigaciones decisivas
El 21 de enero de 2007 el grupo de Telómeros y Telomerasa del CNIO publicaba en
la revista Nature Genetics -la de mayor factor de impacto en genética- un
trabajo en el que se demuestra, por primera vez, que el acortamiento de los
telómeros causa defectos epigenéticos, o estructurales, en las células. La
investigación llevada a cabo por las investigadoras Roberta Benetti y María
García-Cao, dentro del grupo que dirige María Blasco, concluye que "cuando los
telómeros se acortan a una longitud muy corta se producen cambios en su
arquitectura, denominados cambios epigenéticos, que pueden resultar en una
lectura alterada de la información almacenada en los genes. A su vez - nos dice
María Blasco- esta lectura aberrante de los genes podría contribuir al cáncer y
al envejecimiento, ya que ambas patologías se caracterizan por tener telómeros
muy cortos". Este proyecto, financiado por la Unión Europea, los Ministerios de
Sanidad y Educación y Ciencia, la Comunidad de Madrid y la Fundación Josef
Steiner, supone una continuidad en la investigación del grupo sobre epigenética
y telómeros, cuyos resultados han sido sucesivamente publicados desde el año
2002 en las revistas Nature Genetics y Nature Cell Biology.
Una de estas investigaciones, les llevó en 2005 a demostrar la importancia de la
proteína telomérica TRF2 en los procesos de cáncer y envejecimiento. En el
laboratorio, los ratones "enriquecidos" con esta proteína desarrollaban un
síndrome caracterizado por el envejecimiento prematuro de la piel y una mayor
incidencia de cáncer de piel. Por tanto, la TRF2 le robaba la negra exclusividad
a la telomerasa.
El otro proyecto culminado en este 2007 por el Grupo de Telómeros y Telomerasa
del CNIO nos ha aportado una herramienta decisiva para analizar la longitud
telomérica, y, por tanto, la "esperanza de vida" celular. Iniciada en 2004, con
financiación europea, la investigación "Zincage. Nutritional zinc, oxidative
stress and inmunosenescence: biochemical, genetic and lifestyle implications for
healthy ageing" ha resultado en una herramienta de análisis de longitud
telomérica de alto rendimiento (high-thoughput Q-FISH), que permite medir los
telómeros en muestras de sangre. "Hemos confirmado, además, que los telómeros se
acortan con la edad tanto en hombres como mujeres. Sin embargo, las mujeres
tienen los telómeros más largos que los hombres para cada grupo de edad. Así
mismo, hemos visto que hay diferencias significativas en la longitud telomérica
entre distintos países europeos, lo cual indica que la longitud de los telómeros
está determinada tanto por factores genéticos como ambientales. Los franceses
tienen telómeros inusualmente largos comparados con otros países, lo que podría
explicar la llamada "paradoja francesa", que consiste en que los franceses tiene
muy bajo riesgo cardiovascular a pesar de tener dietas muy altas en colesterol",
nos resume la doctora Blasco. El trabajo se publicará próximamente en la revista
PNAS. Estos resultados nos demuestran que se puede cuantificar la esperanza de
vida genética de un ser humano, a partir de la longitud de sus telómeros, lo
cual, nos dice María Blasco, "ya se podía hacer, pero nuestra herramienta
permite hacer estos análisis de una manera más precisa y rápida, estudiando
hasta noventa muestras a la vez".
También queda de manifiesto en Zincage que diversos factores externos
afectan a nuestra genética, en este caso a la longitud de los telómeros. Fumar,
estilos de vida, obesidad e incluso nivel socioeconómico son algunos de los
factores ambientales, que no son los únicos condicionantes, pues factores
psicosociales, como el stress percibido y la capacidad cognitiva también tienen
su protagonismo. "Sin embargo, son necesarios más estudios de tipo
epidemiológico para determinar la importancia de éstos y otros factores en el
mantenimiento de los telómeros", según la investigadora.
Telomerasa, enzima de la inmortalidad
Esta Doctora en Ciencias por la Universidad Autónoma de Madrid, cuya tesis
dirigió otra de las grandes de nuestra ciencia, Margarita Salas, habla con una
familiaridad pasmosa de la posibilidad de intervenir en la longevidad de un
organismo alterando sus genes: "Sí, ya es factible. Desde hace ya bastante años
se ha conseguido aumentar la longevidad de organismos inferiores como el gusano
C. elegans o la mosca del vinagre Drosophila melanogaster, de
manera genética. La asignatura pendiente es alargar la vida de un ratón
alterando sus genes."
Y ¿a qué no es difícil adivinar cuál es el próximo proyecto del grupo que dirige
María Blasco? Efectivamente, alargar la vida de un ratón, con el objetivo de
identificar qué genes son importantes para modular el envejecimiento en
mamíferos. La identificación de estos genes supone descubrir potenciales dianas
terapéuticas contra el envejecimiento, y así poder desarrollar fármacos.
"Queremos alargar la vida de un ratón mediante la telomerasa, sin que esto
resulte en un aumento del cáncer. Es una asignatura pendiente, y los ratones son
los modelos genéticos por excelencia para entender el papel de los genes en las
patologías humanas." En este caso, además de los científicos del CNIO, hay dos
protagonistas, la telomerasa y el ratón. Sobre la primera, María Blasco afirma
que controlar la activación o inhibición de la telomerasa equivale a la
posibilidad de actuar sobre el envejecimiento celular y las patologías asociadas
a este proceso. "En el caso de la células cultivadas en el laboratorio, la
telomerasa es suficiente para convertir una célula mortal en inmortal. De hecho,
a la telomerasa también se le ha denominado la "enzima de la inmortalidad". Así
mismo, la pérdida de telómeros es suficiente para hacer que una célula
envejezca. El objetivo es hacer ratones más longevos modulando la cantidad de
telomerasa".
¿Y por qué esta fijación con los inocentes ratones?, se preguntarán. "Los
ratones son los mamíferos que mas fácilmente podemos alterar genéticamente.
Además, al igual que los humanos, los ratones padecen cáncer y sufren de
enfermedades asociadas al envejecimiento, muy similares a las humanas. Desde los
años 70-80 en que se desarrollaron las tecnologías de transgénesis en ratón, se
han creado cientos de nuevas cepas de ratones modificadas genéticamente, lo cual
nos permite entender el papel de esos genes en patologías como el cáncer. Si un
gen produce cáncer en un ratón, es muy posible que lo produzca en humanos.
Igualmente, si quitando un gen conseguimos que un ratón no desarrolle cáncer
esto indica que este gen es una buena diana terapéutica contra la cual
desarrollar fármacos. Lo mismo aplicaría a las patologías asociadas al
envejecimiento". Como ven, está justificado.
Ética, ciencia y conocimiento
Siempre que se habla de genética, especialmente cuando nos proponemos
modificarla, y en algunos casos, cuando para ello se utilizan animales, surge
irremediablemente el debate sobre la ética y los límites de la investigación.
Los fines que tienen estos proyectos no tendrían por qué plantear ningún debate,
pero sobre ello María Blasco nos dice: "Creo que las consideraciones éticas
están claras: mientras se pueda hacer algo para mejorar la calidad de vida
humana y hacer que vivamos más y mejor, se hará. La genética se ha quedado
obsoleta, y la burlamos con fármacos que nos permiten vivir más y mejor. El
problema es que haya países subdesarrollados donde la gente todavía se muera de
infecciones debido a la falta de desarrollo económico. Éste para mí es el
problema ético: que los avances de la ciencia no están ahora, ni estarán en el
futuro, al alcance de todos."
En esta reflexión queda suficientemente evidenciada su postura ética. Su
posicionamiento en otro gran debate, esta vez exclusivamente científico, en
torno a la genética, también es concluyente. La controversia se centra en el
determinismo absoluto de la genética sobre nuestra vida, asunto sobre el que
existe un consenso más o menos sólido, pero sobre el que se han producido
históricos cruces de opiniones y a veces no demasiado fundamentados
científicamente. "Los genes son responsables sólo de una parte de las
patologías, sobre todo de las infantiles. La mayor parte de las enfermedades
adultas resultan de la combinación de genes y de factores ambientales. Por
ejemplo, procesos inflamatorios o los hábitos alimentarios pueden ser mas
decisivos en que tengamos un cáncer que nuestros genes." Y hablando de
conocimientos científicos y de cáncer, la última cuestión para abordar es
conocer su opinión sobre los factores que hacen que la investigación pueda
optimizar sus esfuerzos en España: "Para mí, hay dos factores decisivos para
desarrollar un área de investigación al máximo nivel. El primero es hacer que
los mejores estudiantes se formen en los mejores laboratorios del mundo, y allí
consigan prestigio y reconocimiento internacional, que sean conocidos por los
líderes del campo. Esto es algo que muy pocos consiguen, pero que hay que seguir
fomentando. El segundo es que el Gobierno central y los gobiernos de las
comunidades autónomas apuesten por la creación de nuevos centros de
investigación en los que acoger a nuestros mejores científicos internacionales,
dándoles espacio, financiación, y libertad administrativa para desarrollar su
investigación. Además, estos centros de investigación tienen que estar dirigidos
por científicos activos y de prestigio internacional, que garanticen que el
principal objetivo del centro será la excelencia científica, comparándose sólo
con los mejores centros del mundo."
Y esto no lo dice María Blasco, pero es fácil coincidir en que ella es un claro
ejemplo de los frutos de trabajar en la dirección que propone. Esta bióloga, que
fue becaria post-doc en el Cold Spring Harbor, de Nueva York, es una de la
científicas más reconocidas del mundo en el ámbito de la oncología y el
envejecimiento, con más de una decena de premios internacionales como
investigadora, miembro de la Academia Europea, editora de revistas
especializadas, y, por concluir, no porque se acabe el currículo, con casi una
veintena de publicaciones con un índice de impacto mayor que quince.
Ah! Y no debe de tener muchos más de cuarenta años.
Fuente: mi+d, 12 de Marzo de 2007
-Evolución dentro de la misma especie
Un equipo de tres investigadores del Museo Nacional de
Ciencias Naturales, perteneciente al
Consejo Superior de
Investigaciones Científicas, en colaboración con un investigador de la
Universidad de California, ha identificado las pistas del desarrollo que
diferencian la ontogénesis de embriones vivíparos y ovovivíparos de la
salamandra común (Salamadra salamandra). El trabajo se publica en el
último número de la revista
Evolution & Development, y junto a estudios filogenéticos y
filogeográficos anteriores, constituye un paso esencial para entender el origen
de la aparición del viviparismo y del canibalismo intrauterino.
Según los investigadores, la forma en que los cambios microevolutivos conducen a
acontecimientos macroevolutivos originales es una de las grandes incógnitas de
la Biología Evolutiva. El investigador formado en el Museo Nacional de Ciencias
Naturales David Buckley, primer autor de la publicación explica: "el caso de la
salamandra común representa un sistema biológico único donde la aparición de
novedades evolutivas se puede estudiar dentro de la misma especie, es decir, a
escala microevolutiva".
Normalmente los cambios macroevolutivos sólo se estudian en linajes
completamente diferenciados, pero en esta investigación la variación de los
modos reproductivos asociada a las secuencias de desarrollo se puede estudiar
dentro de la misma especie", afirman Mario García-París y Marina Alcobendas,
directores del trabajo de Buckley. "El viviparismo se conforma, por tanto, como
un sistema único para el examen del origen de innovaciones macroevolutivas, por
lo que estas zonas reproductivas híbridas constituyen laboratorios insólitos
naturales para estudiar la dinámica de la evolución de la novedad evolutiva",
concluye García-París.
UN DESARROLLO HETEROCRÓNICO
Para David Buckley, existe un interés doble en la salamandra común. "En S.
salamandra se dan dos modos distintos de reproducción: el ovovivíparo (las
hembras paren muchas larvas acuáticas) y el vivíparo (hembras que producen sólo
unas pocas crías terrestres)". Esta especie permite el análisis empírico de
cambios evolutivos por la modificación de programas del desarrollo (del
ovoviviparismo al viviparismo). Por ello, "esta salamandra representa un modelo
biológico único", afirma Buckley.
Los investigadores han comparado el desarrollo in vitro (de la
fertilización a la metamorfosis) de los embriones ovovivíparos y vivíparos de
salamandras y han detallado los acontecimientos-clave que distinguen los dos
modos de reproducción. Para el estudio, se han diferenciado las etapas del
desarrollo de los embriones ovovivíparos y vivíparos sobre un eje temporal
(desde la incubación y el principio de alimentación activa hasta la
metamorfosis). El desarrollo de los embriones vivíparos se combina con la
presencia de huevos abortivos y sin fertilizar que, junto a la aceleración de
las secuencias del desarrollo, provoca el desplazamiento de la incubación y de
las estructuras relacionadas con la alimentación, es decir, la heterocronía. Por
consiguiente, en embriones vivíparos la fase del desarrollo se acorta
drásticamente en comparación con los individuos ovovivíparos.
LAS CAUSAS DEL CANIBALISMO INTRAUTERINO
El canibalismo intrauterino se da en los embriones vivíparos, pero nunca ocurre
en embriones ovovivíparos. Según los análisis de los investigadores, la
incubación precoz y la apertura de la boca, junto con la temprana diferenciación
de la vía digestiva, permiten la alimentación de los embriones vivíparos dentro
del útero materno con huevos abortivos o con algunos de sus hermanos. Aunque ni
la boca ni la dentadura se desarrollen completamente, los embriones son capaces
de ingerir los huevos grandes. La yema ingerida llena la parte anterior de la
vía digestiva, formada precozmente en embriones vivíparos.
Fuente: mi+d, 12 de Marzo de 2007
-Los submarinos pronto imitarán a los peces
Un sistema inspirado en la llamada "línea lateral" de los
peces, con la que estos animales pueden evitar obstáculos o rastrear presas, ha
sido desarrollado de manera artificial por científicos norteamericanos para
aplicarlo en submarinos y robots acuáticos. Compuesto por unos sensores capaces
de detectar cambios en la presión y el movimiento del agua, la novedosa
tecnología podría servir para completar la información que habitualmente
registran el sonar y los sistemas de detección tradicionales de los submarinos.
Las primeras pruebas ya han sido realizadas con éxito, demostrando que, gracias
a dicho sistema, se puede localizar una fuente de vibración acuática cercana,
así como detectar estelas hidrodinámicas (como las que dejan las hélices de los
submarinos) en rastreos de larga distancia.
Un sistema inspirado en la llamada "línea lateral" de los
peces, con la que estos animales pueden evitar obstáculos o rastrear presas, ha
sido desarrollado de manera artificial por científicos norteamericanos para
aplicarlo en submarinos y robots acuáticos.
Los peces o las bacterias acuáticas consiguen encontrar una presa o evitar
convertirse ellos mismos en presas de otros depredadores gracias a un órgano
sensorial denominado "línea lateral", que consiste en un canal que se extiende a
lo largo de los laterales del cuerpo y que se comunica con el exterior a través
de poros sensoriales y escamas que detectan vibraciones de baja frecuencia y
diferencias de presión.
Este detector natural de presencias cercanas ha inspirado a un equipo de
científicos de la universidad de Illinois en Urbana-Champaign (Estados Unidos),
liderados por el profesor Chang Liu, para desarrollar una línea lateral
artificial que funcionaría de la misma forma, pero aplicada a vehículos
submarinos.
Según publica el centro Engineering at Illinois, de dicha universidad, en un
comunicado, el sistema serviría para aumentar la habilidad humana de detección,
navegación y supervivencia en el medio submarino.
GUÍA Y RASTREO
En los peces, la línea lateral sirve de guía para la sincronización de los
desplazamientos, para evitar depredadores y obstáculos, y para detectar y
rastrear a las presas. Un submarino o un robot submarino equipados con una línea
lateral artificial podrían detectar y rastrear de la misma forma objetivos bajo
el agua, y evitar colisiones con objetos quietos o en movimiento.
El sistema consiste en una serie lineal integrada por micro sensores
individuales, separados entre sí de manera similar a como se separan los
sensores naturales de los peces.
Estos sensores son capaces de detectar cambios en la presión y el movimiento del
agua, por lo que servirían para completar la información que habitualmente
registran el sonar y los sistemas de detección tradicionales en los submarinos y
robots acuáticos.
Para fabricar las finas estructuras tridimensionales que componen esta línea
lateral artificial, los investigadores aplicaron las técnicas de grabado de
circuitos en semiconductores. Las minúsculas piezas diminutas que equivaldrían a
las células sensoriales de los peces, se elaboraron sobre un material magnético.
En la última etapa de fabricación, un campo magnético las hizo girar para que se
colocaran adecuadamente.
PRUEBAS PROMETEDORAS
Cada uno de los sensores de fluido (diseñados para registrar la variación de
presión del agua) mide 400 micras de ancho y 600 de alto y están separados entre
sí por una distancia de un milímetro. Se encuentran alineados formando un
prototipo de línea lateral, que ya ha sido probado.
En los tests, el sistema demostró que era capaz de localizar una fuente de
vibración submarina cercana, así como detectar estelas hidrodinámicas (como las
que dejan las hélices de los submarinos) en rastreos de larga distancia.
Con posteriores avances en la tecnología, podrían hacerse vehículos submarinos
capaces de registrar los fenómenos hidrodinámicos de su alrededor de manera
autónoma, publica Liu en dicho comunicado.
Los científicos reconocen que aún la biología es muy superior a la ingeniería
humana, pero añaden que ésta debe aprender mucho de los sistemas biológicos. Los
resultados de este trabajo han sido publicados en la revista
Proceedings of the National Academy of Sciences.
Fuente: Tendencias 21, 9 de Marzo de 2007
Los avances significativos en nanotecnología permiten visualizar y manipular la materia en escalas cada vez más pequeñas, mediante los llamados microscopios de proximidad.
En un artículo publicado en el último número de la revista
Nature,
científicos de las Universidades de
Osaka (Japón) y
Autónoma de Madrid demuestran
como es posible añadir a estas capacidades la posibilidad de identificar la
especie química de átomos individuales sobre una superficie utilizando el
microscopio de fuerzas atómicas (AFM, Atomic Force Microscope)[1].
Este método abre perspectivas nuevas en numerosos campos de interés tecnológico,
como la catálisis (control de reacciones químicas sobre superficies) o la
nanoelectrónica, donde nos acerca, por ejemplo, a la posible construcción de
nanoestructuras como los qbits, componentes básicos de lo que podría
llegar a ser un ordenador cuántico.
El funcionamiento de un AFM es similar al que tenían los antiguos tocadiscos o
al uso de un bastón por una persona invidente: Una punta afilada, montada al
final de una barra de tamaño micrométrico, recorre la superficie desplazándose
verticalmente para seguir su relieve. Si la punta está tan afilada que termina
en un solo átomo deberíamos poder obtener imágenes de los átomos de la
superficie. En realidad, la técnica necesaria es un poco más compleja. Al pasar
la punta por la superficie, "tocándola" (modo contacto), se corre el riesgo de
modificarla. Para evitar este problema, el microscopio se opera en un modo de
funcionamiento distinto, el modo dinámico, en el que la punta oscila, alejándose
y acercándose periódicamente a la superficie sin llegar a chocar con ella. La
interacción con la superficie "frena" el movimiento de la punta y cambia el
tiempo que la punta tarda en realizar una oscilación completa. De estos pequeños
cambios, que podemos medir de forma muy precisa como función de la distancia de
máximo acercamiento, es posible obtener la fuerza asociada al enlace químico
entre el último átomo de la punta y el más cercano de la superficie.
Estas medidas permiten crear una imagen de los átomos individuales que forman la
superficie pero no son suficientes para identificar la especie química de cada
uno de ellos: Tanto los valores absolutos de las fuerzas como su variación con
la distancia dependen de la estructura de la punta, cuya terminación exacta es
desconocida. Por ello, las fuerzas varían en cada sesión experimental aunque se
midan sobre átomos superficiales idénticos. El avance significativo que se ha
dado en este trabajo es el descubrimiento de una magnitud que es independiente
de la punta: la división entre los valores de la fuerza máxima atractiva medida
para dos especies químicas. Este cociente proporciona una "huella dactilar", que
se puede determinar en una superficie formada por sólo dos especies químicas
conocidas, y utilizar mas tarde en una superficie desconocida, donde varios
tipos de átomos están presentes, para identificar su naturaleza química
individual.
Fuente: mi+d, 6 de marzo de 2007
-Un paso más hacia el genoma del cáncer
Uno de los intentos más ambiciosos llevados a cabo hasta ahora para tratar de descifrar el genoma del cáncer ha permitido identificar por primera vez importantes mutaciones genéticas implicadas en la aparición y desarrollo de un tumor; muchas de ellas desconocidas hasta ahora.
Los resultados de dos estudios publicados
simultáneamente en las páginas de la revista
'Nature' permiten dar un
paso más hacia el conocimiento de la biología del cáncer.
En uno de estos trabajos, llevado a cabo en el
Instituto Wellcome Trust Sanger, en Cambridge
(Reino Unido), los científicos secuenciaron más de 500 genes extraídos de 210
muestras de tumores diferentes (de mama, pulmón, colon o estómago, entre otros).
En total, 250 millones de letras del código genético que revelaron nada menos
que 1.000 mutaciones diferentes. "Este trabajo demuestra, a partir de la
secuenciación de un volumen importante de muestras, lo que ya se sospechaba, que
existen muchas mutaciones somáticas en los diferentes tipos de tumores y que
unas son más importantes que otras", explica Alfredo Martínez, investigador del
Instituto Cajal del
Consejo Superior de Investigaciones Científicas de Madrid.
Un tumor maligno es el resultado de una acumulación de mutaciones y otros
cambios genéticos en ciertas células. Y aunque hasta ahora se habían descrito
anomalías en alrededor de 350 genes, la realidad es que todavía se desconoce el
número real de 'genes del cáncer'. Hay que tener en cuenta que el genoma humano
está formado por más de 20.000 genes y, de momento, ningún científico se anima a
descartar ninguno de ellos en el proceso del cáncer.
Los investigadores centraron su análisis sólo en 518 genes por pertenecer a un
tipo denominado cinasas (en inglés, kinasas); un grupo que ya ha sido
ampliamente estudiado hasta ahora por su relación con el proceso tumoral y de
los que se sospecha que pueden convertirse en buenas 'dianas' para futuros
tratamientos (como ya ha ocurrido por ejemplo con Glivec para la leucemia
mieloide crónica).
Las cinasas son enzimas que activan (o desactivan) otras proteínas agregándoles
un grupo fosfato. "Son muy importantes como transmisores de señales y por su
función en el ciclo celular [como es el caso de la división incontrolada que
puede dar lugar a la formación de un tumor]", señala Javier Benítez, jefe del
Grupo de Genética Humana del
Centro Nacional de Investigaciones Oncológicas (CNIO).
EL GENOMA DE LAS CINASAS
Este análisis del 'cinoma' (un juego de palabras a partir de las cinasas y el
genoma) reveló muchas más mutaciones de las que hasta ahora se conocían, pero
además permitió distinguir la presencia de los llamados 'genes conductores' y
'genes viajeros'.
Los investigadores bautizaron con el apelativo de 'conductoras' a 158 mutaciones
detectadas en 120 genes que resultaron ser clave en el proceso de desarrollo del
tumor. El resto, la mayoría, no parece jugar ningún papel en la aparición del
cáncer, aunque sí se ven alterados a lo largo del proceso.
El análisis también reveló una amplia variedad en el número y la pauta de estas
mutaciones de unos tipos de cáncer a otros, lo que parece revelar diferentes
defectos y orígenes celulares. O bien puede que reflejen diversas exposiciones a
elementos carcinogénicos, como los rayos del sol o el tabaco en el caso del
melanoma y el cáncer de pulmón, respectivamente.
"Parece que la mayor parte de estas mutaciones descubiertas son 'viajeras'",
apunta el doctor Andy Futreal, firmante de este estudio y codirector del
Proyecto Genoma del Cáncer. "Aunque también hemos descubierto que, enterradas
entre ellas, hay muchas más mutaciones 'conductoras' de lo que habíamos supuesto
hasta ahora. Y esto sugiere que los genes que contribuyen al desarrollo del
cáncer son muchos más de lo que se sospechaba".
"Este trabajo ha identificado algunos de los cambios genéticos que experimentan
varios tipos de tumores. Se trata de definir la biología del tumor, a partir de
la cual se pueden identificar algunas vías para diseñar fármacos eficaces",
explica Javier Benítez.
HARÁN FALTA ANÁLISIS MÁS AMPLIOS
El siguiente paso será aprender a distinguir a los 'conductores' y 'viajeros'
presentes en el mismo cáncer. Algo para lo que serán necesarias muchas más
muestras que las empleadas en este caso, y en lo que las potentes tecnologías de
secuenciación del ADN tendrán vital importancia.
De hecho, como advierten en un comentario en la misma revista Daniel Haber y
Jeff Settleman, del
Hospital General de Massachusetts, "hará falta
[analizar] un gran número de muestras para lograr captar todo el repertorio de
heterogeneidad genética del cáncer".
Un proyecto al que ya se ha puesto manos a la obra el
Instituto
Nacional del Cáncer de EE.UU., que pretende
estudiar nada menos que 12.500 muestras tumorales (250 de 50 tipos de cáncer
diferentes). Y como apuntan los investigadores, no es descabellado pensar que
cuando se lleve a cabo este análisis más amplio, se descubra que el número de
genes mutados en el cáncer es mayor de lo que hasta ahora se podía imaginar.
No obstante, como reconoce Benítez, todavía faltan muchos años de investigación
para analizar los miles de genes que conforman el genoma humano y conocer su
papel en el desarrollo de los numerosos tumores que afectan a nuestra salud.
De la misma opinión es Alfredo Martínez que señala que a partir de este trabajo
se desarrollarán muchos estudios para comprobar si estos genes tienen un efecto
concreto en el cáncer. "En un futuro habría que hacer un listado con los genes
más implicados en un tumor determinado. Quizás de aquí a cinco o seis años
contemos con marcadores por cada paciente que nos permitan ajustar el
tratamiento a su cáncer específico", apunta.
El segundo de los documentos, firmado por especialistas del
Hospital
Infantil St. Jude, de Memphis (EE.UU.), se
centró exclusivamente en el análisis de mutaciones genéticas relacionadas con la
leucemia linfoblástica aguda. Mediante el estudio del ADN de las células
enfermas de 242 niños con esta patología, los investigadores han podido obtener
un completo catálogo de 'lesiones genéticas' de este cáncer, algunas de ellas
nunca relacionadas con este tipo de leucemia.
Fuente: El Mundo, 8 de Marzo de 2007
-Los dilemas éticos de la robótica
El Gobierno de Corea del Sur prepara la publicación de un código ético para prevenir los abusos de humanos a robots y viceversa, informa la página web de la BBC.
La Carta de Ética para Robots recoge
una serie de principios que afectarán tanto a los fabricantes de los ingenios
como a los mismos usuarios y está previsto que despliegue sus efectos para
finales de año. En su elaboración participa un equipo que incluye a científicos
y escritores de novelas de ficción. La robótica es una de las claves del
crecimiento económico del país asiático y las autoridades de Seúl invierten
millones de euros anuales en investigaciones al respecto.
"El Gobierno establecerá una serie de principios éticos relativos al papel y a
las funciones que desempeñan en la actualidad los robots, teniendo en cuenta que
en el futuro irán adquiriendo tareas que impliquen una inteligencia mayor", ha
explicado el ministro de Comercio, Industria y Energía. Las palabras de este
responsable se apoyan en un reciente informe oficial que vaticina que los
robots, conforme su mecanismo sea más sofisticado, tendrán mayor protagonismo.
Su presencia se multiplicará en la sociedad: en el año 2018 sustituirán a los
cirujanos para operaciones rutinarias que no requieran una gran especialización,
según este dossier.
CUESTIONES ÉTICAS
Corea del Sur es una de las naciones más tecnificadas del planeta. Sus
ciudadanos disfrutan de las conexiones a Internet más rápidas del mundo y tienen
acceso, mucho antes que los países occidentales, a la tecnología móvil más
puntera. En consecuencia, su Gobierno está muy comprometido con los avances en
nuevas tecnologías. En este contexto, el ministro de Información y
Comunicaciones ha predicho que todos los hogares coreanos tendrán un robot para
que les facilite las tareas diarias antes de 2020.
Por ello la necesidad de adoptar una especie de tratado o carta fundacional que
establezca los pilares de la nueva, y en principio duradera, relación entre
robots y humanos. "Imagínense si la gente tratara a los androides como si fueran
sus mujeres", ha apuntado Park Hye-Young, uno de los especialistas implicados en
la normativa. "Otros podrían convertir el trato con la máquina en una adicción,
parecida a la que provoca el uso excesivo de Internet".
Las pautas que prepara Corea del Sur se inspiran en las tres leyes de la
robótica formuladas por el célebre escritor Isaac Asimov en su relato Runaround,
de 1942:
1) Un robot no debe de agredir a un humano ni, con su inacción, permitir que un
humano sufra algún daño
2) Un robot debe obedecer las órdenes dadas por los seres humanos salvo si dicho
mandato entra en conflicto con la primera de las leyes arriba formulada.
3) Un robot debe proteger su propia existencia siempre y cuando no entre en
conflicto con la primera y la segunda de estas leyes.
Traducidos al mundo real dichos principios supondrán el establecimiento de una
serie de garantías para que el uso que hacen los humanos de los robots no
termine siendo abusivo, con especial énfasis en la protección de los datos
adquiridos por un robot para prevenir su uso ilegal.
La importancia de los robots también ha sido tomada en consideración por otros
países mucho menos tecnificados. Un estudio del Gobierno británico publicado en
2006 vaticinó que en los próximos 50 años los robots demandarían los mismos
derechos que actualmente ostentan los humanos. El Centro de Investigación
Europeo de Robótica también prepara un código de pautas y conductas respecto al
uso de robots. Esta hoja de ruta ética ha sido promovida por investigadores que
creen que los robots rápidamente se introducirán en disciplinas hasta ahora
desconocidas para ellos como la física nuclear y la bioingeniería.
Uno de los principios de este código es rotundo en su formulación: "En el siglo
XXI los humanos tendrán que convivir con la primera inteligencia artificial
extraterrestre en la historia de la humanidad: los robots. Será un encuentro que
provocará problemas de tipo ético, social y económico".
Fuente: El País, 8 de Marzo de 2007
-El agua que fluía en la superficie marciana posiblemente no se mantuvo en estado líquido
Los investigadores plantean una teoría
alternativa para explicar la presencia en Marte de depósitos de evaporita, un
tipo de rocas sedimentarias formadas tras la evaporación de agua. Los sedimentos
ricos en sulfato, que algunos especialistas creen son los restos de océanos de
agua evaporados desde hace tiempo, podrían haberse formado al emanar agua de la
superficie del planeta y evaporarse.
Los autores explican que cuando el 'Opportunity Mars Exploration Rover'
aterrizó, su descubrimiento de depósitos de evaporita en la región 'Meridiani
Planum' fue aclamada por algunos como una evidencia de que había existido agua
líquida en la superficie de Marte durante periodos significativos del pasado del
planeta rojo. Pero sin embargo, los críticos apuntan a la carencia de una cuenca
cerrada en la localización del 'Meridiani Planum' como un posible problema de
esta interpretación.
El equipo de investigadores dirigido por Jeffrey C. Andrews-Hanna presenta los
resultados de un modelo de estudio sobre la hidrología global del planeta. Su
modelo predice dónde podría haber emanado el agua sobre la superficie marciana a
lo largo del tiempo y apunta al área del 'Meridiani Planum' como una de las
regiones en las que se habrían formado significativos depósitos de evaporita.
Los científicos sugieren en su trabajo que no sería necesaria la existencia de
concentraciones permanentes de agua para explicar la formación y distribución de
depósitos de evaporita en Marte.
Fuente: La Vanguardia Digital, 8 de Marzo de 2007
-Consiguen leer los pensamientos
En un laboratorio alemán saben lo que vas a hacer incluso antes de que lo pienses. No es ciencia ficción, ni una película al estilo Minority Report, es una realidad conseguida mediante un escáner cerebral. No es la primera vez que se consigue "ver" los pensamientos de una persona pero sí que se logra detectar las decisiones de alguien antes de que las tome.
El experimento
consiste en seleccionar a un voluntario para que se someta a un escáner
cerebral. El voluntario se desliza dentro de la máquina y sólo tiene que decidir
si sumar o restar dos cifras. Únicamente tiene que elegir entre dos
posibilidades: añadir o sustraer. Mientras, él no sabe que en la sala de al
lado, un grupo de científicos está tratando de leer su mente, usando un escáner
para descifrar su intención antes de que se convierta en acción.
Hace ya algún tiempo que los científicos consiguieron detectar las intenciones
de una persona antes de realizar un movimiento físico. La novedad está, en que
por primera vez, se han identificado las decisiones de un grupo de gente sobre
lo que más tarde harán en un grado alto de actividad mental, no física, en este
caso sumar o restar. Los autores de la proeza son un grupo de investigadores del
Bernstein Center for Computational Neuroscience
de Berlín, que piensan aplicar, en un futuro, su descubrimiento en áreas como
interrogatorios criminales o control de pasajeros en aeropuertos.
DISPUTA ENTRE LOS CIENTÍFICOS
El laboratorio Bernstein de Berlín, reclama ser el primero en haber llegado
hasta este punto, pero investigadores estadounidenses afirman haber identificado
mucho antes diferentes tipos de actividad cerebral, con lo que desarrollaron
escáneres cerebrales diseñados para detectar mentiras. Pero, los científicos de
otros países están de acuerdo en que el experimento del Doctor John Dylan Haynes
en este centro es realmente rompedor.
La opinión del doctor Paul Wolpe, profesor de psiquiatría en la
Universidad de Pensilvania, que no pertenece al
proyecto, es que "el hecho de que podamos determinar la intención de una persona
en su mente, eleva el nivel de nuestro entendimiento del pensamiento subjetivo a
un nuevo escalón" lo que para él supone un salto gigante en el estudio de esta
disciplina, aunque aún es pronto para adelantar éxitos, ya que sólo se ha
probado en 21 personas.
También existe otro proyecto alemán, del
Max Planck Institute for Human Cognitive and Brain
Sciences en Leizpig, que ha generado un fuerte
interés en la comunidad científica. En este caso, los voluntarios tuvieron que
decidir si sumar o restar dos cifras antes de que éstas les fueran dadas. De
este modo, ellos pensaban cuál de las dos opciones elegir mientras una
computadora capturaba imágenes de sus ondas cerebrales para predecir su decisión
final, incluso antes de que pudieran ver los dos números.
ATRIBUCIONES PRÁCTICAS
"El experimento de Haynes, da de lleno en la clave de cómo de buenos llegaremos
a ser prediciendo comportamientos" ha señalado el doctor Todd Braver, profesor
asociado del departamento de psicología de la
Universidad de Washington, dejando muy claro
que este experimento es revolucionario. "Las barreras que existían en lectura de
mentes, están empezando a romperse" indica. El equipo de Haynes empezó su
investigación, tratando de identificar qué parte de la mente era la que
almacenaba las intenciones. Descubrieron que se encontraban en la región
prefrontal del córtex, gracias a que buscaban ráfagas de actividad cuando los
sujetos pensaban entre las dos opciones.
Según Haynes, estos descubrimientos, contribuirán al desarrollo de máquinas que
ya existen, pero que en un futuro podrán localizar señales mentales y
permitirán, por ejemplo, que gente totalmente paralizada, pueda cambiar de
canal, navegar en Internet o usar pequeños robots, sólo pensando. Pero, por
ahora, las aplicaciones prácticas del descubrimiento de Haynes parecen estar a
años luz.
En la actualidad, leer mentes es un proceso engorroso y no hay garantías de que
los científicos no entren en un terreno personal, espiando los pensamientos
propios. De este modo, surge el debate ético acerca de la moralidad de este tipo
de acciones. Lo cierto es que, los investigadores están haciendo tantos
progresos que los eticistas ya han comenzado a poner el grito en el cielo desde
que las investigaciones consiguieron identificar las regiones del cerebro donde
residen los pensamientos y, además, consiguieron descifrar esos pensamientos,
alertando de que el concepto de los pensamientos como algo privado, podría
variar en un futuro.
Fuente: El País, 8 de Marzo de 2007
-Una expedición explorará la corteza de la Tierra en el fondo del océano Atlántico
Anteayer comenzó una expedición que pretende revelar los secretos de un inmenso y misterioso agujero existente en el fondo del océano Atlántico. En un viaje inspirado por la visión que presentó Julio Verne en 'Viaje al centro de la Tierra' y '20.000 leguas de viaje submarino', una embarcación de investigadores británicos valorada en 40 millones de libras (casi 59 millones de euros) partirá en su viaje inaugural para abrir lo que los científicos llaman "una ventana hacia el interior de la Tierra".
El RRS 'James Cook' pasará seis semanas navegando por los arrecifes del Atlántico para tomar medidas del extraordinario agujero del fondo del océano que tiene perplejos a todos los expertos. Los científicos intentan averiguar por qué cientos de kilómetros cuadrados de la corteza de la Tierra han desaparecido, dejando al descubierto el manto, el interior del planeta, lo que se encuentra bajo tierra.
El agujero en la corteza cubre un área tan enorme como una cordillera montañosa, y se halla oculto bajo las olas. Lo que asombra a los científicos es que este boquete desafía las teorías convencionales de las placas tectónicas. La corteza debería tener seis kilómetros y medio de grosor, pero en su lugar se encuentra esta capa del manto de la Tierra en el fondo del océano.
Se habría esperado encontrar el agujero lleno de material volcánico, dado que se formó a causa de la separación de las placas tectónicas, que aumenta a un índice de dos centímetros al año, pero lo que en realidad han hallado ha sido el manto.
Chris MacLeod, de la Escuela de la Tierra, el Océano y las Ciencias Planetarias de la Universidad de Cardiff, es uno de los científicos al mando en la expedición, que tomará medidas precisas realizadas mediante sónar del fondo del océano. Los investigadores, que partieron de Tenerife, enviarán un robot submarino a los pies de esta cordillera submarina, a 5.000 metros por debajo de la superficie, para taladrar el manto y extraer muestras del mismo.
Mediante el uso de las cámaras del barco, los investigadores esperan poder ver el inmenso agujero. Las montañas se elevan a 4.000 metros por encima del fondo marino, 1.000 metros por debajo de las olas, y las muestras principales se extraerán de distintas profundidades. El doctor Mac Leod cree que la expedición revelará la extensión del agujero en la corteza a lo largo del fondo oceánico, así como a qué se debe su formación.
Según el propio investigador, "no encaja en el modelo generalmente aceptado de placas tectónicas. Esperamos obtener una visión directa de los procesos que tienen lugar en la Tierra. Constituye parte esencial de la comprensión básica del funcionamiento de la Tierra". La formación de la corteza fue un "mecanismo fundamental de la Tierra, y afecta a la química del océano·, añadió. También explicó que se barajan dos teorías principales sobre por qué se formó el agujero, y se sospecha que la respuesta sea una combinación de las dos.
Por una parte, el agujero podría haberse formado cuando las placas tectónicas se separaron, pero en lugar de que el manto se elevara hacia el exterior en forma derretida o magma, pudo elevarse como un bloque sólido. La segunda teoría es que la corteza se rasgara hacia los lados, creando un agujero sobre el manto.
El navío en el que habitará el equipo de nueve investigadores y tres investigadoras se construyó para sustituir al ya envejecido 'RRS Darwin'. Está financiado por el Consejo de Investigación de los Entornos Naturales y por el Fondo de Instalaciones Científicas a Gran Escala del ministerio británico de Comercio e Industria.
En el barco se han instalado equipos e instalaciones multidisciplinares que permitirán a los investigadores trabajar en cualquier parte de los océanos del mundo. Para el doctor MacLeod, el uso de este navío constituye una oportunidad única para dar respuesta a los grandes misterios del mundo, y confía en que resultará de un valor incalculable: "Se trata del primer viaje científico de esta embarcación, posiblemente el barco de investigación más avanzada del mundo".
Fuente: El Mundo, 7 de Marzo de 2007
-Excelencia e independencia en la ciencia
Excelencia e independencia fueron las dos palabras más oídas en las jornadas que sirvieron, en Berlín, para presentar formalmente el Consejo Europeo de Investigación, la nueva agencia para financiar la investigación básica.
Unos 300 científicos y gestores
asistieron, en un ambiente de optimismo e incluso excitación, la semana pasada a
las sesiones, inauguradas por la canciller alemana Angela Merkel, en su papel de
presidenta de turno de la Unión Europea.
El optimismo se debía a que los europeos, incluidos los políticos, creen haber
logrado, tras una gestación laboriosa, iniciar una nueva era en la investigación
básica de ámbito europeo, crear algo que se distingue de la tradición hasta
ahora dominante, porque surge de abajo, de la comunidad científica. Hasta los
políticos -europeos y de los países miembros- aseguran estar incluso contentos
de que no les dejen meter la cuchara.
"El Consejo Europeo de Investigación es una verdadera Copa de Campeones",
aseguró el comisario europeo de investigación, Janez Potocnik. "La excelencia
será su único criterio". El ERC, como se le conoce por sus siglas en inglés,
forma parte del VII Programa Marco de I+D y es la herramienta en la que se
depositan grandes esperanzas para hacer de Europa un líder en ciencia y
tecnología, al paliar la fragmentación y duplicación de esfuerzos que tanta
ventaja da a EE.UU.
Tres factores destacan en el ERC, aseguró la ministra alemana de Educación y
Ciencia, Annette Schavan: la autonomía e independencia de la institución, la
posibilidad de identificar y premiar a los investigadores que mayor talento
muestren, sin atender a cuotas por países, y que es la primera vez que la
investigación básica dispone de una base para desarrollarse. "Las personas
creativas tendrán la posibilidad de explorar ideas que den lugar a nuevos
productos, servicios y procedimientos. La cadena de valor incluye ahora la
investigación básica como clave para la prosperidad futura", aseguró.
Uno de los políticos que más han luchado por la independencia del ERC es la
eurodiputada Angelika Niebler y en Berlín reconoció que en Europa no existe
todavía una comunidad de investigadores pero que el ERC supone un hito en el
camino. "El ERC no es otra agencia europea más", recordó, "es un asunto de los
científicos y de nadie más, en el que los políticos y la Comisión no pueden
intervenir". Niebler aseguró que el Parlamento vigilará la transparencia del ERC
y comentó que sólo se destinará el 5% de los fondos a la administración.
El presidente del Comité Científico del ERC es el griego Fotis Kafatos, la cara
hasta ahora del nuevo organismo. A este biólogo molecular no le dolieron prendas
en reconocer la labor de Potocnik para su creación -"no sólo prometió sino que
cumplió"- y en valorar positivamente el presupuesto del que va a disponer en los
próximos siete años, los de vigencia del programa marco. En 2007 van a ser 300
millones de euros, que aumentarán progresivamente hasta 1.500 millones en 2013,
equivalente como media al 0,7% del presupuesto total europeo. Kafatos se mostró
muy seguro del modelo elegido: "No se trata de si va a ser un éxito o no, sino
de lo deprisa que lo conseguirá".
"Estamos cruzando las fronteras nacionales con el ERC", aseguró Angela Merkel en
su intervención ante los centenares de asistentes. La política alemana, que es
física, reconoció que Europa no va a alcanzar los objetivos de Lisboa
(convertirse en 2010 en la sociedad basada en el conocimiento más avanzada del
mundo y destinar un 3% de su PIB a investigación y desarrollo), pero señaló que
nada se puede alcanzar si no se fijan objetivos. Comentó que la experiencia
alemana con el
Deutsche Forschungsgemeinschaft (DFG)
ha permitido contribuir a la creación del ERC y también aseguró que vigilarán su
independencia y su compromiso con la excelencia.
"Los científicos tienen que ser libres, no se les puede obligar a que obtengan
resultados", añadió Merkel. "No disponemos de suficientes científicos e
ingenieros para alcanzar los objetivos, tenemos que motivar a los buenos
investigadores a que vengan o vuelvan a Europa". También recordó que el ERC no
puede ser una nube de excelencia flotando sobre lo demás ni puede crear por sí
mismo un ambiente investigador en Europa, sino que debe conectarse con el resto,
especialmente con el sector privado.
De pilotar el DFG procede Ernst-Ludwig Winnacker, el primer secretario general
del ERC. "La transparencia, la calidad y la excelencia están muy relacionados",
comentó, refiriéndose al hecho de que se van a hacer públicos los integrantes de
los paneles que juzgarán las propuestas de financiación, de las que esperan unas
3.000 en esta primera convocatoria para investigadores jóvenes. Carlos Martínez,
presidente del
CSIC, es el único
científico español que preside uno de estos paneles.
El investigador deberá de tener una institución que le acoja y permanecer en
ella al menos dos de los cinco años que duran los proyectos, aclara Oscar Marín,
miembro del consejo científico. "Luego se puede ir con su dinero debajo del
brazo a otra institución y eso es importante para incrementar la competencia
entre ellas. Eso se ha discutido mucho pero hemos creído que debemos pedirlo
para evitar que países que pueden generar.
Fuente: El País, 7 de Marzo de 2007
-La comunicación y la teleportación, cada día más cerca
Construir redes cuánticas es muy
complejo y aún no existen físicamente, ni siquiera de forma experimental, pero
los investigadores aseguran que serán la base de la comunicación cuántica del
futuro. Así que han empezado a trabajar con ellas en modelos de ordenador. Y han
descubierto un inesperado fenómeno nuevo y que constituye una buena noticia: "En
el mundo cuántico es posible establecer conexiones perfectas a grandes
distancias a partir de conexiones imperfectas", afirman los investigadores. Su
trabajo se ha publicado en la versión digital de
Nature Physics.
La telecomunicación cuántica se basa en el fenómeno del entrelazamiento entre
partículas, por ejemplo entre fotones. El entrelazamiento permite que una
partícula permanezca en cierto modo unida o, técnicamente, correlacionada a
otra, a pesar de encontrarse lejos de ella; de esta forma, cuando se produce un
cambio en una de las partículas también se produce en la otra. Así, las
propiedades de una partícula se teleportan de modo instantáneo a la otra. En una
red cuántica, los nodos de la red compartirían parejas de partículas
relacionadas. "Por desgracia, establecer correlaciones perfectas incluso a
distancias cortas es un desafío formidable. En los experimentos sólo podemos
hacer correlaciones imperfectas", afirman Antonio Acín, español, y su colega
polaco Maciej Lewenstein, ambos profesores ICREA en el
Instituto de Ciencias Fotónicas,
en Barcelona.
Pero los investigadores observaron que en las redes cuánticas simuladas aparecía
un fenómeno muy habitual en el mundo macroscópico llamado percolación. En el
mundo a escalas humanas, el cotidiano, la percolación es responsable de que, por
ejemplo, un incendio acabe propagándose a pesar de que sus focos están lejos
entre sí. Por encima de un cierto grado de conexión entre los focos, aunque esta
conexión sea pobre, el fuego acabará propagándose y será difícil de parar.
Los investigadores observaron que en las redes cuánticas pasa igual: aunque las
correlaciones sean imperfectas, una vez superado un nivel mínimo de imperfección
la correlación perfecta a larga distancia es posible.
Lo que más les sorprendió fue el darse cuenta no sólo de que había percolación
cuántica, sino de que ésta podía ser mucho más eficaz que la clásica; es decir,
podía tolerar un grado de imperfecciones mucho mayor que la percolación del
macromundo. De hecho, el trabajo que ahora se publica muestra con qué protocolos
de red es posible mejorar la capacidad de percolación de la red.
¿Cómo se consigue esto? La clave, explican los autores, es el concepto de que en
comunicación cuántica las partículas se comportan también como ondas, y en las
ondas se producen interferencias que pueden ser destructivas -que impiden la
comunicación- o constructivas. El truco está en hacer la red de forma que las
interferencias sean constructivas.
Nadie hasta ahora había observado el fenómeno de la percolación cuántica porque
las investigaciones se habían centrado en las conexiones lineales, el
equivalente a una conexión punto a punto, no en redes. "Éste es el primer
trabajo que muestra lo que ocurre con las redes. Estamos abriendo una nueva vía
en la que seguro que hay muchas cosas por descubrir", dice Acín.
El hallazgo tiene consecuencias prácticas: "Si en una red cuántica se establecen
conexiones imperfectas en distancias cortas, es probable que se pueda, con la
ayuda de métodos clásicos de comunicación como teléfonos o conexiones normales
entre ordenadores, establecer correlaciones cuánticas perfectas en distancias
largas", afirman los autores. Las conexiones normales, como el teléfono,
servirían para hacer el protocolo que mejora la percolación de la red cuántica.
El año que viene ya hay planeado un primer experimento con redes cuánticas en
Viena, a través del proyecto europeo SECOQC, en el que se intentará crear una
red cuántica con los nodos situados a pocos kilómetros de distancia.
Fuente: El País, 7 de Marzo de 2007
-Izimi quiere crear la web 2.1
Los mejores ejemplos de este tipo de
servicios son aquellas páginas en las que los usuarios son quienes gestionan,
difunden e incluso crean los contenidos, y que se suelen conocer como redes
sociales. Pues bien, con un nombre sonoro y absurdo, como impone la moda,
Izimi
quiere dar una nueva vuelta de tuerca al negocio, evitando a los intermediarios.
Y es que, hasta ahora, quienes quieren utilizar uno de estos servicios, tienen
que registrarse en una web del tipo de MySpace o YouTube y crear un usuario. Y
del espacio que se les asigna, cuelgan sus contenidos. Dependen, por tanto, de
un tercero, que es el responsable en última instancia de mantener esos
contenidos on-line. Y que puede censurarlos, o echar el cierre un buen día, sin
dar más explicaciones, eliminando todo lo almacenado.
DE INTERNAUTA A INTERNAUTA, PASANDO POR IZIMI.COM
Izimi, en cambio, reduce al mínimo la necesidad de intermediarios, ya que pone a
disposición de los usuarios un programa para compartir directamente los
contenidos con otras personas, a través de un enlace. Su intervención se limita
a la generación de un enlace, que es el que permite que los internautas puedan
acceder a los videos, las fotos, o cualquier otro archivo que otro ciudadano
quiera hacer públicos. De forma complementaria, Izimi.com funciona también como
el resto de sitios sociales, al aglutinar en una sola página toda la información
que el usuario quiere hacer pública.
Bien, el resultado no es exactamente nuevo, ya que cualquiera puede, en la
actualidad, convertir su PC en un servidor, de manera que el ordenador responda
a las peticiones de otros internautas y envíe las páginas o los archivos
solicitados. Claro que, para ello, se necesitan conocimientos avanzados de
informática.
UN SERVIDOR DE ARRASTRAR Y SOLTAR
Izimi pretende acabar con esa dificultad y para ello ha lanzado un software -aún
en pruebas- que permite al usuario arrastrar sus contenidos desde el disco duro
hasta la ventana del servicio. El programa, luego, indexa esos contenidos en la
web de Izimi, que crea a su vez un enlace directo al ordenador del usuario, del
tipo
http://uksbd.izimi.com/840.izimi.
Ese link permite que cualquiera enlace con esos contenidos desde otros servicios
de Internet distintos a los de Izimi: correo electrónico, foros, otras webs...
La principal pega es que, como los contenidos se sirven directamente por el PC
que el usuario tiene en su casa, el ordenador tendrá que estar siempre
encendido. De lo contrario, el internauta se encontrará con un mensaje como el
que aparece en la imagen que acompaña a esta información. Pero sigue teniendo la
ventaja para los usuarios de que reduce al mínimo la interferencia de terceros.
Y para la compañía, fundada en California pero con tecnología desarrollada en la
Universidad de Oxford, el hecho de que la
capacidad de almacenamiento, y lo que cuesta mantenerla, la ponen sus clientes.
Fuente: El País, 5 de Marzo de 2007
-Logran desarrollar el material tecnológico más fino del mundo
Físicos de dos instituciones académicas del Reino Unido y Alemania han desarrollado el material tecnológico más delgado del mundo, una membrana de tan sólo un átomo de grosor que, según sus autores, revolucionará la electrónica y facilitará la investigación sobre nuevos medicamentos
Este logro, que recoge la revista
científica 'Nature'
en su última edición, es obra de físicos de la
Universidad de Manchester (noroeste de
Inglaterra) y del
Instituto Max Planck,
prestigiosa institución pública alemana dedicada a la investigación científica y
tecnológica.
La nueva membrana podría usarse para filtrar gases, construir aparatos
electrónicos ultra-rápidos y analizar moléculas con extrema precisión, una
utilidad esta última que contribuiría a acelerar el desarrollo de nuevos
medicamentos.
Hasta ahora, se había conseguido crear materiales similares a esta nueva
membrana, pero siempre adheridos a otros elementos.
Los investigadores atribuyen su existencia independiente de otros materiales a
su forma ligeramente arrugada.
El nuevo material está hecho de grafeno, una estructura de carbono que permite a
los electrones viajar distancias sub-micrométricas sin dispersarse y más
rápidamente que cualquier otro transistor.
La de esta membrana "es una tecnología totalmente nueva, no se incluye ni
siquiera dentro del término nanotecnología", explica Andre Geim, responsable del
equipo de científicos de la Universidad de Manchester que ha contribuido a este
hallazgo.
"El verdadero desafío ahora es hacer que sea barata para que pueda ser usada en
aplicaciones a gran escala", añade.
Fuente: EFE, 1 de Marzo
-Éxito en el desarrollo de nuevas
vacunas contra el SIDA
El desarrollo de cepas resistentes a
los antirretrovirales es uno de los principales motivos por los que fracasa la
terapia contra el sida. Ahora dos nuevos fármacos, con una vía de acción
novedosa, podrían dar una oportunidad a los enfermos cuando los tratamientos
convencionales fallan. Cuatro ensayos clínicos, presentados en el último
congreso de Retrovirus e Infecciones Oportunistas celebrado en Los Ángeles (EE.UU.),
demuestran que son eficaces y seguros en personas con VIH, resistentes a la
terapia clásica.
Los dos fármacos -«maraviroc» y «raltegravir»-
inauguran dos nuevas familias de medicamentos que se suman a las cuatro ya
disponibles en la lucha contra el virus del sida. Son las primeras novedades
desde que en 2003 se autorizó un nuevo medicamento inyectable, llamado «fuzeon»,
y los primeros orales tras una década sin cambios.
NIVELES INDETECTABLES DEL VIRUS
Ambos ofrecen buenos resultados, pero los más llamativos son los de «raltegravir».
Ningún antirretroviral destruye el virus, sino que lo combaten impidiendo su
multiplicación. Eso se consigue bloqueando una enzima específica. El nuevo
fármaco inhibe la acción de la integrasa, una enzima que produce el virus del
sida y se encarga de que el material genético del VIH se integre en el material
genético de las células del sistema inmune. Una vez incorporado, el ADN viral
manda a la célula que haga más copias del virus.
En la reunión de Los Ángeles se han presentado dos estudios con 700 pacientes
resistentes, al menos, a una de las tres clases de fármacos existentes. En el
60% de los tratados, el medicamento logró que la presencia del virus cayera a
niveles casi indetectables. En todos los casos el nuevo fármaco no se administró
en solitario, sino en combinación con los tratamientos clásicos. Esa carga viral
indetectable se mantuvo después de 16 semanas, según el ensayo.
«Maraviroc» utiliza otro camino para luchar contra la infección. Bloquea una
proteína denominada CCR5, una de las principales vías de acceso que utiliza el
virus del sida para infectar a la célula. Esta «puerta» de entrada fue
descubierta en 1996 y desde entonces varios grupos de científicos han trabajado
sobre ella para desarrollar medicamentos que pudieran bloquearla.
«Maraviroc» ha sido el primero en lograr resultados esperanzadores. Dos estudios
presentados en Los Ángeles lo demuestran, en esta ocasión con 1.049 pacientes.
Con el tratamiento en combinación con otros antirretrovirales, más del 40%
redujo su carga viral hasta niveles casi indetectables. En este caso la prueba
era más dura, porque los enfermos que lo probaron eran resistentes a las tres
clases de fármacos contra el virus del sida.
Pero algunos expertos piden cautela antes de tener resultados a largo plazo.
Temen que al bloquear una proteína humana en lugar de una viral, aparezcan
efectos indeseados a largo plazo. Dos fármacos en desarrollo, que también
inhibía la CCR5, fueron desechados por su toxicidad hepática y su considerable
riesgo de cáncer. John W. Mellors, de la Universidad estadounidense de
Pittsburgg, cree, sin embargo, que se trata de un avance «tan emocionante como
el descubrimiento de los famosos cócteles», dijo al «New York Times».
Para José María Gatell, responsable de Enfermedades Infecciosas del Hospital
Clínico de Barcelona, es una valoración exagerada. «Son dos fármacos
importantes, que nos permitirán dar otra oportunidad a pacientes a los que los
tratamientos existentes no reducen su carga viral a niveles indetectables. Pero
no suponen un salto tan cualitativo como el que se consiguió en los 90 con el
cóctel de antirretrovirales», explicó a ABC desde la conferencia de Los Ángeles.
Fuente: ABC, 2 de Marzo de 2007
Hawking dijo que, para alguien que ha estudiado la gravedad toda su vida, es emocionante poder experimentar la ausencia del fenómeno en cuerpo propio.
Su viaje -que tiene un costo de US$3.750- será financiado por una compañía estadounidense llamada Zero Gravity. La empresa también planea subastar dos de los asientos del vuelo con fines caritativos. Hawking, que usa una silla de ruedas y está casi completamente paralizado, será acompañado por personal médico.
Ascenso y caída
El avión Boeing 727 despegará en abril desde la base espacial Kennedy en Florida, Estados Unidos.
V
olará a una altura de 9,75 kilómetros en un ángulo empinado y luego descenderá en picado unos 2.400 metros para que los pasajeros puedan experimentar la gravedad cero durante 25 segundos.Mientras el avión asciende, los pasajeros se sienten 1,8 veces más pesados que en la tierra.
En una entrevista por correo electrónico, Hawking dijo que quería fomentar el interés público en los viajes espaciales.
"También quiero mostrarle a la gente que no deben estar limitados por sus incapacidades físicas mientras no estén incapacitados en el espíritu", dijo.
El año pasado, Hawking habló de la necesidad de colonizar el sistema solar -y más allá- si la humanidad desea sobrevivir.
Hawking ya se ha referido a su deseo de viajar al espacio.
Fuente: BBC Mundo, 2 de Marzo de 2007
--El eclipse de Luna del 3 de Marzo
El próximo 3 de marzo habrá un eclipse total de Luna. El primer contacto de la sombra de la Tierra con el disco lunar se realizará a las 20:16 UT (Tiempo Universal), que corresponden a las 21:16 en la península. La totalidad se alcanzará a las 22:43 UT y durará hasta las 23:58 UT. El fenómeno terminará a las 2:25 UT
En esta ocasión Europa y África están situadas de manera privilegiada para
observar el eclipse. Sin embargo, solamente se verá parte del eclipse desde las
Américas, siendo mejor la visibilidad cuanto más hacia el Este esté localizado
el punto de observación.
En cualquier caso, varias asociaciones, entidades culturales y universidades
realizarán retransmisiones en directo para aquéllos que no puedan asistir, estén
lejos o se encuentren con un cielo cubierto. En Madrid, la Universidad
Complutense, en colaboración con la asociación ASAAF, en una actividad conjunta
de las redes PRICIT ASTRID y ASTROCAM, dispondrá de información en directo a
través de sus páginas de Internet, con imágenes del evento. El Planetario de
Madrid realizará observaciones en directo en una jornada de puertas abiertas, en
una actividad gratuita. En el resto de España, la Universidad de Barcelona,
entre otras, tiene cierto historial en la retransmisión en directo vía Internet
de eclipses.
El siguiente eclipse lunar total será el 28 de agosto de este año. En el año
2008 habrá dos eclipses lunares y otros dos solares. Los de Sol, mucho más
espectaculares, serán visibles el 7 de febrero, en esta ocasión anular, y el 1
de agosto, total y que cruzará el Ártico desde Canadá hasta China.
Fuente: Redacción mi+d, 2 de Marzo de 2007