-"O
prevenimos ciertos usos de internet o pagaremos las consecuencias"
No todo en la vida está en las pantallas para Vinton Cerf.
Mucho menos la fabada que se mete entre pecho y espalda antes de descubrirnos
las claves del pasado y el futuro de Internet, esa plataforma gigante que él y
sus colegas Bob Kahn, Tim Berners-Lee y Lawrence Roberts inventaron hace más de
40 años.
Ante todo, Vinton Cerf (Connecticut, EE UU, 1943) es un
caballero. Un hombre refinado, de exquisitos modales y gustos, que va contando
allí donde le llaman cómo él y sus compañeros dieron con este invento después de
trabajar para el Pentágono. Y alertando de lo que se viene encima si no
espabilamos. De lo bueno y de lo malo.
Al principio no cayeron en que aquella red que fueron
probando para los militares cambiaría las costumbres y los modelos de trabajo
del planeta. Fueron los años y la perspectiva de negocio de las empresas
privadas las que les hicieron darse cuenta de lo que habían creado. Toda una
revolución que está poniendo en serios aprietos los modelos de vida y negocio
tradicionales. Desde las relaciones personales a la cultura, de los viajes a las
campañas políticas y el periodismo.
Una de las cosas que Vinton Cerf sabe con certeza a sus
66 años es que un ordenador no puede cocinarle una paella. Pero sí cómo y
dónde conseguir azafrán. Le ocurrió hace poco, de vacaciones en un lugar
perdido de su país. Se le antojó hacerse un arroz, pero le faltaba esa
especia. Y la encontró online. Lo contaba en una conferencia en la
Universidad de Oviedo, donde la Fundación Niemeyer de Avilés le organizó una
visita para desarrollar proyectos de futuro. Es la forma que este matemático
tiene de agradecer el Premio Príncipe de Asturias que recibió en 2002 junto
a los otros impulsores de Internet. "Buscamos formas para desarrollar
negocio tecnológico en esta pequeña región del planeta", asegura. Lo hace
como científico y como ejecutivo de Google, la empresa con la que Cerf
colabora intensamente, además de los experimentos que sigue haciendo para el
Gobierno de su país.
¿Cuál era su sueño mientras estudiaba? ¿Tenía
alguno? ¿O era demasiado práctico para permitírselo? Si nos
retrotraemos a la infancia, siempre me interesó la ciencia. Creo que siempre
quise ser científico. Hacer algo importante en matemáticas. Recuerdo que
tomaba cursos de cálculo en la UCLA (Universidad de California, Los Ángeles)
mientras estaba en el instituto. Una noche, junto a un edificio, en el área
de ingeniería electrónica, con 17 años o así, sentí que volvería a la UCLA
para hacer algo importante justo en esa área, algo científico.
Y lo consiguió. Los anhelos se cumplen.
Bueno, parece que sí. Cuando acabé mi doctorado en Stanford en Matemáticas,
regresé a la UCLA y me dediqué a las computadoras, junto a Leonard Kleinrock.
Su laboratorio se centraba en lo que se conocía como dirección de redes y yo
trabajaba en lo que se llamaba el Arpanet. Así que acabé haciendo trabajos
interesantes allí. Yo pensaba que me involucraría en algo relacionado con la
física, pero me metí de lleno en las redes.
Aquello era ni más ni menos que el futuro real. Resultaba excitante. Imagínese un recién graduado con la oportunidad
delante de investigar cómo unos ordenadores, a distancia, podían conectarse
e interactuar juntos. Esa idea de que podías poner en funcionamiento y
conexión al tiempo equipos a 3.000 millas de distancia era pura magia. Poder
coordinar máquinas lejanas era muy estimulante.
Vinton Cerf-
No se podía ni siquiera imaginar que fuera a ser
posible, ¿o sí? En aquella época, cuando acabé mis estudios en Stanford,
entré a trabajar en IBM. Tenía unos 24 años, luego volví a la UCLA porque
necesitaba experiencia de campo en informática. Empezábamos a diseñar sistemas
operativos, a inventar programas, pero no se nos planteaba esa posibilidad de
trabajar para las redes. Aún no.
¿Fue la primitiva Arpanet, desarrollada para el
Departamento de Defensa, la que les dio las pistas? Trabajar en ese
experimento y convertirlo en algo útil determinó mi vida. Me guió por el camino
definitivo. Más o menos en la primavera de 1973, Bob Kahn, que también recibió
el Premio Príncipe de Asturias conmigo, junto a Tim Berners-Lee y Lawrence
Roberts, me hizo fijarme en ese problema: ¿cómo interconectar contenidos con
redes? El Arpanet fue la primera red que utilizaba tecnología de ese tipo. Bob
estaba muy involucrado en eso. El interés de quienes encargaron el trabajo
consistía en conectar redes en movimiento también por satélites. De hecho eran
tres proyectos: el Arpanet, el experimento por radio y por satélite. La cuestión
era interconectarlas entre ellas de manera totalmente transparente. Ése, ¡oh,
señor!, era el problema.
¿El gran dilema? De hecho, interconectar esas
tres redes empezó a ser conocido como el problema Internet. Era tremendamente
intrigante y excitante.
¿Hasta el punto de que fueran conscientes de que aquel
paso cambiaría en gran medida el mundo que conocían? Honestamente, le
diré que no fue entonces cuando nos dimos cuenta de aquello. Tuvieron que pasar
varios años. De hecho, ocurrió en 1988.
¿Tanto? ¿15 años? ¿De qué se ocuparon hasta entonces?
Desde 1973 hasta 1988, el trabajo se redujo esencialmente a temas
científicos y técnicos, de pura ingeniería, a una escala que afectaba
principalmente al Departamento de Defensa y a la comunidad académica.
¿Cómo se dieron cuenta? Pues al entrar a una
gran exposición en San Francisco. Se titulaba Inter up. Trataba de
adaptar nuestra Internet a todo lo que fuera posible. Convertirlo en algo
práctico. En esa exposición estaban empresas como Cisco Systems. Hacían
routers que habían comenzado a experimentar con la Universidad de Stanford.
Mientras me paseaba, me fijé en otra compañía que se llamaba Three Com, una
competidora de la anterior. Les pregunté: ¿cuánto habéis invertido en estos
aparatos? Me respondieron que entre 250.000 y 500.000 dólares. Yo pensé: ¡Dios
mío, si alguien es capaz de invertir todo este dinero para mostrar esta
tecnología deben de estar convencidos de que esto es un gran negocio!
Impepinable. Claro. Pero había más. En 1988,
Internet no era accesible al público. Sólo lo utilizaban el Gobierno, las
universidades y los militares. Así que la cuestión era cómo ofrecerlo a cada
ciudadano, en sus casas, para el comercio. Así que vi la oportunidad de unir dos
inventos. Entre 1983 y 1986 había trabajado para la empresa MCI desarrollando un
servicio de correo comercial llamado MCI Mail. Pensé: ¿por qué no pedir permiso
a lo que se conocía como el Federal Networking Council [Consejo Federal de las
Redes], que era el encargado de dar los permisos para utilizar Internet
entonces, para unir las dos cosas?
¿Y qué pasó? Lo discutieron un tiempo y dejaron
que se probara durante un año. Era perfecto, porque daba la posibilidad de
utilizar un programa público para agilizar negocios entre empresas. Así que
empezamos a probar en verano de 1989. Se hizo con tres vías: una era la Uunet,
que ahora posee Horizon. Otra fue Psinet, que se desarrollaba en Nueva York, y
la otra fue Surfnet, que la puso en marcha una empresa llamada General Atomics.
Así fue como empresarios y científicos se unieron. Ahí
empezó el gran negocio... La gente pudo ver lo práctico que resultaba
todo aquello.
¿No se veía además que todo aquel negocio iba a ir más
allá de una mera cuestión práctica, que acarrearía un cambio de mentalidad
global? Pues la verdad es que hoy vivimos en un mundo diferente a aquél.
Yo creo que todavía pasó más tiempo hasta ser concientes de eso. Debemos irnos
al año 1994. Fue entonces cuando la empresa Netscape Communications empezó a
ofrecer su navegador en los servidores. El público reaccionó inmediatamente al
world wide web (www). Podían incorporar imágenes y sonidos a la Red y
actuar como un megáfono, hacerse oír en un mundo en el que hasta entonces no
habían tenido la posibilidad de hacerlo. Eso fue toda una revelación, lo que
demostró que la Red podía ser un componente y una herramienta de libertad de
expresión, de hablar, escuchar y hacerse presente.
¿Así que fueron conscientes del alcance de su invento
en diferentes etapas? Algunos de nosotros tuvimos el privilegio de ser
testigos del invento primitivo, el Arpanet. Pero hubo otras cosas, inventos como
los de Douglas C. Engelbart, el ratón, las ventanas, el hipertexto, el
linking... Después el e-mail, que fue inventado hacia 1971. Vimos
cómo nacía todo esto, pero no fuimos conscientes de ello hasta que se impuso el
world wide web. Fue entonces, a mediados de los noventa, cuando nos dimos
cuenta de la verdadera dimensión y la necesidad de adaptarnos a esas nuevas
posibilidades.
¿Todavía se asombra ante lo que se puede llegar en la
Red? Todos los días. Cada día. El poder que hace que la gente pueda
compartir sus ideas, sus métodos de trabajo, sus vidas mediante webs, blogs,
twitters, cualquier cosa; que algunos lo hagan por dinero y otros
simplemente por necesidad de comunicarse y mostrarse tal como son, es
impresionante. El número de usuarios interesados en compartir cosas en la Red
crece y crece.
¿Qué hay del mundo que quedó atrás? ¿Piensa en él a
menudo? Mucho. Crecí en ese mundo en el que no existía la televisión, en
el que una llamada de teléfono se convertía en una fiesta en la que tres
familias compartían la comunicación. Recuerdo cuando no existían grandes
compañías informáticas y los ordenadores eran tan bastos que había que entrar
andando en ellos para usarlos. Recuerdo cuando los modems eran
lentísimos. Reconozco lo dramático que les resulta a muchos conocer las
posibilidades de este mundo y no poder utilizarlo. Pero hay muchos retos en el
aire todavía. La rapidez con la que vuela la información nos está retando
constantemente a los científicos.
También Internet ha mostrado preocupantes lados
oscuros. ¿Cuál de ellos es el que más le inquieta? Varias cosas. La
calidad de la información que se muestra en la Red es muy desigual. Alguna es
espectacularmente buena, y otra es terrible. Necesitamos mucha agilidad mental
para discernir cuál es buena y cuál mala. Siempre hemos tenido ese problema en
otros formatos. No puedes confiar en cualquier cosa que ves en la Red. Hay
tretas para abusar. Puedes engañar, estafar, abusar.
Pero la vida es así. Cierto. En la vida real,
la gente se emborracha y estrella sus coches contra cualquiera; es el precio de
la libertad. Debemos reconocer que la gente puede pasarse y debemos dotarnos de
controles globales. Para prevenir ciertos usos. O los cortamos o pagaremos las
consecuencias.
¿Conseguiremos comportamientos más responsables con el
tiempo? Hay un libro titulado Born digital en el que sostienen
que no habrá manera de garantizar seguridad jamás en la Red, pero que hay forma
de acceder a información fiable. Filtros de lugares con datos buenos, de
referencia. La Red no es perfecta, tampoco quienes tratamos de mejorarla, pero
nuestra obligación es adecuar todos esos aspectos.
Otra de las referencias antiguas que la Red está
aniquilando son los ámbitos de prestigio intelectual. Es un dominio democrático
y horizontal. No hay jerarquías ni verticalidad, ni siquiera en el saber. El
acceso es inmediato, sin intermediarios, sin líderes de opinión. Emplea
usted una palabra interesante. Habla de destruir, lo que le da un matiz negativo
y no necesariamente lo es.
Tiene usted razón, puede que hasta sea bueno. En
algunos casos, desde luego. La posibilidad de crear tu propio medio de
expresión se ha expandido como nunca antes había ocurrido. El problema ahora es
quién controla esa propiedad intelectual.
Sí, pero no en términos económicos. Me refiero a la
influencia. Ocurren varias cosas. Una es que las autoridades que se
alzan no son todas las que antiguamente considerábamos de prestigio. Mire lo que
está ocurriendo con los principales periódicos. Las marcas siguen interesando a
los lectores que se fían del trabajo de selección que realizan las grandes
cabeceras, sus posiciones editoriales y demás. En la nueva manera de actuar que
se expande en la Red, lo que cuenta es lo que pinchas, lo que copias; eso nos
lleva a los problemas de propiedad intelectual. Habría que identificarlos
claramente con etiquetas que avisen que se debe pagar su uso. Pero entonces lo
que se extenderá con más facilidad será la opinión de todos aquellos que quieren
hacerla circular gratuitamente. Necesitamos llegar a una forma de comportamiento
en la que ambas cosas sean compatibles, eso enriquecerá todo. Para eso se han
inventado los denominados creative commons, en los que la gente elige si
desea que le paguen por utilizar cierto material o no. Pero creo que aún debemos
encontrar mejores mecanismos para acceder a esas cosas y evitar que se hagan
copias tan fácilmente.
Es un debate abierto, un asunto sin resolver.
La cuestión es que actualmente la copia es sencilla; aunque lo prohíbas
específicamente, se hacen. Se abusa y debemos llegar a un acuerdo global sobre
cómo deseamos tratar los derechos de propiedad intelectual.
La palabra sagrada de la Red es "gratis". ¿No hay
manera de cambiar eso? Montones de jóvenes asumen que navegar por la Red
es completamente gratis. Pero la voluntad que debe implantarse es la de pagar lo
que debe pagarse. Los libros electrónicos pueden acarrear esa cultura. Ofrece
muchísimas ventajas y complementos a la lectura tradicional, desde videojuegos
hasta diccionarios incorporados. Quien posee la propiedad intelectual es quien
debe elegir cómo quiere mostrarla en la Red.
¿Aprenderá el mercado editorial lo que le ha supuesto a
la música y al cine la irrupción de Internet? Eso espero. Las compañías
discográficas se dieron cuenta de que los consumidores no querían robar la
música, que querían precios razonables por una canción en vez de un disco
entero, cosas así.
En la prensa escrita se notan ya los estragos.
¿Llegaremos a ver un mundo sin periódicos de papel? Es realmente
posible. Con aparatos como el libro electrónico convirtiéndose en algo popular,
leer noticias en soportes digitales se extiende cada vez más. Además, se están
desarrollando muy bien varios proyectos de periódicos digitales.
¿Qué opina de la proposición que ha realizado el
magnate Rupert Murdoch? Insiste en que es imprescindible pagar el acceso a la
información periodística. ¿Concuerda eso con los tiempos que vivimos? El
coste de producir información necesita ser reconocido. Google ha descubierto que
su modelo publicitario funciona para cubrir los costes de esas noticias de la
misma forma en que se sostenía el negocio en otros tiempos. Creo que el
periodismo es todavía un servicio crítico y necesario, pero el paso hacia el
mundo online debe ir acompañado de un replanteamiento creativo del modelo
de negocio y sus mecanismos. La publicidad que se crea es mucho más versátil que
la impresa y puede llegar a ser más dinámica y personalizada. Me da la impresión
de que el sector no ha explorado todavía de manera profunda las posibilidades.
¿Lee todavía el periódico impreso? Sí, aún lo
hago. Pero cada vez tiendo más a enterarme de las cosas por Google News para
echar un vistazo a aquellos artículos que quiero leer en profundidad. También me
parece muy práctico enviar esos artículos y otras referencias a mis colegas.
Además, acceder a piezas publicadas en el pasado es algo muy útil, algo que es
mucho más difícil en papel.
¿Qué siente cuando todavía toca el papel? ¿Nostalgia?
¡No me haga reír! Poniéndose en las últimas me recuerda al Leviatán.
Conservo muchos libros en mi biblioteca y me gustan. Pero debo admitir que
empiezo a no ser amigo de las noticias impresas. Se me caen de las manos y se me
apilan por ahí como algo que corre peligro de incendio. Así que me encantaría
observar cómo el negocio de los periódicos se introduce con éxito en los
formatos digitales.
¿En qué está metido ahora? Tiene entre las manos una
especie de proyecto de ciencia-ficción, según cuentan por ahí. Me
encanta la ciencia-ficción. Te obliga a plantearte retos. ¿Sería capaz de hacer
eso? ¿Cómo? La especulación no te lleva a ninguna parte, pero ayuda. Pero en lo
que estoy ahora no es ciencia-ficción. Trabajo en conectar de una manera más
rápida y más fiable cada cosa que ponemos en órbita en el espacio por medio de
Internet. Una de las claves es estandarizar los protocolos de comunicación,
homogeneizarlos, normalizarlos. Además, estoy metido en un problema importante.
¿Cómo enviar una nave a la estrella más cercana? La más próxima está a 4,4 años
luz. Muy lejos, se lo garantizo. Tardaríamos, en un cohete de los de hoy, 50.000
años. Si nos las arreglamos para alcanzar una décima parte de la velocidad de la
luz, podríamos estar allí en 44 años.
Hacia la red interplanetaria
Nació en Connecticut (Estados Unidos) en 1943. Estudió
Matemáticas y Ciencias de la Computación en la Universidad de Stanford.
Luego se doctoró en la Universidad de California (UCLA). Pasará a la
historia como uno de los creadores de Internet. Ahora descarga su talento en
Google, empresa a la que se incorporó en 2005 y de la que ahora es
vicepresidente. En la foto, en 1993.
Entre los premios que ha
recibido destaca el Príncipe de Asturias de Investigación Científica y
Técnica de 2002 (compartido con los otros padres de Internet). Es
doctor honoris causa de varias universidades españolas, entre ellas
la Politécnica de Madrid y la de Zaragoza.
Ahora centra su trabajo en crear una red interplanetaria que
pretende extender Internet al espacio exterior.
Fuente: elpais.com, 31-5-09
-La comunicación fotónica más cerca de la
realidad
La comunicación por fotones está cada
vez menos lejos de ser una realidad con los experimentos que realiza el físico
austríaco Anton Zeilinger, y tiene ventajas respecto a las comunicaciones por
radio convencionales, como que puede ser más barata y, sobre todo, que es
indescifrable. Los experimentos de Anton Zeilinger consisten en transferir
fotones entrelazados para transmitir datos sin conexión, y el último lo ha
realizado entre las islas canarias de La Palma y Tenerife, con lo que ha batido
un récord de distancia, 144 kilómetros.
Los trabajos de Anton Zeilinger se
basan en el fenómeno de los "fotones entrelazados", que Albert Eistein describió
en su "efecto fantasmagórico a distancia". El ingeniero del Instituto de
Astrofísica de Canarias Marcos Reyes explicó a Efe que el fenómeno de los
fotones entrelazados consiste en dos fotones que no pueden existir el uno sin el
otro, y que al enviar un fotón al espacio y si uno de ellos desaparece por ser
interceptado, el otro también desaparece.
En cuanto a la comunicación por
fotones, o cuántica, Marcos Reyes explicó que consiste en introducir la
información en propiedades físicas de las partículas cuánticas, como por ejemplo
el estado de polarización de los fotones que componen la luz, a lo que se
denomina un "bit" cuántico.
Además, se utilizan las propiedades que
comparten las parejas de partículas cuánticas, parejas de fotones entrelazados,
y estas propiedades hacen que la información codificada dentro de un fotón sea
completamente indescifrable.
Marcos Reyes indicó que durante los
últimos años se han realizado experimentos que demuestran la posibilidad de
transmitir información manipulando fotones, llegando a realizarse varias pruebas
de comunicaciones en distancias de 144 Kilómetros entre los observatorios de las
islas de La Palma y Tenerife.
Esto es lo que ha llevado a cabo un
equipo de científicos austríacos liderados por el físico Anton Zeilinger. El
ingeniero del Instituto de Astrofísica de Canarias indicó que, además de hacer
indescifrable la información transmitida, lo que da una seguridad absoluta, este
tipo de comunicaciones tiene ventajas como son la alta capacidad asociada a las
comunicaciones ópticas, la eficiencia, y otras de especial interés para
comunicaciones en el espacio como su bajo coste, bajo peso y alto tiempo de
vida.
De hecho, comentó Marcos Reyes, el
principal objetivo de los experimentos realizados entre los observatorios del
Instituto de Astrofísica de Canarias es la demostración de la viabilidad de
realizar pruebas de comunicaciones cuánticas entre la Tierra y la Estación
Espacial Internacional, ya que la cantidad de atmósfera que deben atravesar los
fotones es equivalente. Por ello Anton Zeilinger y el equipo de científicos del
Instituto de Óptica Cuántica e Información Cuántica de la Academia Austríaca de
las Ciencias, que envió los fotones entre La Palma y Tenerife tiene entre sus
objetivos emplear para el mismo fin la Estación Espacial Internacional.
Fuente: adn.es, 30-5-09
-Google
nació en 1910
En 1968, mientras la revuelta estudiantil traía de cabeza a
las autoridades de buena parte de Europa, un estudiante australiano recién
licenciado descubrió un auténtico tesoro en el viejo edificio de Anatomía de la
Universidad Libre, situada en el parque Leopold de Bruselas. El joven, William
Boyd Rayward, estaba muy interesado por la figura de
Paul Otlet
, un abogado y visionario belga de principios de siglo, así que decidió acudir a
la oficina donde se encontraba lo que quedaba del exhaustivo trabajo de Otlet.
Allí, en una inmensa habitación llena de libros y montañas de papel cubiertas de
telarañas, encontró restos de la primera pieza de lo que hoy es Internet.
El propio Otlet había escrito: "La mesa de trabajo dejará
de estar llena de libros. En su lugar habrá una pantalla y un teléfono.
Allá, a lo lejos, en un edificio inmenso, se almacenarán todos los libros y
toda la información, y con una llamada podremos solicitar cualquier página
para verla en la pantalla".
Paul Otlet es uno de los dos visionarios que, a
principios del siglo XX, y cuando nadie siquiera intuía la revolución
tecnológica y social que supondría Internet, pusieron en marcha una
iniciativa que podría considerarse como la abuela de la Red y,
particularmente, de los buscadores como Google.
Otlet conoció en 1890 al abogado y político
Henri La Fontaine, también belga y posteriormente galardonado con el
premio Nobel de la Paz en 1913 por fomentar las buenas relaciones entre
Francia y Alemania. Otlet era ambicioso. Antes de conocer a La Fontaine ya
había imaginado "una máquina para el trabajo intelectual, soporte de una
enciclopedia total y colectiva que refleje el pensamiento humano y la
materialización gráfica de todas las ciencias y de todas las artes. Todos
los pensadores de cada época colaborarían en su creación, y el resultado
sería un esfuerzo intelectual conjunto".
Armarios en la biblioteca que almacenaban las fichas. JUAN MANUEL DAGANZO
Cuando se conocieron, ambos se propusieron poner en marcha la
idea de Otlet, y hacerla aún más ambiciosa, recogiendo la información contenida
en todos los libros publicados durante toda la historia, y hacerse con revistas,
periódicos y fotografías que las bibliotecas desechaban.
Su ingente trabajo dio como resultado, en 1910, al
Mundaneum.
Construido en el Palais du Cinquantenaire de Bruselas, la biblioteca llegó a
albergar millones de entradas, organizadas en pequeñas fichas. Otlet habló,
incluso, con el arquitecto Le Corbusier en 1929 para construir un edificio
gigantesco en Ginebra que nunca llegó a construirse
Muchas de esas fichas aún se conservan hoy en el museo de
Mons, una pequeña localidad belga, donde explican que las intenciones de Otlet
era crear un vasto equipo de catalogadores que analizaran cada información que
les llegara. "Este nuevo entorno permitirá mucho más que consultar documentos;
les permitirá anotar la relación entre los elementos de los documentos para
formar lo que se podría llamar un Libro Universal", escribió el investigador.
Otlet y La Fontaine fueron los precursores de muchas ideas
que aún hoy se utilizan en biblioteconomía y tecnologías de la información.
Ambos fueron los inventores de la clasificación Decimal Universal (CDU), que
crearon basándose en la Clasificación Decimal desarrollada por el estadounidense
Melvil Dewey, presidente de la Asociación de Bibliotecarios Americanos.
De diez en diez
El principio de la CDU es simple: el conjunto de los
conocimientos humanos se reparte en diez clases numeradas del cero al nueve;
cada clase se subdivide en diez grupos que, a su vez, se dividen en diez, y esas
diez en otras diez.
La CDU se presentó por vez primera en 1895 durante la
Conferencia Bibliográfica celebrada en París y, dos años más tarde, se publicó
la primera guía de este sistema alrededor del cual Otlet y La Fontaine crearon
el Repertorio Bibliográfico Universal (RBU), que más tarde se conocería como
Mundaneum.
Entre 1895 y 1930 se redactaron, clasificaron y se
interrelacionaron más de 18 millones de fichas de 15 x 5 x 7,5 centímetros, cada
una con información precisa y detallada, con objeto de clasificar y organizar
todas las publicaciones aparecidas durante toda la Historia, en todos los países
y relativos a todas las materias. Las fichas se almacenaban en armarios formados
por pequeños cajones: algunos de ellos forman parte de la escenografía del
Mundaneum en la actualidad, donde se conserva todo aquello que se salvó de la
destrucción nazi durante la II Guerra Mundial.
Unos pocos años antes de la entrada de los alemanes en
Bruselas, Otlet diseñó un sistema mediante el cual todos los libros, documentos
escritos, imágenes, películas y audios estuvieran interconectados entre sí. En
realidad, Otlet creó una protoweb basada en una red de telescopios
eléctricos, como él los denominaba, que permitían navegar entre millones de
referencias en bases de datos conectadas por líneas de teléfono.
Otlet, incluso, describió cómo los usuarios podrían enviar
mensajes, compartir ficheros o congregarse en redes sociales. De hecho, él mismo
aseguró que su invento se había convertido en algo con lo que "cualquiera, desde
su asiento podría contemplar toda la creación". Es decir, pensó en que todo el
mundo tuviera acceso a toda la información imaginable desde su casa, y utilizó
términos como "red de conocimientos" o "enlace", para describir su visión de un
almacén donde se encontrara todo el conocimiento humano.
Pero Otlet fue más allá. En 1935, el Gobierno belga cedió un
edificio para el proyecto y los dos visionarios contrataron a un gran número de
trabajadores que daban servicio a cualquier ciudadano que les hiciera llegar por
carta o telégrafo alguna consulta. Se convirtieron en algo similar, por tanto, a
Google y recibían más de 1.500 consultas al año referentes a los temas más
variados.
Pero el crecimiento del Mundaneum provocó que cada vez
hubiera más cantidad de papel y que, literalmente, inundara todo el espacio
disponible. Por eso, Otlet imaginó una máquina que unía documentos utilizando
links o enlaces simbólicos. Aunque esto pueda parecer obvio hoy día, en
1935 fue todo un descubrimiento conceptual.
Además, Otlet imaginó una especie de ordenador basado en papel, instalado en
una plataforma móvil con ruedas que movería los papeles sobre la superficie de
la mesa. El belga escribió sus ideas en un libro llamado Cerebro, donde
plasmó su concepto de cerebro mecánico colectivo capaz de almacenar
toda la información del mundo accesible a través de una red global de
telecomunicaciones. Google, por tanto, nació en 1910.
Dos juristas que soñaban con la paz en un tiempo de guerra
Paul Otlet
Hijo de un rico financiero de Bruselas, Paul Otlet se doctoró en Derecho en
1890, el mismo año que conoce a su socio. Anteriormente ya había destacado como
un teórico de la naciente biblioteconomía. Jurista de prestigio, pierde a un
hijo en la Gran Guerra, hecho que le afianza en su pacifismo. Teorizó sobre una
Sociedad de Naciones para la resolución pacífica de los conflictos. Muere en
1944, arruinado por Mundaneum y sin ver la liberación de su país de la ocupación
nazi.
Henri La Fontaine
Senador socialista y masón de origen burgués, Henri La Fontaine también se
decantó por el Derecho. Su activismo pacifista fue premiado con el Nobel de la
Paz en 1913, galardón que no evitó el conflicto mundial. Feminista cuando pocos
hombres lo eran, moriría en 1943, en plena guerra.
Fuente:
publico.es, 30-5-09
-Se
pone en funcionamiento el mayor láser del mundo
La comunidad científica y política de Estados Unidos
ha celebrado la entrada en funcionamiento en California del mayor láser
del mundo, capaz de emular la intensidad energética de una estrella.
El Gobernador de California, Arnold Schwarzenegger, y
el Secretario de Energía, Steven Chu, entre otros, participaron el
viernes en San Francisco en la presentación del llamado
National Ignition Facility
(NIF), un láser formado por 192 haces de luz, y con capacidad para
lograr la ansiada
fusión nuclear. La fusión nuclear, que se ha mostrado
esquiva a la comunidad científica durante décadas, permite liberar
cantidades ingentes de energía, con un consumo muy escaso, además de
contar con otras ventajas, como producir menos radiactividad que la
energía nuclear. Hasta ahora, la fusión nuclear requería grandes
cantidades de energía para desencadenarse, y solo se había logrado
mediante las bombas nucleares, de ahí la importancia del nuevo láser.
Explosión termonuclear del tamaño de un guisante
En la presentación el viernes del NIF, que tiene el
tamaño de un estadio, se explicó el potencial del aparato, mediante un
experimento que consiste en dirigir los 192 haces de luz hacia una
pequeña esfera del tamaño de un guisante, rellena de hidrógeno. El
objetivo es crear en el interior de la esfera una pequeña explosión
termonuclear, en la que se alcanzarían temperaturas de 100 millones de
grados, como en el interior de una estrella. Durante una fracción
de segundo, se puede liberar en la miniexplosión una cantidad de energía
tan poderosa como para alumbrar a todo el país, dijo a la Cadena Fox el
director del programa Ed Moses.
Sala en la que se colocan los objetivos a los que
apunta el láser / NIF
Una fusión nuclear de este tipo no se había
conseguido hasta ahora en la Tierra, si bien los críticos consideran que
la construcción del láser, en el que se han invertido 3.500 millones de
dólares, es excesivo. Sin embargo, los responsables del centro
consideran que el láser permitirá devolver con creces el dinero
invertido de los contribuyentes. De hecho, el NIF ha producido ya 25
veces más energía que otros sistemas de láser existentes, y cuenta con
capacidad para mantener encendidas 10.000 bombillas por segundo.
Fuente: efe, 30-5-09
-Bioéxitos 08
El Instituto Internacional de Exploración de Especies (IISE), con sede
en la Universidad Estatal de Arizona (EEUU), ha hecho pública su lista
anual del
top 10
de nuevas especies, en este caso de las descubiertas en 2008. Cada año
esta institución, con el asesoramiento de un comité internacional de
expertos, selecciona las especies más destacadas según libre criterio, ya
sea por características notables o por nombres peculiares. La lista sale a
la luz cada mes de mayo en el aniversario del nacimiento del naturalista
sueco Carlos Linneo, autor del sistema de clasificación de las especies.
El top 10incluye récords como la serpiente más
pequeña del mundo, el insecto más largo o la madre más antigua,
el primer caso de viviparismo en el registro fósil: un pez del Devónico
que estaba alumbrando a su cría cuando murió hace 380 millones de años. El
elenco también incluye rarezas, como una bacteria que crece en la laca
para el pelo, una palmera que florece para morir o una planta de café sin
cafeína.
El IISE publica también, junto con el top 10 y en colaboración
con otras instituciones, el informe SOS, siglas en inglés de
Estado de las Especies Observadas. El estudio registra todas las
nuevas especies descritas el último año para el que se han
cerrado los datos, en este caso 2007. En total, el compendio recoge 18.516
nuevas especies, entre las que hay un 75,6% de invertebrados, un 11,1% de
plantas y un 6,7% de vertebrados. Más de la mitad de las nuevas especies
son insectos, un total de 9.411.
Con poco más de un centímetro de tamaño, 'Hippocampus
satomiae' es el caballito de mar más pequeño del mundo
El informe menciona que las 1,8 millones de especies descritas
desde 1758, año en que comenzó a aplicarse el sistema de nomenclatura de
Linneo, sólo representan una pequeña porción de la vida terrestre.
Las estimaciones sobre la biodiversidad del planeta varían entre 2 y 100
millones de especies, aunque se suele aceptar la cifra aproximada de 10
millones.
Con su trabajo, el IISE quiere llamar la atención sobre la
fragilidad de la biosfera, así como insistir en la necesidad de
crear herramientas que ayuden a la sistemática de las especies, como la
base de datos on-line ZooBank, creada recientemente.
Fuente: publico.es, 30-5-09
-La nave "Soyuz" se acopla con éxito a la estación
espacial
La nave Soyuz TMA-15, con tres tripulantes a bordo que integrarán la
primera misión de seis miembros en la Estación Espacial Internacional (ISS),
se ha acoplado con éxito al módulo ruso "Zaryá" de la plataforma
orbital.
Los astronautas de la EEI al completo. | Reuters / NASA
Aproximación y acoplamiento de la nave soyuz a la
Estación Espacial Internacional
"El acoplamiento tuvo lugar en régimen automático y sin
contratiempos", señaló el portavoz del Centro de Control de
Vuelos Espaciales (CCVE) de Rusia, Valeri Lindin, citado por la agencia
Interfax.
La maniobra se realizó a las 16.34 hora de Moscú (12.34 GMT), tal y
como estaba previsto. Aproximadamente una hora y media después del
enganche de la Soyuz con la plataforma los astronautas abrieron las
escotillas. La nave, en la que viajan el cosmonauta ruso Román Romanenko,
el belga Frank de Winne, de la Agencia Espacial Europea, y el canadiense
Robert Thirsk,
partió desde el cosmódromo de Baikonur, en Kazajistán, el pasado
miércoles. En octubre de este año, De Winne se convertirá el primer
astronauta europeo que asume la responsabilidad de dirigir la ISS.
Los recién llegados serán recibidos por la tripulación de la
expedición número 19, integrada por el ruso Guennadi Padalka,
su colega de la NASA Michael Barrat y el astronauta japonés Koichi
Wakata. . La nueva misión tendrá una duración de 180 días,
durante los que los cosmonautas recibirán en la ISS tres cargueros
Progress, realizarán dos caminatas y desengancharán y volverán a acoplar
la nave Soyuz TMA-14 de un módulo a otro de la plataforma orbital.
Además, deberán acoplar y desenganchar el carguero japonés
HTV-1 y llevar a cabo un amplio programa de experimentos
científicos.
El director de la agencia espacial rusa Roscosmos, Anatoli Permínov,
destacó recientemente el carácter singular de este vuelo, que eleva de
tres a seis los miembros de la misión permanente en el laboratorio
espacial, siendo ésta la primera vez que se duplica la tripulación de la
ISS. También será la primera vez que trabajarán en la plataforma
orbital astronautas de cinco países: Rusia, Estados Unidos,
Canadá, Japón y Bélgica. Así, con la ocupación total de la estación
se acaba -al menos por el momento- la era del turismo espacial.
Mientras tanto, se informó que la agencia espacial rusa
Roscosmos y la NASA prolongaron un acuerdo para el transporte de
astronautas a la ISS hasta 2013. Por cuatro vuelos en una Soyuz
cada uno con tres astronautas, la NASA pagará 306 millones de dólares.
Dos de los viajes serán en la primavera (boreal) y otros dos en el otoño
de 2012. La medida es necesaria porque la nueva generación de
transbordadores estadounidenses no estará lista hasta esa fecha y habrá
que usar las cápsulas rusas, entre otros problemas por falta de
presupuesto.
Fuente: elmundo.es, 29-5-09
-Robots humanoides mejorarán la calidad de vida de los
ciudadanos
El proyecto está integrado por grupos de investigación de la Comunidad de
Madrid y pertenecen al Instituto de Automática Industrial (CSIC), la
Universidad Carlos III de Madrid, la Universidad Politécnica de Madrid, la
Universidad Rey Juan Carlos, la Universidad Nacional de Educación a
Distancia y la Universidad de Alcalá.
El Instituto de Automática Industrial (CSIC) ha exhibido 20 robots
integrados en RoboCity2030, un programa en el que colaboran institutos y
universidades españolas. Los robots que integran esta iniciativa están
pensados para mejorar la calidad de vida de los ciudadanos en entornos
metropolitanos.
Se han realizado demostraciones con helicópteros no tripulados, vehículos
de transporte autónomos, aplicaciones de la bioingeniería en el campo de
la discapacidad, sistemas de percepción artificial y un partido de fútbol
robótico.
La exhibición, que se ha llegado a cabo tanto en interiores como en
exteriores, ha incluido también robots asistenciales y personales
diseñados para el cuidado de las personas mayores o enfermos, robots de
exploración dedicados a la detección de minas antipersona, robots de
vigilancia, automóviles sin conductor y robots agrícolas.
El director del Instituto de Automática Industrial del CSIC, Manuel
Armada, señala la importancia de la iniciativa: "En este encuentro se han
reunido los investigadores de las universidades y los centros e institutos
de investigación para hacer demostraciones de la robótica más avanzada que
se realiza en la Comunidad de Madrid".
El proyecto está integrado por grupos de investigación de la Comunidad de
Madrid y pertenecen al Instituto de Automática Industrial (CSIC), la
Universidad Carlos III de Madrid, la Universidad Politécnica de Madrid, la
Universidad Rey Juan Carlos, la Universidad Nacional de Educación a
Distancia y la Universidad de Alcalá. El encuentro forma parte del IV
PRICIT, un programa financiado por la Dirección General de Universidades e
Investigación de la Comunidad de Madrid.
Fuente: CSIC, 29-5-09
-China también quiere explorar Marte
China impulsa su programa espacial y anunció hoy su
intención de mandar antes de final de año su primera sonda interplanetaria
a Marte.
Según publicó la prensa estatal, la nave,
denominada Yinghuo I ("Pájaro de Fuego I"), se lanzará mediante un cohete
ruso que a su vez llevará otro aparato para explorar la luna marciana de
Phobos. La Academia de Tecnología Aeroespacial de Shanghai (SAST) aseguró
que la nave ha pasado todas las pruebas para su puesta en órbita.
"El Yinghuo-1 entrará en la órbita de Marte en el
2010 después de un viaje de 380 millones de kilómetros durante 10 meses.
Sin embargo, la nave sólo orbitará alrededor del planeta y no se posará en
él", declaró Zhang Weiqiang, vicesecretario del Comité del Partido
Comunista de China (PCCh) en la SAST.
La sonda china es un dispositivo de tamaño
reducido, que mide sólo 75 centímetros de longitud, 75 de ancho y unos 60
de alto y pesa 115 kilos. El lanzamiento está previsto para octubre de
este año en el cosmódromo de Baikonur, en el desierto de Kazajistán. El
Yinghuo I centrará su misión en el estudio del ecosistema externo de Marte
mediante la captación de fotografías y datos, que servirán para estudiar
los campos magnéticos y el viento solar del planeta. Las autoridades
chinas calculan que su esperanza de vida alrededor del planeta rojo se
alargará unos dos años.
Fuente: adn.es, 29-5-09
-Nuevas pruebas relacionan las erupciones
con las extinciones en masa
Hace 260 millones de años, a mediados del periodo
Pérmico y justo antes del mayor episodio de extinciones en masa de toda la
historia de la Tierra, unas gigantescas erupciones volcánicas
comenzaron ya su preámbulo borrando del mar una cantidad nada desdeñable de
formas de vida.
Enormes cantidades de lava inundaron una
superficie equivalente a una quinta parte de España (o cinco
provincias de Badajoz). Al colisionar con las aguas someras del mar,
provocaron grandes explosiones que liberaron masivamente dióxido de azufre a
la estratosfera. La siguiente consecuencia fue la formación anormalmente
abundante de nubes que se extendieron por todo el globo y rompieron en
forma de torrenciales lluvias ácidas. Ésta es la reconstrucción que
han hecho en la revista
Science científicos de
la Universidad de Leeds en el Reino Unido para establecer, gracias a
nuevas evidencias geológicas halladas en el suroeste de China, la
relación entre unas erupciones volcánicas hasta ahora desconocidas, pero
grabadas en el registro fósil, y el inmediato episodio de extinción en masa
que le siguió hace 260 millones de años. Aquello fue sólo el preámbulo de la
'madre de las extinciones', la del Permo-trías, que tuvo lugar unos millones
de años después, apenas unos segundos en el largo reloj geológico.
Una teoría controvertida
Las erupciones volcánicas han sido
tradicionalmente una de las teorías más barajadas para explicar las
extinciones en masa en el pasado. La liberación de gases y la propia
lava son suficientes para eliminar comunidades enteras de vida. Lo que no
estaba claro es cómo exactamente estas explosiones desencadenan esas
catástrofes ambientales.
La erupción, que tuvo lugar en la provincia de
Emeishan, al suroeste de China, liberó medio millón de kilómetros
cúbicos de lava, cubriendo más de 100.000 kilómetros cuadrados y
eliminando parte de la vida marina en el planeta. Gracias a las evidencias
geológicas, los investigadores han sido capaces de concretar el momento exacto
de la erupción y relacionarla directamente con el episodio de extinción en
masa. Esto se debe a que las erupciones ocurrieron en un mar de aguas poco
profundas, lo que significa que la lava aparece hoy como una capa
visible de roca ígnea encerrada entre capas de roca sedimentaria con fósiles
de animales marinos fácilmente identificables.
La capa de roca fosilizada justo después de la
erupción muestra la extinción masiva de distintas formas de vida, lo que
relaciona claramente la ocurrencia de las erupciones con este tipo de
catástrofes ambientales.
Una relación causal
El efecto global de la erupción también se debe a la
proximidad del volcán al mar. La lava fluyó rápidamente y colisionó
con las aguas someras causando una violenta explosión al iniciar las
erupciones, expulsando grandes cantidades de dióxido de azufre a la
estratosfera.
"Es como echar agua en una sartén ardiendo: hay una
explosión espectacular que produce nubes gigantescas de vapor", explica el
profesor Paul Wignall, paleontólogo de la Universidad de Leeds y principal
autor del estudio.
Sin duda, la inyección de dióxido de azufre en la
atmósfera causó una formación masiva de nubes que se extendieron por
todo el globo, enfriando el planeta y en última instancia provocando
torrenciales lluvias ácidas. Los científicos estiman, a partir del
registro fósil, que el desastre ambiental debió ocurrir al comienzo de la
erupción.
"La repentina extinción de la vida marina que vemos
claramente en el registro fósil relaciona estrechamente las gigantescas
erupciones volcánicas con una catástrofe ambiental a nivel mundial, una
correlación que ha sido a veces discutida", dice Wignall.
Estudios anteriores habían relacionado el aumento de
dióxido de carbono producido por las erupciones volcánicas con las extinciones
en masa. Sin embargo, debido a la larguísima duración del efecto de
calentamiento que produce el incremento de dióxido de carbono (como vemos con
el actual cambio climático), la relación causal entre los cambios
medioambientales y las erupciones volcánicas han sido difíciles de confirmar.
Fuente: elmundo.es, 29-5-09
-La NASA asigna el nombre de "Curiosity" al MSL
El rover Mars Science Laboratory, con un lanzamiento previsto para 2.011, ha
recibido ya su nuevo nombre gracias a una estudiante de sexto grado de Kansas.
Clara Ma, de 12 años de edad de la Sunflower Elementary School de Lenexa envió
la propuesta ganadora "Curiosity" (Curiosidad). Como premio, Ma ha ganado un
viaje al JPL en California donde será invitada a firmar con su nombre
directamente en el rover mientras es ensamblado.
Un grupo de miembros de la NASA eligió el nombre tras realizarse un concurso
entre estudiantes a nivel nacional con más de 9.000 propuestas a través de
Internet y el correo. El panel se fijó sobre todo en la calidad de las
propuestas. Nombres sugeridos por el equipo del MSL y de una encuesta pública
también fueron tenidos en cuenta.
"Los estudiantes de todos los estados
sugirieron nombres para el rover. Esto da pruebas del interés por las misiones
marcianas y de nuestra próxima generación de exploradores", dice Mark Dahl,
director del programa de misiones de la NASA en Washington. "Muchas de las
propuestas fueron excelentes y muchos nombres habrían encajado bien. Estoy
especialmente satisfecho por la elección, la cual reconoce algo universalmente
humano y esencial para la ciencia".
Ma decidió participar en el concurso tras
oir hablar de él en su escuela.
"Estoy realmente interesada en el espacio,
pero pensaba que el espacio era algo de lo que sólo podía leer en los
libros y mirar por las noches como algo muy lejano", dice Ma. "Nunca pensé
que podría llegar a estar tan cerca, ya que para mi darle el nombre al
rover es estar al menos un paso más cerca".
"Curiosity (curiosidad) es una llama eterna
que arde en la mente de cada uno. Me hace salir de la cama por la mañana y
preguntarme que sorpresas me dará la vida ese día", escribió Ma en su
propuesta ganadora. "Curiosidad es una fuerza poderosa. Sin ella, no
podríamos ser quienes somos hoy. Curiosidad es la pasión que nos conduce
en nuestra vida diaria. Nos hemos convertido en exploradores y cientificos
por nuestra necesidad de responder preguntas y de maravillarnos."
El concurso de nombres fue realizado en
asociación con la película animada "Wall-E" de Disney-Pixar. La actividad
solicitaba ideas de estudiantes entre 5 y 18 años inscritos en escuelas de
los EE.UU. El concurso comenzó en noviembre de 2.008 y se aceptaron
propuestas hasta el 25 de enero.
MSL ya tiene nombre: "Curiosity"
Walt Disney Studios Motion Pictures proporciona
los premios para el concurso relacionados con "Wall-E", incluyendo los 30
semifinalistas. Nueve finalistas han sido invitados para colocar mensajes en
un microchip montado en Curiosity. El microchip además contiene los nombres de
las miles de personas alrededor del mundo que han enviado sus nombres
electrónicamente por Internet. Aún se admiten nombres por medio de Internet.
"Estabamos deseosos de llamar al rover por su
nombre", dice Pete Theisinger, quien dirige el equipo que construye al rover
Curiosity en el JPL. "Darle un nombre digno significa mucho para las personas
que trabajan en él".
Curiosity será el mayor y más capaz rover jamás
enviado al planeta rojo. Será usado para conocer el ambiente en una región
seleccionada que podría haber sido favorable para la vida y que pudiera
preservar evidencias de la misma. Además buscará minerales que se formaran en
presencia de agua y examinará el terreno para buscar compuestos químicos que
sean bloques constructores de la vida.
Fuente: sondasespaciales.com, 28-5-09
-Los grandes hallazgos del yacimiento (30 años de
Atapuerca)
En sus últimos treinta años, Atapuerca ha ofrecido al mundo una importante
serie de descubrimientos arqueológicos. Estos son algunos de los más
destacados:
José María Bermúdez de Castro y Eudald Carbonell,
codirectores de Atapuerca, examinan la mandíbula de 1,2 millones de años
/ EFE
-La
mandíbula del primer homínido europeo:
Una mandíbula
descubierta en la Sima del Elefante el 30 de junio de 2007 permitió
confirmar que el europeo más viejo de la historia vivió en la sierra
burgalesa hace 1,2 millones de años. El primer homínido europeo,
vinculado provisionalmente a la especie Homo antecessor, descendía de
unos africanos que se habían asentado en Dmanisi (Georgia) hace 1,7
millones de años, pero ya era diferente a ellos. El individuo tenía la
estatura de un hombre actual, aunque era algo más fornido y su capacidad
craneal rondaría los 1.000 centímetros cúbicos.
-El
primer fémur completo:
El primer
fémur completo de la evolución humana fue hallado en la Sima del
Elefante en 2001 partido en un centenar de pequeñísimas piezas, pero en
perfecto estado de conservación. Pertenece a un Homo heidelbergensis,
anterior a los neandertales, que pudo vivir hace unos 300.000 años.
-Los
rastros del fuego:
En la misma
excavación en la que fue encontrado el fémur, los investigadores
descubrieron los primeros rastros de fuego en un hogar ocupado por los
homínidos hace unos 150.000 años. Usaban el fuego para calentarse, cocinar
e iluminar la cueva. Se trataba de una zona de población humana muy densa,
con una sociedad compleja y bien estructurada.
-El niño
devorado:
Parte del cráneo
del niño de Gran Dolina fue desenterrado en julio de 1994. Durante años se le
consideró el primer europeo y se le atribuyó su pertenencia a una nueva
especie: Homo antecessor. La historia del niño es terrorífica. Se cree que fue
devorado por sus congéneres en un banquete caníbal cuando sólo tenía once
años. Al parecer, prácticas tan terribles eran habituales en esos tiempos.
-La pelvis de Elvis:
En la Sima de los
Huesos, también en 1994, los arqueólogos encontraron la única pelvis completa
de un preneandertal. Corresponde a un varón de cerca de 1,80 metros y cien
kilos de peso. Con mucha gracia, recibió el nombre de Elvis.
-El cráneo
más completo:
Los investigadores
encontraron en la Sima de los Huesos en 1992 el cráneo más completo encontrado
nunca. Correspondía a un Homo heidelbergensis, especie antecesora de los
neandertales, que vivió hace 400.000 años. Los expertos le dieron el nombre de
Miguelón, en honor al ciclista Miguel Induráin. Concluyeron que Miguelón murió
por una infección tras romperse un diente. El cráneo estaba deformado por este
motivo
Fuente: abc.es,
28-5-09
-Fases en planetas extrasolares
Un grupo de investigadores de la Universidad de Leiden
(Países Bajos) ha logrado registrar las fases orbitales de un planeta
extrasolar por vez primera, como publican esta semana en la revista 'Nature'.
El descubrimiento, casi 400 años después de que Galileo Galilei
observara que Venus tenía fases cambiantes como la Luna, demuestra
que, en longitudes de ondas ópticas, el planeta se asemeja a lo que se ha
observado en los planetas de nuestro Sistema Sistema Solar.
El hallazgo se refiere al planeta CoRoT-1b, el primero
extrasolar que descubrió el CoRoT (Convection Rotation and Planetary
Transit), una misión lanzada en 2006 por la Agencia Espacial
Francesa, en colaboración con la Agencia Espacial Europea. Se
trata de un gigante gaseoso con un tamaño similar a Júpiter. El equipo
liderado por Ignas Snellen, del observatroio de la Universidad de Leiren,
presenta un análisis de datos fotométricos ópticos del mismo satélite que
representa 36 órbitas planetarias. Sus datos, según
aseguran, muestran que el hemisferio del lado oscuro permanente del
planeta es totalmente negro. Sin embargo, en su cara diurna se refleja una
pequeña parte de la luz que recibe de su estrella, que domina la curva de
la fase óptica.
El satélite monitorizó este planeta durante 55 días,
mientras en su campo de visión había unas 12.000 estrellas. El tiempo de
vision fue de 512 segundos durante los primeros 30 días y
32 segundos para el resto de las observaciones, de donde se consiguieron
69.000 datos sobre su curva de luz que cubrían 36 órbitas planetarias.
Recreación de las diferentes fases del planeta extrasolar.
/ 'Nature'
Fuente: elmundo.es, 28-5-09
-Galicia compite por la primera base del mundo en vuelos no tripulados
Pocos conocen las verdaderas dimensiones de
este macroproyecto aeronáutico y quienes saben de él lo llaman el monstruo.
Francia, Alemania, Italia y al menos dos comunidades españolas (Andalucía y
Madrid) compiten por llevárselo, todavía sin saber que Galicia dispone ya de un
plan de viabilidad encargado y pagado en los últimos días de gestión del
anterior Gobierno, que ahora estudia la actual Xunta y que, según fuentes
directamente implicadas en la negociación, otorga a la comunidad gallega el 80%
de posibilidades de éxito en la adjudicación.
El documento que ahora analiza la Consellería
de Industria sitúa en el municipio de Trasmiras (Ourense) la sede del monstruo
o, lo que es lo mismo, la primera base del mundo dedicada a la investigación,
desarrollo, construcción y prueba de aviones no tripulados. El proyecto dibuja
una ciudad del futuro de contenidos propios de una película de ciencia ficción,
de difícil encaje en la comarca de O Xurés, ya que allí se instalarán (siempre
según el plan de viabilidad) el centro de excelencia de aviones no tripulados de
EADS, una base europea de empresas americanas, una base secundaria de la NASA,
el centro de desarrollo europeo del programa Bams (adjudicado a Northrop por la
Marina de EE.?UU.), la base española de aviones no tripulados del Ejército del
Aire y el centro de unidades de Gardacostas y Salvamento de la Xunta de Galicia.
El proyecto de Trasmiras incluye un aeródromo con 5 kilómetros de pista
La instalación de todo este complejo aeronáutico generaría
7.000 puestos de trabajo directos (los mismos que actualmente emplea la factoría
de PSA Peugeot Citroën) y 20.000 más indirectos. En el horizonte de cinco años,
la cifra se duplicaría.
El enclave perfecto
La reserva que envuelve a este proyecto genera
no pocas incógnitas. ¿Por qué en Ourense? Fuentes vinculadas a su desarrollo
aseguran que el agujero libre de tráfico aéreo localizado sobre Trasmiras es
único en Europa y en él radica el éxito de la adjudicación.
Más dudas. ¿Quién decide la adjudicación? ¿Qué
papel juegan los Gobiernos? Según las mismas fuentes, el apoyo político es
importante, pero al tratarse de un proyecto eminentemente industrial, la última
palabra la tiene un gran holding integrado por constructores aeronáuticos como
EADS, Northrop Grumman o Boeing que desarrollan programas militares, lo que
además da entrada a la participación militar y de la propia NASA.
«La industria lleva años buscando en Europa un
emplazamiento para el desarrollo de los programas de aviones no tripulados y en
Galicia han encontrado el lugar perfecto», asegura una fuente directa encargada
de la negociación.
Un presupuesto de
mil millones
El plan de viabilidad para la construcción de
la base de aviones no tripulados de Ourense que ahora está en la Consellería de
Industria consta de una segunda parte que todavía no habría llegado a la
Administración, según aseguran fuentes del proyecto, y cuyo contenido se
considera «clasificado».
El sector estima que, en España, el programa
exigirá una inversión bastante superior a los 1.000 millones de euros. El suelo
correría por cuenta de las Administraciones locales y, de entrada, se descarta
cualquier problema derivado del siempre complicado proceso de las
expropiaciones, ya que la superficie a utilizar será explotada en régimen de
alquiler por 50 años. obre los detalles constructivos de la base planificada en
Trasmiras, llama la atención el aeródromo, con 5 kilómetros de pista. El
proyecto incluye un área dedicada a polígonos industriales, en el que se
emplazarán empresas y proveedores, zona de hangares, bases militares, una
urbanización residencial de diseño futurista y ecológica, centros tecnológicos y
un campus universitario especializado en aeronáutica.
Adjudicación y plazos
Los plazos de adjudicación y construcción de la
base no están cerrados, pero fuentes del proyecto aseguran que la decisión está
próxima y, a partir de ahí, la adjudicación podría ser cuestión de diez meses.
Un referente fiable en cuestión de fechas es EADS que, según ha avanzado esta
misma semana, se ha marcado el próximo mes de junio como tope para propinar el
impulso definitivo a su centro de excelencia de aviones no tripulados, que
aparece incluido en el plan de viabilidad del proyecto gallego.
Un mercado con mucho futuro
El mercado de los aviones no tripulados (UAV)
será el más dinámico de la industria aeronáutica en los próximos 10 años. La
industria aeronáutica mundial, en complicidad con los Gobiernos más poderosos (EE.UU.
e Israel son las primeras potencias de la especialidad), está volcada en el
desarrollo de estos vehículos, convencida de que, en muy poco tiempo, se
convertirán en una herramientas multiusos en misiones militares, de
reconocimiento, de protección civil y en otros muchos campos aún inexplorados
(aplicaciones comerciales o de servicios) que actualmente están atendidos por
los aparatos tripulados.
De momento, el avión sin piloto es una
tecnología casi de uso exclusivo militar cada vez más aplicada en las guerras.
El Predator es ya un veterano de las fuerzas armadas de ?EE.?UU., y su exitosa
actuación en el conflicto de Irak (solamente han sido derribados tres) ha dado
pie a otros países a incorporar estos aparatos a sus dotaciones militares. El
Ejército español cuenta con cuatro unidades correspondientes al modelo israelí
IAI Searcher (MKII-J), que utilizó por primera vez en Afganistán en abril del
2008, en misión de reconocimiento. A finales del 2008, el organismo aeronáutico
español INTA desveló uno de sus proyectos: el HADA, vehículo híbrido entre avión
y helicóptero, capaz de despegar en vertical y cambiar su configuración en el
aire para volar como un avión.
Mercado creciente
Según el último estudio elaborado por Teal
Group, consultora estadounidense especializada en el sector, el gasto en este
tipo de aeronaves prácticamente se duplicará en diez años, pasando de los
actuales 4.400 millones de dólares anuales (3.465 millones de euros) a los 8.700
millones de dólares (6.850 millones de euros). Es decir, que en en el próximo
decenio este mercado moverá un total de 62.000 millones de dólares (48.800
millones de euros). El país que seguirá liderando el desarrollo de los UAV será
Estados Unidos, que según el informe de Teal Group, de más de 300 páginas,
acaparará el 72% de la inversión en investigación y desarrollo que se realice a
nivel mundial en este ámbito. Además, materializará el 61% de las compras. El
análisis no descarta que la región de Asia-Pacífico pueda llegar a superar a
Europa en el desarrollo de estos aparatos, claves para misiones de inteligencia,
vigilancia y reconocimiento y que cada vez tienen un papel mayor en los
conflictos bélicos.
En cuanto a la carga útil de los UAV (como
sensores ópticos y de infrarrojos, radares de apertura sintética o sistemas de
control y comunicación), la previsión es que las inversiones relacionadas pasen
de los 2.000 millones de dólares de este año (1.575 millones de euros) a 5.000
millones de dólares (3.940 millones de euros) en el 2019.
Fuente: lavozdegalicia.es, 28-5-09
-La misión OasISS en camino
de la Estación Espacial Internacional
El astronauta de la ESA Frank De Winne ya está en camino
hacia la Estación Espacial Internacional, comenzando así la misión OasISS de
seis meses de duración. Junto al cosmonauta ruso Roman Romanenko y al astronauta
de la Agencia Espacial Canadiense Robert Thirsk, De Winne comenzó su viaje desde
el Cosmódromo de Baikonur, Kazajistán, a las 12:34 CEST (10:34 UT) del día de
ayer.
Está previsto que la nave Soyuz TMA-15 atraque a la Estación Espacial
Internacional (ISS) a las 14:36 CEST (12:36 UT) el próximo viernes 29 de Mayo.
La llegada de De Winne, Romanenko y Thirsk a la ISS marcará el comienzo de la
primera tripulación permanente de seis personas, al unirse a los tres miembros
de la Expedición actualmente residiendo en la Estación: el cosmonauta ruso
Gennady Padalka, el astronauta de la NASA Michael Barrat y el astronauta japonés
Koichi Wakata.
Durante los cuatro primeros meses de la misión OasISS, De
Winne ocupará el cargo de Ingeniero de Vuelo como miembro de la Expedición 20,
comandada por Gennady Padalka. Con la rotación de tres de los seis miembros de
la tripulación prevista para el próximo mes de Octubre, De Winne ocupará el
cargo de Comandante de la Expedición 21 hasta su regreso a la Tierra en
Noviembre. Será el primer europeo en ocupar el cargo de Comandante del complejo
orbital.
Como Comandante de la ISS, De Winne será responsable, entre
otras cosas, de dirigir las operaciones de la Estación, de coordinar las
actividades de los miembros de la tripulación como un equipo único e integrado,
y de garantizar la seguridad de la tripulación y la protección de los elementos
de la ISS, sus equipos y sus cargas útiles.
“Presenciar este lanzamiento es un gran momento, un momento
cargado de logros y que abre nuevas oportunidades, posicionándonos en la plena
explotación de la ISS en preparación para las futuras misiones de exploración.
Estoy esperando que la tripulación de seis miembros a bordo de la Estación
comience a sacar el máximo partido a su potencial científico y a desarrollar las
actividades que harán posible emprender misiones a otros destinos. Hemos tenido
una quincena muy intensa: el traslado del Nodo 3, la selección de los 6 nuevos
miembros del Cuerpo Europeo de Astronautas y ahora este hito. Los vuelos
tripulados y la exploración están adquiriendo una gran inercia, y seguiremos
trabajando para que Europa prepare más oportunidades en este campo”, comenta
Simonetta di Pippo, Directora de Vuelos Tripulados de la ESA.
“El año pasado Columbus y el Vehículo Automatizado de
Transferencia Julio Verne demostraron la fiabilidad y la capacidad de la Agencia
Espacial Europea en el proyecto de la Estación Espacial Internacional. Los
laboratorios científicos europeos y los instrumentos a bordo de Columbus operan
ahora a diario, controlados desde el Centro de Control en Oberpfaffenhofen
(Alemania). Con una tripulación permanente de seis miembros, habrá muchos más
recursos a bordo para realizar progresos científicos y tecnológicos”, comenta el
Director General de la ESA Jean-Jacques Dordain, testigo del lanzamiento desde
Baikonur.
“La presencia de dos astronautas de la ESA a bordo de la ISS
este año – Frank de Winne y Christer Fuglesang – le dará un toque europeo a esta
Expedición. Por otra parte, y por primera vez, los cinco miembros del programa
de la ISS – Estados Unidos, Rusia, Canadá, Japón y la ESA – estarán
representados en esta tripulación de seis personas. Les deseo a todos una misión
cargada de éxitos y estoy seguro de que demostrarán una vez más que el espacio
es el lugar donde mejor se puede expresar la cooperación internacional, para el
beneficio de todos nosotros, los ciudadanos de la Tierra”, añade Dordain.
De Winne también será el principal operador del brazo
robótico Japonés y será uno de los dos astronautas que acoplará el Vehículo de
Transferencia H-II (HTV) a la ISS utilizando el brazo robótico de la Estación,
cuando la nave de carga japonesa llegue a la ISS en Septiembre.
Durante la misión OasISS, De Winne utilizará las
instalaciones científicas de la ISS, especialmente el laboratorio europeo
Columbus, para desarrollar un programa europeo de experimentos científicos y de
demostradores tecnológicos. Estos provienen principalmente de instituciones
científicas de toda Europa e incluyen experimentos en las áreas de la fisiología
humana, la biología, la dosimetría de radiación, la exobiología, la física de
fluidos y la ciencia de los materiales.
La ESA considera a la educación como un aspecto muy
importante en sus misiones tripuladas, ya que ayudan a inspirar a los jóvenes de
hoy en día. De esta forma, la misión OasISS será el objetivo principal de las
actividades de educación de la ESA durante la duración de la misión, incluyendo
clases en directo impartidas por De Winne desde la ISS.
De Winne es un embajador de buena voluntad de UNICEF Bélgica,
lo que proporciona una oportunidad dentro del programa de actividades educativas
para la cooperación entre la ESA y UNICEF Bélgica. Esta cooperación se basa en
el tema común del agua, y apoyará a la campaña WASH de UNICEF dedicada al agua,
a la sanidad y a la higiene. El agua no es sólo uno de los elementos básicos más
importantes para la vida tal y como la conocemos, y por lo tanto la pista más
importante a seguir al buscar vida en el Universo, sino que también es uno de
los recursos más importantes para los astronautas y para las naves en órbita.
Este es el segundo vuelo espacial de De Winne
tras formar parte de la misión Odissea a la ISS del 30 de Octubre al 10 de
Noviembre de 2002. Una vez en la ISS, se unirá el astronauta de la ESA Christer
Fuglesang (Suecia), que viajará como especialista de la misión de 11 días STS-128
programada para el mes de Agosto de 2009.
Fuente: ESA,
27-05-09
-El Monte Olimpo de Marte
podría contener vida
El Monte Olimpo es el último 'punto caliente' en
la búsqueda de zonas habitables en Marte. El volcán marciano es unas tres veces
más alto que el Monte Everest, pero es un detalle menor para Patrick McGovern y
Julia Morgan, profesores de la Universidad de Rice. Tras estudiar modelos por
ordenador de la formación del Monte Olimpo, McGovern y Morgan han propuesto que
podrían existir aun acumulaciones de agua bajo la montaña. Su investigación fue
publicada en el número de febrero de la revista Geology.
El Monte Olimpo es alto, llegando hasta los
24 kilómetros de altura y sus pendientes bajan suavemente desde la caldera
hasta la base, a una distancia de más de 241 kilómetros. Esta suave
pendiente es una pista de lo que se encuentra debajo, dicen los
investigadores. Sospechan que si fueran capaces de estar en la cara noroeste
del Monte Olimpo y comenzara a excavar, encontrarían eventualmente unos
sedimentos de arcillas depositados hace miles de millones de años, antes de
que la montaña fuera de ese enorme tamaño.
En los modelos de formación del Monte Olimpo,
usando un algoritmo conocido como 'simulación de partículas dinámicas',
McGovern y Morgan determinaron que sólo la presencia de los antiguos
sedimentos de arcillas pueden explicar la forma asimétrica del volcán. La
presencia de sedimentos indicaría que el agua estuvo o está envuelta. La
sonda Mars Express de la Agencia Espacial Europea ha encontrado en los
últimos años abundantes evidencias de arcillas en Marte. Esto apoya una
teoría previa de que donde ahora reside el Monte Olimpo, una vez hubo una
capa de sedimentos que pudo ser de cientos de metros de grosor.
Morgan y McGovern muestran en sus modelos de
ordenador que el material volcánico fue capaz de adquirir sus enormes
proporciones debido el reducido efecto de fricción de las arcillas, un
fenómeno también visto en los volcanes de Hawaii.
Pero los fluidos envueltos en una capa
impermeable y presurizada de sedimentos de arcillas pudo provocar la clase
de movimientos de deslizamiento que podría explicar la forma del flanco
noreste del Monte Olimpo y que aun podría estar produciendose. Y como la
sonda Phoenix de la NASA ha encontrado hielo bajo la superficie marciana el
año pasado, Morgan y McGovern creen que es razonable sospechar que el agua
podría estar atrapada en los sedimentos bajo la montaña.
"Esta reserva profunda, calentada por los
gradientes geotermales y el calor magmático y protegida de las adversas
condiciones de la superficie, podría ser un ambiente favorable para el
desarrollo y el mantenimineot de organismos termófilos", escriben. En la Tierra,
estas formas de vida existen a lo largo de los respiraderos geotermales en el
suelo del océano.
Encontrar una fuente de calor será un desafío
admiten Morgan y McGovern. "Nos encantaría tener la respuesta a esa pregunta",
dice McGovern. Señala la evidencia de metano en Marte que es considerada por
algunos como otro marcador de la vida.
Fuente: sondasespaciales.es, 27-5-09
-Hallan un ingrediente clave
para la vida en un meteorito
El ácido fórmico, uno de los ingredientes que se consideran fundamentales en
el 'caldo primordial' del que surgió la vida, se ha detectado
en un meteorito que cayó en el lago Tagish de Canadá, en el año 2000.
Según
ha anunciado un equipo de investigadores en
la conferencia de
la Unión Geofísica Americana, los análisis realizados en esta roca han
desvelado niveles de esta molécula cuatro veces más altos que
la mayor cantidad detectada hasta ahora en otros meteoritos. Además, los
científicos están convencidos de que el ácido fórmico tiene un origen
extraterrestre.
Un fragmento del meteorito que cayó en el lago Tagish de
Canadá. | NASA
"Hemos tenido suerte de que el meteorito no fuera
manipulado por personas, ya que si esto hubiera ocurrido se
hubiera contaminado con compuestos orgánicos que todos tenemos en
los dedos", ha explicado a la BBC Christopher Herd, de la Universidad de
Alberta, uno de los autores principales de la investigación.
Las
muestras del meteorito, que en total pesan 850 gramos, se encontraron en
las aguas del lago Tagish, cuyas bajas temperaturas evitaron que
el ácido fórmico se disipara. Los investigadores han sometido
estos fragmentos de roca a una exhaustiva serie de análisis, y han
descubierto cantidades de este compuesto orgánico que baten todos los
récords en este campo de estudio. Hasta ahora, los científicos habían
centrado sus esfuerzos en la exploración del llamado meteorito de
Murchison, que cayó en 1969 en la ciudad australiana del mismo
nombre, y en el que se encontraron varios tipos de aminoácidos.
"Lo interesante es que estamos descubriendo mucha variedad en
los tipos de compuestos que contienen los meteoritos. No nos
habíamos dado cuenta de esto al centrarnos en el metorito de Murchison,
pero ahora este nuevo hallazgo nos ofrece una nueva perspectiva", asegura
Mark Sephton, del Imperial College de Londres.
La composición química del ácido fórmico detectado en el meteorito del
lago Tagish demuestra que probablemente se formó en las regiones
más frías del espacio, antes de que existiera el Sistema Solar.
En la Tierra, el ácido fórmico se encuentra en los aguijones de
algunos insectos, como las hormigas, pero los expertos creen que
fue un ingrediente importante en las reacciones bioquímicas que
desencadenaron el surgimiento de la vida en la Tierra.
Algunos científicos consideran posible que los ingredientes fundamentales
de la vida pudieron llegar a nuestro planeta desde el espacio,
traídas por meteoritos o cometas. Esta hipótesis, conocida como la teoría de
la panspermia, es muy controvertida, aunque ha tenido algunos defensores
ilustres, como el codescubridor del ADN, Francis Crick.
Fuente: elmundo.es, 27-5-09
-El reactor experimental de fusión, al borde del retraso
Un escenario menos ambicioso para el reactor experimental
de fusión nuclear ITER será estudiado en junio por los siete socios del
megaproyecto, que se construye en Cadarache (Francia). Si se aprueba, supondrá
que el inicio de los experimentos necesarios para validar la fusión como
fuente de energía se retrasaría cinco años, de 2020 a 2025, asegura la revista
Nature esta semana.
El aumento previsto de los costes es la principal razón de
que el nuevo calendario, conocido en el proyecto como Escenario 1, pueda
llegar a ser aprobado en noviembre, tras ser discutido el 17 y 18 de junio en
la reunión del consejo del ITER, en el que están representados la Unión
Europea, Japón, Estados Unidos, Rusia, China, India y Corea del Sur. Norbert
Holtkamp, director general adjunto del ITER, asegura en la citada revista que
la única forma de conseguir construir el reactor es hacer primero una versión
incompleta. Antes de llegar a la fase de los experimentos productores de
energía "debemos necesariamente saber si los componentes principales
funcionan", afirma.
Esquema del funcionamiento del ITER-
El Escenario 1 consiste en que primero se construirá el
reactor sin algunos de sus componentes más caros y esenciales, lo que impedirá
que pueda manejar plasmas de deuterio o de tritio, su objetivo. Sólo podrá
manejar plasma de hidrógeno. Así, los científicos e ingenieros podrían
comprobar que la máquina funciona antes de que la inyección de tritio la
convierta en inaccesible para las personas, en su mayor parte, debido a la
radiactividad.
"Estamos tratando de prescindir de todo lo que no sea
indispensable", asegura Octavi Quintana, director de Energía en Euratom, y
representante de la UE en el consejo del ITER, refiriéndose a la construcción
de la sede, que paga Europa. A pesar del problema que supone el aumento de los
costes, Kaname Ikeda, director general del ITER, cree que todos los socios
están dispuestos a gastar más a cambio de obtener la experiencia necesaria
para "diseñar, fabricar y operar esta máquina".
Sin embargo, todos reconocen la complejidad del proyecto.
Niek Lopes Cardozo, vicepresidente de Fusión para Energía (la agencia europea
para el ITER, con sede en Barcelona), afirma: "Construir el ITER es como
construir la Estación Espacial, pero teniendo que organizar al mismo tiempo la
NASA y la ESA".
Fuente: elpais.com, 27-5-09
-Fuerteventura y seis municipios gallegos, Reserva
Mundial de la Biosfera
El Consejo Internacional de Coordinación (CIC) del Programa sobre el
Hombre y la Biosfera (MaB) de la UNESCO, ha incorporado, en el marco de su
21 sesión que se celebra en la Isla de Jeju, en la República de Corea,
veinte nuevas reservas de biosfera, entre las que se encuentran la Isla de
Fuerteventura y las Reservas de la biosfera Transfronteriza Gerês-Xurés
entre España y Portugal.
La Reserva de Biosfera Gerês-Xurés abarca en total 11 municipios, seis en
Galicia (Lobios, Entrimo, Muiños, Lobeira, Calvos de Randín, y Bande), y
cinco en Portugal (Melgaço, Arcos de Valdeve, Ponte da Barca, Terra de Bouro
y Montalegre), ha informado el Ministerio de Medio Ambiente, Medio Rural y
Marino.
En el caso de la Isla de Fuerteventura, la Reserva comprende todo el
territorio insular más una franja marina de 8 kilómetros en el sector oeste
y de 4,8 millas en el resto de la isla.
Con las nuevas incorporaciones, la Red Mundial de Reservas de Biosfera ya
alcanza 551 territorios que se han sumado a este proyecto de desarrollo
sostenible mundial, 40 de ellos en España.
Fuente: abc.es, 26-5-09
-Infofusibles, las
señales de humo del siglo XXI
Como si fuera la bengala de un
cóctel tropical, una tira de papel se consume por el fuego con una llama
brillante que cambia de color. Las variaciones no son caprichosas, sino
que siguen un código, una especie de Morse visual que transmite al
observador un mensaje cifrado: "Look mom no electricity" (Mira, mamá, sin
electricidad). El artefacto, denominado infofusible, se publica
en el último número de la revista PNAS como avanzadilla de la
infoquímica, una nueva disciplina que su creador, el científico de la
Universidad de Harvard George Whitesides,
define como la tecnología de la información y la comunicación basada en la
química y que prescinde de la electricidad. El invento, entre
frívolo y genial, es un fiel reflejo de su autor. Whitesides, uno de los
químicos vivos con mayor índice de citaciones, ha conquistado
reconocimientos en todo el mundo, incluyendo el premio Príncipe de
Asturias de Investigación concedido en 2008 a varios pioneros de la
nanotecnología. En su laboratorio de Harvard dirige un grupo de casi 50
personas dedicadas a los múltiples y heterodoxos intereses científicos del
jefe: "Química física y orgánica, ciencia de materiales, biofísica,
complejidad y emergencia, ciencia de superficies, microfluídica, óptica,
autoensamblaje, micro y nanotecnología, ciencia para las economías en
desarrollo, catálisis, conservación y producción de energía,
origen de la vida, diseño racional de
fármacos, bioquímica de la superficie celular, simplicidad", y
ahora, también, "infoquímica". Como los mandamientos, Whitesides resume
sus intereses en uno: cambiar los paradigmas de la ciencia.
En su empeño de nadar a
contracorriente, Whitesides quiere desafiar a un mundo dominado por la
electrónica y explorar las posibilidades de la química como soporte para
almacenar y transmitir información. En esta infoquímica, dice, existe un
ejemplo biológico ya inventado por la
naturaleza y aplicado con enorme éxito: el ADN. Combinando sólo
cuatro letras, el idioma genético codifica la inmensa diversidad de la
vida terrícola.
El científico se propuso diseñar
"un sistema autoalimentado que emplea reacciones químicas para transmitir
información alfanumérica codificada", inspirándose en sistemas primitivos
como los destellos de luz o las señales de humo.
Siempre bajo su máxima de la simplicidad,
Whitesides encontró la solución basándose en sólo dos componentes:
membranas de nitrocelulosa para el soporte y metales alcalinos para el
código.
Código binario
multicolor
Las membranas de nitrocelulosa
son láminas parecidas al papel que se emplean asiduamente en los
laboratorios para análisis de proteínas y ADN. La nitrocelulosa es muy
inflamable y se utiliza también como explosivo, por lo que podía servir
como soporte para la combustión. Para el segundo elemento, el código,
Whitesides eligió tres metales alcalinos, litio, rubidio y cesio, que
emiten espectros de luz distintivos al quemarse.
Con un código binario que asigna cero o
uno a cada metal y dejando fuera el triple cero, se generaban siete
combinaciones diferentes, que aumentaban a 49 al incluir dos pulsos de luz
por carácter, lo que permitía codificar el alfabeto y los números.
Los investigadores grabaron la
secuencia del mensaje sobre una tira de nitrocelulosa utilizando una
impresora de tinta. El infofusible así
obtenido se quemaba y una cámara o un espectrómetro recogía el mensaje
luminoso hasta a 30 metros de distancia, según el estudio.
De momento es sólo un primer paso que hoy parece
rudimentario, pero Whitesides ya advierte sobre nuevos modelos y
aplicaciones que quizá alumbren una revolución de la infoquímica.
Una imagen del infofusible en proceso de
combustión. - G. W.
Fuente: publico.es, 25-5-09
-Llega el libro digital
Un domingo cualquiera, quizá en la primavera de 2015,
usted, querido lector, irá al quiosco, un gesto cotidiano como ha hecho
esta mañana, en busca de su ABC. Durante toda la semana en la televisión
habrán anunciado que, junto al diario, podría encontrar un cupón para
canjear en unos grandes almacenes por un dispositivo electrónico de
lectura. Un Kindle, por citar el ejemplo de moda, comercializado por
Amazon en Estados Unidos. Un domingo empezará todo. Con ese e-reader, el
suscriptor de ABC probablemente recibirá una clave para acceder al
contenido de su periódico durante todo el año, cada mañana temprano, o
actualizado varias veces al día, cada vez que se conecte a una red wifi. Y
el comprador de periódicos de siempre se planteará una pregunta de esas
que cambian nuestra forma de vida, como el día que empezamos a escuchar
mp3 en lugar de discos físicos. ¿El próximo fin de semana volveré a por mi
ejemplar en papel o aceptaré la oferta de una suscripción al periódico,
una actualización constante, infinidad de servicios añadidos y el nuevo
gadget, todo a un precio irrechazable, a cambio de un compromiso de
permanencia similar al que utilizan las operadoras telefónicas?
A los expertos del mundo digital les acribillan con
escenarios como éste. Quizá les confunden con Ray Bradbury. ¿Qué ocurrirá en
2015? «¿De verdad va a ir al portalibros la mitad de todo el negocio editorial
en España?», se preguntaba escéptico en su blog José Antonio Millán, editor,
escritor, lingüista y miembro del consejo científico de la Biblioteca Virtual
Miguel de Cervantes. Millán no cree en el apocalipsis, sino en «la
coexistencia pacífica entre los dos medios». Y eso que su relación con «lo
digital» empezó hace una eternidad. «Corría el año 1973... Era estudiante de
Filología, y un compañero de Preu se había metido en Informática. ¿Y eso cómo
es?, le pregunté. Yo andaba entonces con un trabajo de métrica latina y
descubrí que los textos se podían digitalizar y analizar muy fácilmente».
Luego vino su web, su escrutinio diario de estos asuntos, su papel de Bradbury.
«Es imposible saber qué va a ocurrir en estos tiempos revueltos. Nadie sabe
nada, y muchas cábalas obedecen a intereses concretos».
El avance de estos dispositivos ha sido menos veloz de lo
que ahora nos parece, fascinados por la estrategia de Amazon. Han sido más
bien movimientos espasmódicos, según la definición de Millán. Hacia 1996
apareció el Rocket eBook, un artilugio que hoy ni nos suena. En 2000, Stephen
King vendió su novela «Riding the Bullet» sólo por internet. La compraron
500.000 personas. Luego lo intentó con «The Plant», un relato en capítulos por
el que sus fans pagaban lo que consideraban justo, o nada, una vez descargado.
La apuesta de King, uno de los grandes autores de best sellers de las últimas
décadas, no fue suficiente para alimentar el nuevo sector. Y así hasta finales
de 2007, cuando Jeff Bezos, el gran jefe de Amazon, parió el primer Kindle, el
principio de algo. La segunda versión nació en febrero de 2009. Y la tercera,
pensada para leer periódicos, apoyada por el New York Times y el Washington
Post, este mes de mayo. Ahora sí, parece que todo va muy deprisa...
El nuevo orden digital
Bezos quiere ser el Steve Jobs (Apple, iPod) de los libros.
Dicen que el 6 por ciento de los que vende Amazon.com son ya digitales. Y en
el primer semestre del año ha sido capaz de presentar dos modelos del Kindle,
que han revuelto las aguas del sector, sobre todo el último (el DX cuesta 498
dólares y el modelo anterior, 359). ¿Es la salvación de los periódicos?,
leímos aquí y allá. La «suscripción Kindle» del NYT cuesta 13,99 dólares al
mes (Washington Post o Boston Globe, a 9,99), incluida la conexión wireless
para realizar la descarga, como en los libros. El NYT estudia rediseñar el
periódico para estos dispositivos, y, mientras tanto, se especula con que
Apple está a punto de lanzar su e-book, con la tienda iTunes como base de
operaciones
Javier Celaya, creador de Dosdoce.com, «predicador» del
nuevo orden digital en colegios o en editoriales, dice que este año aparecerán
unos quince modelos nuevos similares al Kindle y se muestra convencido de que,
en diez años, la mitad de los ingresos de las editoriales no procederá del
papel. A nuestra cita, en una librería de Madrid, un gesto de buena vecindad,
llega con el i-Rex que utiliza para sus clases. «Los e-reader de primera
generación (1995 -2003) emitían luz como los ordenadores y cansaban la vista.
Los de segunda, como éste, utilizan tinta electrónica, una experiencia de
lectura parecida a la de un libro. Además, podemos tomar notas o subrayar.
Pero cada mes se perfeccionará algo: paso de páginas más rápido, incorporación
del color y de los formatos multimedia, más capacidad, wifi...».
Celaya habla de los esfuerzos de algunas editoriales
francesas, inglesas o alemanas por hincar el diente a los nuevos tiempos, pero
la realidad en España aún es perezosa. El día 29 comienza en Madrid la Feria
de Libro, una cita para «tocar» el papel y hasta a los autores. Hace años hubo
un pabellón dedicado al libro electrónico, pero el invento murió, según
Teodoro Sacristán, director de la Feria, por falta de interés. «En la edición
de 2009 —aclara— nadie del sector de los contenidos o de los soportes ha
solicitado participar en este encuentro. He estado en la feria de Fráncfort,
busqué el Sony Reader por curiosidad y lo encontré en un pequeño stand de un
rincón». Sacristán recuerda, en cambio, que el Ministerio de Educación sí
organiza dentro de la Feria las «Jornadas sobre el libro digital: Del sinodal
al digital». «Va a haber mucho debate y durante mucho tiempo, y eso es bueno».
¿Pero de verdad no hay interés entre los editores? ¿Ven lo
digital como un futuro muy, muy lejano? Hace unos días hubo en Barcelona una
cumbre en la que participaron representantes de Planeta, Alfaguara, Tusquets o
Random House Mondadori. Allí se habló de cómo replantear los contratos de
derechos con los autores y sus agentes para empezar a abrir el melón digital.
Y hace unos meses, la empresa navarra Leer-e (www.leer-e.es), que vende
soportes y contenido, anunció un acuerdo con la agencia literaria de Carmen
Balcells para poner en marcha el proyecto Palabras Mayores, la edición en
formato electrónico de obras clásicas de Goytisolo, Marsé, Delibes, Vargas
Llosa o García Márquez.
Convivencia pacífica
Claudio López Lamadrid, director editorial de la división
literaria de Random House, lleva mucho tiempo en el negocio. Es un lector
profesional. Y, desde hace menos de un año, su vida resulta mucho más cómoda.
En el verano de 2008 su empresa regaló un Sony Reader a todos los editores. En
esas tripas que hacen bip bip viaja ahora la última novela de Orhan Pamuk, «El
museo de la inocencia», ochocientas páginas que en otra época hubiera llevado
por el mundo en su maletín. «Tenía uno antes de que me lo regalaran. Lo compré
en Nueva York y me entusiasmó. Pero sólo lo utilizo para leer material de
trabajo». Lamadrid también cree en la convivencia pacífica, y menciona el
«elemento ideológico» que supone viajar o ir por la calle con un autor y no
otro. «Los libros se tienen que ver y tocar».
En Planeta, uno de los gigantes del sector editorial en
España, llevan un año trabajando en ello. «Falta que los dispositivos
desembarquen definitivamente en España», apunta Santos Palazzi, director del
área de Mass Market de la editorial. «A partir de 2010 las novedades
emprenderán dos caminos: la imprenta y los e-books. Y nuestro fondo editorial
—10.000 títulos— tendrá que ser digitalizado». El coste de adaptación no es
ninguna broma: entre dos y tres millones de euros. También habrá que negociar
los derechos digitales y la parte del pastel que se llevan los intermediarios.
Los libreros tradicionales tendrán que ponerse las pilas y crear plataformas
para ofrecer el producto al destinatario final a un precio más económico que
un libro físico. ¿Cuánto? Algunos títulos clásicos se venden hoy a 9,99 euros.
El PVP recomendado suele ir a misa en nuestro país y no parece que esa
situación vaya a cambiar con el nuevo formato; sin embargo, en EE.UU. no hay
política de precios fijos y por eso empresas como Amazon son tan agresivas.
¿El papel tiene los días contados? «A corto plazo,
rotundamente no», afirma Santos Palazzi. «Hasta que un gadget electrónico no
llega al 3 por 100 del público no se considera implantado. Hay 15 millones de
hogares en España; haría falta que unos 450.000 dispusieran de esos lectores
para hablar de un nicho de mercado interesante. Si tenemos en cuenta que en la
actualidad el 50 por ciento de la población española no lee ni un libro al
año... Los libros electrónicos suponen el 0,7 por 100 de la venta editorial en
Estados Unidos, país pionero donde, por ahora, hay mucha oferta y pocas
compras. Los dispositivos son caros; en cambio, tienes un libro de bolsillo
que te proporciona unas diez horas de ocio por diez euros».
Y sin embargo, el lema de Grammata, una empresa granadina
que vende el e-book Papyre, es «Hacia el libro sin papel». Su propietario,
Juan González de la Cámara, empezó a creer hace cuatro años que la tinta
electrónica era una realidad. Investigó. En 2007 llegó a un acuerdo con un
fabricante chino para distribuir en España el modelo Papyre, un lector
electrónico que se entrega con 600 libros de dominio público. En el segundo
trimestre de 2008 vendieron 4.500 unidades, y en 2009 esperan llegar a las
20.000. «Venimos a sumar y no a sustituir, sobre todo en determinados campos,
como la Universidad», afirma Jesús María Pagalajar, director de Marketing. En
la Universidad de Granada todas las facultades utilizan ya o están a punto de
hacerlo el Papyre como sistema de consulta.
«Hay que coger el toro por los cuernos», señala Javier
Cámara, gerente de la conocida Librería Cámara, de Bilbao, y miembro de la
junta directiva de la Confederación Española de Gremios y Asociaciones de
Libreros (CEGAL), que reúne a 1.600 establecimientos. «¿Qué somos, sino
vendedores de contenidos? Hablamos de un nuevo formato, como en su día fueron
los audiolibros... Es algo tan sencillo como proporcionar al cliente lo que
demande». En su tienda venden 150 títulos clásicos, no sujetos a derechos, en
el interior de artilugios como el Papyre, el iLiad o el Hanlin, cuyo precio
oscila entre los 300 y los 700 euros, según los documentos que contengan (el
tamaño de la pantalla, de 6 a 10 pulgadas, también condiciona el precio). ¿Y
el público? Cámara cree que surgirá un nuevo perfil de usuario, poco
acostumbrado a leer pero al que le mola ese punto fashion de las nuevas
tecnologías. Santos Palazzi, de Planeta, añade que este producto será muy
atractivo para la gente de cierta edad a la que le fatiga la tipografía de los
libros tradicionales. «En los electrónicos se puede elegir el tipo y el tamaño
de la letra para hacer los textos más cómodos a la lectura».
El fin de las pesadas mochilas
La Biblioteca Virtual Miguel de Cervantes (www.cervantesvirtual.com)
fue concebida hace diez años por la Universidad de Alicante con el apoyo del
Banco de Santander y la Fundación Marcelino Botín. Arrancó con un puñado de
entusiastas y con 2.000 registros bibliográficos. Hoy cuenta con 115.000
registros —que incluyen la mayor parte de las obras maestras de la literatura
en lengua española—, un gancho para que cada mes sirva 12 millones de páginas
(725 millones desde 1999). Su director general, Manuel Bravo, piensa que las
bibliotecas virtuales no acabarán con las reales. «Coexistirán. El formato
electrónico no puede compararse al placer de tocar un libro. Pero internet
abarata las pequeñas ediciones, apoya la venta en general y ofrece
accesibilidad a todo el mundo». Para 2010 planean crear un portal móvil con
120 obras imprescindibles de nuestras letras, aunque la aspiración es llegar
al millar. Se podrán descargar en portalibros y en teléfonos móviles. Falta
negociar con el fabricante del soporte.
Las clases sin libros y el fin de esas mochilas pesadísimas forman parte de un
futuro no muy lejano, según los expertos, y más aún tras el anuncio del
presidente Zapatero de que los portátiles van a llegar a las aulas. ¿Ocurrirá
de verdad así? Un estudio de la empresa The Cocktail Analysis apunta que los
consumidores españoles están dispuestos a pagar 75 euros por uno de estos
aparatos, cuando, hoy, ninguno vale menos de 299. En el sector creen que será
un inconveniente pasajero: los e-reader tenderán a costar lo que un mp3.
Entonces tal vez asistamos al principio del fin de la imprenta.
Fuente: abc.es, 24-5-09
-Un ex astronauta
negro dirigirá la NASA
El ex astronauta Charles Bolden será el nuevo administrador
de la NASA en la era Obama. El presidente de EEUU ha elegido por primera vez a
un afroamericano para sentarse en el sillón de mando de la agencia espacial, que
por segunda vez en la historia será dirigida por un astronauta retirado.
En los momentos delicados que vive la NASA, con recortes en
sus presupuestos e incertidumbre sobre el futuro de algunos de sus programas,
Obama ha elegido a un hombre de la casa, un general de
marines y antiguo comandante de transbordador espacial que conoce bien la
agencia. Con esta medida, el presidente de EEUU pretende transmitir un mensaje
de confianza y seguridad al sector espacial estadounidense.
Sin embargo, no todo son parabienes. Algunos medios en EEUU
señalan que Bolden está relacionado con empresas que han mantenido
contratos con la NASA, lo que pone en duda su neutralidad en las
futuras adjudicaciones.
Fuente: publico.es, 24-5-09
-El Atlantis aterriza en California
El transbordador
espacial Atlantis aterrizó finalmente en la base de la Fuerza Aérea Edwards, en
California, tras varios aplazamientos en Florida
debido al mal tiempo, tras concluir con éxito la misión de mejorar la
capacidad del telescopio espacial Hubble.
El aterrizaje se
llevó a cabo sin contratiempos en medio de unas condiciones climatológica
óptimas. El control de la misión dio la bienvenida por radio a sus siete
tripulantes y les felicitó por su trabajo.
La NASA había
derivado el aterrizaje del transbordador Atlantis a la base de la Fuerza Aérea
Edwards (California), debido al mal tiempo en el Centro Espacial Kennedy de
Florida, obligando a retrasar su descenso
durante dos días.
El
transbordador espacial Atlantis aterriza en la Base de la Fuerza
Aérea Edwards,
California (EEUU). EFE
Momento del aterrizaje del Atlantis
Los astronautas
recibieron la confirmación y las instrucciones para que iniciaran las maniobras
para salir de la órbita y regresar a la Tierra.
La NASA aplazó la
primera oportunidad de aterrizaje del Atlantis prevista para hoy, programada
para las 10.09 (14.09 GMT) en el Centro Kennedy de Florida debido a las malas
condiciones meteorológicas, al igual que pasó el viernes y el sábado.
Hasta el momento, la
agencia espacial había intentado evitar la Base Edwards de la Fuerza Aérea en
California (oeste) por el coste que implicará llevar al Atlantis de la costa
oeste hasta la costa este, cifrado en 1,8 millones de dólares.
La tripulación STS-125,
el comandante Scott Altman, el piloto Gregory C. Johnson, la especialista Megan
McArthur y los astronautas Andrew Feustel, John Grunsfeld, Mike Massimino y
Michael Good han vuelto a la Tierra tras cumplir con éxito una misión que
comenzó el pasado 13 de mayo y que ha durado dos días más de lo previsto. Han
realizado cinco caminatas espaciales para reparar y mejorar la capacidad del
telescopio Hubble.
El Hubble fue puesto
en órbita por el Discovery hace 19 años y gracias a los trabajos de reparación
realizados por la tripulación del Atlantis podrá seguir operando al menos cinco
años más.
Fuente: publico.es, 24-5-09
-Cercedilla
también está en Marte
Cercedilla, Guadarrama y Madrid no sólo existen en la
comunidad autónoma del mismo nombre, sino también en Marte. Tres rocas
concretas del cráter Victoria, que ha explorado durante dos años uno de los
todoterreno de la NASA (el Opportunity) han sido bautizados con esos
nombres tan madrileños. "Y a otras piedras y formaciones geológicas también
les pusimos nombres españoles. Ahora no recuerdo cuáles... Y no, no hay
investigadores españoles en el equipo", contaba ayer a EL PAÍS el jefe
científico de la misión, Steven W. Squyres.
¿Por qué? ¿Cómo han ido a parar Cercedilla, Guadarrama y
Madrid al planeta vecino? Los científicos tienen por costumbre denominar los
rasgos distintivos en otros mundos y, en el caso de la superficie marciana,
los accidentes geográficos y rocas que han ido fotografiando los vehículos
allí han recibido nombres de lo más variados: desde la piedra Oso Yogi de la
célebre misión Pathfinder, de 1997, a estos nombres madrileños del
Opportunity. Los bautizos españoles han salido a luz ahora porque sobre
su estudio versa un artículo que publica hoy la revista Science: los
análisis de los bordes del Victoria y de las rocas Cercedilla, Madrid y
Guadarrama, entre otras, desvelan la presencia de agua allí en el pasado.
"Decidimos poner a cada cráter que investigamos el nombre
de un barco histórico de exploración", explica Squyres. "Este cráter en
concreto se llama Victoria porque era el barco de la expedición de
Magallanes y, por eso, buscamos nombres españoles para las rocas". No
especifica por qué estos tres en concreto y al principio le sorprende la
llamada telefónica desde el otro lado del Atlántico para interesarse por los
nombres de las piedras en Marte. Otros cráteres, continúa, recuerdan otros
buques: el Endurance de Ernest Shackleton en la Antártida; el
Endeavour del Capitán Cook o el Eagle de la misión Apolo que fue
a la Luna hace 40 años.
¿Cómo es ese cráter marciano tan español? Mide 750 metros
de diámetro y 75 de profundidad. Está en el ecuador y lo hizo un meteorito
que se estrelló allí hace muchos miles de años. "Opportunity ha
estado dos años explorándolo: la mitad del tiempo en el borde y el resto
dentro", recuerda Squyres. El descenso por el escarpado borde planteó muchas
dudas a los responsables de la misión, pero finalmente decidieron intentarlo
y el robot logró incluso salir después.
La roca Guadarrama,
encima de Madrid.- JPL
"Lo más importante de esta investigación es que los procesos
geoquímicos en que hubo agua implicada y que ya identificamos en el cráter
Endeavour, los hemos descubierto también en el Victoria; esto nos dice que se
trata de un fenómeno regional, no algo puntual de un lugar", destaca el
científico, de la Universidad de Cornell (EE UU).
El Opportunity llegó a Marte hace más de cinco años,
poco después de que su gemelo el Spirit, con un tiempo previsto de
funcionamiento de tres meses, pero ambos siguen activos. La verdad es que el
Spirit tiene ahora problemas porque se ha atascado en un banco de arena de
grano muy fino, aclara Squyres: "Le pasó lo mismo hace dos años; en esa zona hay
bancos arenosos que no se ven, pero la otra vez salió adelante y esperamos que
también lo logre ahora".
Fuente: elpais.com, 22-5-09
-Dos
misiones hacia la Luna saldrán en Junio
A bordo de un mismo cohete, dos satélites de la NASA partirán
el 17 de junio, salvo retrasos, hacia la órbita lunar. Entre sus objetivos está
buscar lugares adecuados para futuras misiones tripuladas, incluidas las que
supondrán la vuelta a la Luna de astronautas de Estados Unidos, y también saber
de una vez por todas si existe agua helada en cantidad en los polos lunares.
El satélite de observación lunar durante su instalación en
el cohete que lo lanzará al espacio.-
NASA / JACK PFALLER
La sonda Lunar Reconnoisance Orbiter (LRO) llevará
siete instrumentos que, además de identificar zonas seguras para el
aterrizaje, buscarán recursos lunares susceptibles de explotación y medirán
y caracterizarán la radiación presente en el satélite de la Tierra. Para
conocer la absorción de radiación del cuerpo humano en la Luna se servirán
de un plástico que tiene las mismas características que éste. Las imágenes
que envíe proporcionarán nuevos datos sobre las zonas en sombra permanente.
Por su parte, el Lunar Crater Observation and Sensing
Satellite (LCROSS) se servirá de la última etapa del cohete Atlas
Centaur que lanzará las dos sondas para realizar dos impactos espectaculares
en la superficie de la Luna. Tras viajar conjuntamente cuatro meses, la
etapa del cohete se estrellará en un cráter polar sombríoen el que ya en
1999 se detectaron indicios de hielo. El resultado del choque será analizado
por LCROSS, que volará a través de la pluma de materiales resultante,
que se estima tendrá una altura de 10 kilómetros, antes de estrellarse
también cuatro minutos después. Telescopios espaciales y terrestres estarán
igualmente atentos para detectar y analizar los materiales eyectados por los
impactos.
GMV, empresa espacial española, tiene una importante
participación en LRO, a través de su filial en Estados Unidos: ha
realizado todo el sistema de planificación de la misión, que es el cerebro
de todo el segmento de tierra.
Fuente: elpais.com, 22-5-09
-Descubren el exoplaneta más ligero
Un equipo de astrónomos
europeos anunció ayer el descubrimiento del planeta ‘Gliese 581 e’, el más
ligero encontrado hasta ahora fuera del Sistema Solar, con una masa aproximada
de dos veces la de la Tierra. El planeta gira alrededor de la estrella Gliese
581, situada a unos 20,5 años luz de distancia, en la constelación Libra. En el
mismo sistema también órbita el planeta ‘Gliese 581 d’, que podría poseer
océanos y ser habitable, según informaron también los científicos.
Gliese 581 C
Ilustración del planeta 'Gliese 581 e' con su estrella
madre al fondo. Imagen: ESO
Un grupo de astrónomos liderados por el investigador Michel Mayor, del
Observatorio de Ginebra (Suiza), informó ayer que el planeta ‘Gliese 581 e’ es
el más liviano encontrado hasta ahora fuera del Sistema Solar. El anuncio lo
realizaron durante un encuentro de astrónomos europeos en la Universidad de
Hertfordshire (Reino Unido), en el marco de la Semana Europea de Astronomía y
Ciencia del Espacio.
“Con sólo 1,9 masas terrestres, es el exoplaneta menos masivo jamás detectado
y es muy probablemente un planeta rocoso”, dice uno de los autores del
descubrimiento, Xavier Bonfils, del Observatorio de Grenoble (Francia). Este
planeta orbita en sólo 3,15 días su estrella madre, ubicada a 20,5 años luz de
distancia en la constelación Libra.
Al estar tan cerca de su estrella, ‘Gliese 581 e’ no se encuentra en la zona
considerada como habitable, pero otro planeta en este sistema parece estarlo. Se
trata de ‘Gliese 581 d’, previamente descubierto en 2007, al que los científicos
ubican dentro de la zona habitable, y donde podrían existir océanos de agua
líquida.
“El planeta ‘Gliese 581 d’ probablemente sea demasiado masivo para estar
constituido sólo por material rocoso, pero podemos especular que se trata de un
planeta helado que migró más cerca de la estrella”, afirma Stephane Udry, otro
miembro del equipo. Las nuevas observaciones han revelado que este planeta está
dentro de la zona habitable, donde puede existir agua líquida. “Podría incluso
estar cubierto por un océano grande y profundo, y es el primer candidato serio a
ser un mundo acuático” añade Udry.
“El santo grial de la actual investigación de exoplanetas es la detección de
un planeta rocoso, similar a la Tierra, dentro de la zona habitable, una región
alrededor de la estrella madre con las condiciones adecuadas para que el agua
sea líquida en la superficie del planeta”, explicó Michel Mayor durante la
presentación.
Con el descubrimiento de ‘Gliese 581 e’, el sistema planetario de la estrella
tiene ahora cuatro planetas conocidos, con masas de alrededor de 1,9 (planeta
“e”), 16 (planeta “b”), 5 (planeta “c”), y 7 veces la masa de la Tierra (planeta
“d”), el más lejano y que orbita su estrella madre en 66,8 días.
Estos descubrimientos son el resultado de más de cuatro años de observaciones
empleando el espectrógrafo HARPS instalado en el telescopio de 3,6 metros de la
Organización Europea para la Investigación Astronómica en el Hemisferio Austral
(ESO) en la localidad chilena de La Silla.
El equipo descubridor está compuesto por M. Mayor, S. Udry, C. Lovis, F. Pepe
y D. Queloz (del Observatorio de Ginebra, Suiza), X. Bonfils, T. Forveille, X.
Delfosse, H. Beust y C. Perrier (del Laboratorio de Astrofísica de Grenoble,
Francia), N. C. Santos (del Centro de Astrofísica, Universidad de Porto,
Portugal), F. Bouchy (del Instituto de Astrofísica de Paris, Francia), y J. L.
Bertaux (del Service d’Aéronomie du CNRS, Verrières-le-Buisson, Francia).
Fuente: SINC,
22-5-09
-Herschel
y Planck están poniendo a punto sus instrumentos
Tras una perfecta
inyección en órbita realizada por el lanzador Ariane 5 el pasado 14 de Mayo, la
crítica fase de Lanzamiento y Operaciones Iniciales (LEOP, en su acrónimo
inglés) está llegando a su fin, mientras comienza la puesta en servicio de los
instrumentos científicos y de los diferentes subsistemas de ambos satélites.
Momento del lanzamiento de Herschel y Planck desde Kourou
Herschel y Planck están funcionado de forma nominal, en camino hacia sus órbitas
definitivas entorno al segundo punto de Lagrange del sistema Sol-Tierra (L2), un
punto en el espacio a 1.5 millones de kilómetros de la Tierra en dirección
opuesta al Sol.
Las estaciones de
seguimiento adicionales que permitieron un contacto casi continuo entre los
controladores de la misión y Herschel y Planck durante la fase LEOP ya han sido
liberadas; los dos satélites se comunican ahora con sus estaciones nominales,
las estaciones de Espacio Profundo de la ESA en New Norcia (Australia) y
Cebreros (España).
Tras el lanzamiento,
los dos satélites se separaron según lo planeado: Herschel a las 15:37:55 CEST
seguido por Planck a las 15:40:25 CEST. Poco tiempo más tarde, se recibió la
primera señal de telemetría confirmando el buen estado de los dos satélites.
Ambos han adquirido su actitud nominal de apuntamiento hacia el Sol y el Equipo
de Control de la Misión ha podido confirmar el estado nominal global de los dos
satélites a través de una serie de comprobaciones realizadas por telemetría.
La crítica fase
LEOP llega a su fin
Órbita de Herschel
Todas las operaciones planeadas para los dos satélites durante la Fase de
Lanzamiento y Operaciones Iniciales (LEOP) han sido completadas con éxito, y
todos los procedimientos que debían realizarse en un instante determinado se han
desarrollado según lo previsto. Entre estos eventos destacan la liberación de
los anclajes de SPIRE (Receptor de Imágenes Espectrales y Fotométricas) y la
activación del sistema de enfriamiento del HFI (Instrumento de Alta Frecuencia)
de Planck, que lo llevará hasta una temperatura de tan solo 4K.
La excelente
inyección realizada por el Ariane 5 en una órbita de transferencia hacia el
punto L2 implica que sólo serán necesarias unas moderadas maniobras de
corrección de la trayectoria – durante las cuales unos pequeños motores cohete,
conocidos como thrusters, se encenderán para cambiar la dirección o la velocidad
del satélite – lo que permitirá a los controladores de la misión disponer de un
mayor margen de combustible para la parte científica de la misión.
El 15 de Mayo, los
dos satélites completaron con éxito sus primeras maniobras de corrección de
trayectoria: Herschel a las 15:16:26 CEST, y Planck a las 20:01:05. Planck
realizó una maniobra adicional para el ajuste fino de su trayectoria el 18 de
Mayo.
La puesta en marcha
de los subsistemas de los dos satélites comenzó el pasado 15 de Mayo, y el
enfriamiento del telescopio y del módulo de carga útil comenzó en paralelo en
los dos satélites. El instrumento HFI de Planck ya ha sido encendido, listo para
ser enfriado a su temperatura final de operación de tan sólo 0.1K.
Herschel está ahora
en una trayectoria que lo llevará a una órbita de gran elongación entorno al
punto L2. Planck, que operará desde una órbita más baja, necesitará una maniobra
de corrección a mitad de camino y una maniobra de inserción en su órbita
definitiva, ambas planeadas para los días 5 de Junio y 2 de Julio,
respectivamente.
A las 21:00 CEST del
19 de Mayo, Herschel y Planck estaban situados a 617 287 km y a 607 767 km de la
Tierra, respectivamente, aproximadamente 1.6 veces más lejos que la distancia
media a la Luna (384 403 km). Los dos satélites hermanos estaban separados por
unos 9917.35 km.
El agua
que en el pasado corrió por la corteza de Marte era líquida y no se congeló
aún estando a muchos grados bajo cero porque en ella estaba disuelta
una solución salina de minerales que la mantenían en ese estado. Un
equipo de científicos españoles acaba de dar con la clave de este misterio:
han encontrado un modelo de la composición de ese fluido que pudo haber creado
los cauces, los lagos y los valles que han captado las cámaras de las sondas
enviadas al planeta rojo. Es más, apuntan que todavía podría existir ese agua
líquida.
El trabajo, publicado en la revista
Nature, viene a dar
respuesta a una incógnita sobre el agua que dio forma al astro más cercano
a la Tierra, muy visitado por sondas desde hace 45 años. Si su
temperatura, dada su distancia del Sol, está entre -87ºC y -46ºC,
¿cómo podía haber agua líquida en lugar de hielo?
Alberto G. Fairén, un español que lleva un tiempo
trabajando para la
NASA,
también se la hizo y decidió retomar un experimento sobre soluciones
salinas que se había iniciado en el marco de las investigaciones en Río
Tinto, un lugar con aguas con PH muy ácido, con alto
contenido en sales ferruginosas, que le dan un aspecto rojizo y único,
similar a Marte.
En concreto, se centró en una de las tres
hipótesis que explicarían la orografía del planeta. Ni la de la
existencia de un gas con efecto invernadero que calentó la superficie, ni
la de posibles volcanes eran confirmados por los datos recogidos por las
sondas espaciales Viking, Pathfinder, Opportunity y Spirit.
Y respecto a la propuesta de que hubiera sido una
solución salina, el problema era que el contenido de sal necesario
para que no se congelase el agua, hacía de éste un elemento tan
viscoso que no era posible que hubiera creado ríos, gargantas y bordes
oceánicos.
Imagen de agua helada en el Polo Norte de Marte. | ESA
Pero ahí estaba la clave. «Lo que hemos hecho es hacer un modelo de
solución salina con los componentes detectados por las sondas que sí
hacen posible que el agua sea líquida hasta a 50ºC bajo cero, y la
concentración de sales es de un 6%, como los oceános», explica Ricardo Amils,
del Centro de Biología Molecular de la Universidad Autónoma de Madrid.
Amils destaca que, incluso a una presión de CO2 de dos atmósferas, tampoco
cambiaría este agua marciana de estado. El investigador explica que «eso
significa que a la presión actual de Marte podría haber agua líquida en la
actualidad, lo que confirmaría el indicio de
aquellas gotas detectadas por la sonda Phoenix». Y va más allá: «Si en Río
Tinto hay microorganismos que viven en ese hábitat, también podrían
vivir microorgaismos en Marte, o podrían haber vivido».
Fuente:
elmundo.es, 21-5-09
-Sin
buenos soportes que apoyen el riesgo, las ideas se paralizarían antes de
comenzar
1.- ¿Cómo caracteriza a la empresa del futuro?
Están sucediendo muchos acontecimientos que cambiarán la forma de dirigir las
empresas en el futuro. Los costes laborales están creciendo, por lo que cada vez
más empresarios contratarán a personas por proyecto, sin tener que soportar un
coste fijo inasumible en época de escasez de trabajo.
Por otro lado, Internet ha abierto un nuevo mundo de posibilidades que otorga
un mayor poder y control a los individuos. Cada vez menos empresarios requieren
la presencia física de los trabajadores en sus oficinas y desde el otro punto de
vista, la posibilidad del teletrabajo proporciona una opción menos traumática a
la hora de cambiar de empleo. Por estas razones, la dirección de las empresas
tenderá hacia un estilo más orgánico: se buscará el talento combinado con el
dinamismo y la flexibilidad laboral que permite la contratación ad hoc ó "por
proyecto".
En el pasado, poner en marcha un negocio significaba la implicación personal
de un emprendedor, en la mayoría de los casos un profesional ofreciendo sus
servicios (abogados, contables, médicos, etc.) Sin embargo, ha surgido una nueva
clase de emprendedor que ha captado la potencia que le brinda Internet.
En todo el mundo miles de personas están dando vida a lo que yo denomino el
"imperio de uno": el negocio de una persona (a veces una pareja) que ha
conseguido acceder a una esfera de influencia de alcance elevado.
La tipología de estos negocios es múltiple, pongamos como ejemplo una empresa
que comercializa sus productos online, los fabrica en China ó en India y los
envían a un centro de distribución en los EEUU para clientes del Reino Unido ó
de Brasil. Todo está externalizado, a esto se denomina outsourcing. Esta
misma filosofía es extensible a otro tipo de servicios: coaching,
consultoría de negocios, autónomos, negocios basados en la creación de portales
de Internet ó servicios profesionales, entre otros. Es verdad que no todo es
nuevo, pero la habilidad de una persona para difundir su talento y sus productos
más allá de sus fronteras cercanas y abarcar y controlar el amplio espacio
virtual es aún reciente. Este modelo de negocio tiende a formar asociaciones
entre los contactos a nivel global, por lo que se requiere mucha habilidad en la
gestión de cosas remotas.
Más del 80% de los nuevos negocios comenzarán con esta tipología de
emprendedores. Se convierte en "estilo de vida", ya que para este nuevo
emprendedor la salud y la felicidad son prioritarias ante el confort que podría
proporcionar un trabajo con un mayor grado de ataduras. El 57% de las personas
que integran este grupo asegura que no aceptarían un mayor nivel de stress
aunque les pagaran más. Cuando mejore el estado de la economía mundial, mucha
gente de mediana edad buscará dar un mayor significado a su vida, lo que causará
un incremento exponencial de este tipo de negocios.
Los negocios tenderán a ser más fluidos y flexibles por naturaleza,
disponiendo de talento y proyectos que convergerán durante cortos periodos de
tiempo. Es como trabaja la industria del cine, donde un único proyecto
cinematográfico atrae a cámaras, escritores, técnicos de sonido e iluminación,
actores y maquilladores. Cuando acaba la película, el equipo se disuelve y
volverán a reunirse en otros filmes.
Una de las ventajas de los negocios de una única persona es que proporciona
muchas oportunidades que no todos los individuos están capacitados para
gestionar.
Como mecanismo de soporte del crecimiento económico, las colonias de empresas
comenzarán a formarse alrededor de sectores industriales como la fotónica, la
nanotecnología, la biotecnología, algunos nichos de las TI, entre otros. Con
frecuencia, como soporte de crecimiento de grandes corporaciones en una
determinada industria, compañías como Sony, Microsoft y Nintendo podrían generar
grupos de jugadores como vía de desarrollo de nuevos juegos en sus consolas.
Veremos un número de colonias experimentales que se crearán para comprobar
nuevos soportes informáticos, nuevos sistemas operativos, etc. Los miembros de
estas colonias se seleccionarán de manera que sean capaces de aportar mejoras en
el producto.
2.- ¿Desde qué sectores industriales se iniciará la recuperación
económica?
Con frecuencia hablo de la batalla entre átomos y electrones: el mundo de los
electrones, que incluye todas las cosas digitales y virtuales se mueve
exponencialmente más rápido que cualquier otro que requiera manipulación de
materia física, es decir, átomos.
Los productos realizados con madera, plásticos, metal y roca están
constantemente en competencia debido a la limitación de recursos, a que implican
el movimiento de equipos de diseñadores e ingenieros para crearlos y definirlos,
a que requieren transporte, inventario y un cuidadoso encaje entre la oferta y
la demanda. Los productos digitales requieren diseñadores y programadores para
desarrollar un producto ó servicio, pero no dependen de los recursos naturales,
no necesitan transporte, ni almacenamiento y precisan un mínimo esfuerzo para
encajar la oferta con la demanda. Por todas estas razones, los productos
digitales se inventan, se crean y se experimentan unas 10.000 veces más rápido
que cualquier otro producto que necesite una manipulación de átomos físicos. Los
electrones ganan esta partida.
Todos nosotros podemos observar a nuestro alrededor y ver cómo el talento y
los trabajos se mueven hacia las oportunidades digitales, por esta razón, las
industrias basadas en el conocimiento, tales como las TI, comunicaciones,
información y servicios basados en la Red dirigirán la recuperación económica.
3.- ¿Qué recomendaría a un directivo para que incluyese la nueva visión
del futuro en la política de innovación de su empresa?
Somos una sociedad que mira al pasado, que nos da conocimiento, aunque
emplearemos el resto de nuestra vida en el futuro. Tenemos buenas herramientas
para visualizar el pasado, pero bastante pobres para mirar al futuro.
Siempre se ha dicho que es responsabilidad de cada CEO y líder de negocio
crear una visión de su compañía y dirigir los recursos de la misma a apoyarla.
Pero también hay que reconocer que el liderazgo se activa por la combinación de
varios factores: la comprensión del panorama competitivo, la visualización de
las fuerzas del cambio, las tendencias tecnológicas, los cambios en los patrones
de consumo y las motivaciones sociales. Construir este tipo de preocupación en
la cabeza del CEO es el primer paso.
Que una empresa divulgue que está abierta a la innovación exterior no
solamente pondrá a los líderes en contacto con los nuevos elementos creativos,
sino que internamente será una inspiración para el intelecto. Arriesgarse es una
postura que requiere valentía y apoyo, pero hay caminos para crear posturas
defensivas cuando se tantean nuevas posibilidades. El campo del análisis ha
implicado un camino para descubrir nuevas preferencias de los consumidores
4.- ¿Cómo se puede inculcar el espíritu innovador en los ciudadanos desde
la niñez?
Este es un problema del sistema que requiere dos aproximaciones a largo
plazo: en primer lugar, el sistema necesita un análisis profundo y cualquier
impedimento para este análisis deberá ser eliminado; en segundo lugar, existen
varias formas de desarrollo de una comunidad de innovadores duradera:
Redes de innovadores. Son gente creativa e innovadora y aprenderán los
unos de los otros.
Asociaciones, grupos de trabajo en red y otros tipos de organizaciones de
gente con talento. Con esto se crean comunidades de innovadores.
Redes de financiación. El talento fluye donde está el dinero, sin buenos
soportes que apoyen el riesgo, las ideas se paralizarían antes de comenzar.
Aprendizaje vs. Educación. Los innovadores necesitan aprender de otros
innovadores, aprender desde la práctica, no desde la teórica. Ellos derivan su
aprendizaje desde la comprensión, sin doctrina ni abstracciones.
Redes de apoyo. Cada aspecto de la sociedad necesita el soporte de un
molde ó modelo. La creación de una buena red de soporte es esencial.
Creación de un nuevo tipo de héroes. Hay que potenciar y ensalzar a los
innovadores y sus logros.
-Descubren un fósil de transición entre primates y lemures
que demuestran las leyes de Darwin
Un equipo de científicos han revelado al mundo el esqueleto fosilizado de un
prosimio de 47 millones de años de antigüedad que podría convertirse en el
eslabón perdido de la evolución humana. El fósil, al que han llamado 'Ida' ha
sido presentado hoy en una rueda de prensa especial en Nueva York.
El descubrimiento del 95% del esqueleto de un mono-lemur ha sido descrito por
los expertos como "la octava maravilla del mundo", y consideran que su impacto
en el mundo de la paleontología será algo así como "un asteroide caído en la
Tierra" al considerar que se ha completado la búsqueda de una conexión directa
entre los humanos y el resto del reino animal que inició Charles Darwin hace
200 años con su libro «El origen de las especies».
Así, el equipo investigador señala a Ida como la prueba de la transición de
las especies que inició Darwin a bordo del 'Beagle'. Según expresó sir David
Attenborough, Darwin "se habría emocionado" de haber visto el fósil porque
expresa lo que el ser humano es y de dónde procede.
"Esta pequeña criatura va a enseñarnos nuestra conexión con el resto de los
mamíferos. Es el único que nos conecta directamente con ellos" (añadió). Ahora
la gente puede decir, de acuerdo, somos primates, enséñennos el vínculo. Ese
nexo que decían que estaba perdido ya no lo está más".
El fósil, bautizado en honor a Darwin con el nombre de
Darwinius masillae, y de unos 53 centímetros de altura ha sido
investigado en secreto durante los últimos dos años por un equipo
internacional de expertos en fósiles dirigido por el profesor del Museo de
Historia Natural de Noruega, Jorn Hurum.
Después de completarse su estudio fue trasladado a Nueva York bajo fuertes
medidas de seguridad para ser revelado hoy al mundo durante el bicentenario
del nacimiento de Darwin. Según se indicó, a finales de este mes se exhibirá
durante un día en el Museo de Historia Natural de Londres, antes de regresar a
Oslo.
Los científicos consideran que Ida (aplastado hasta el grosor de un posavasos)
es el fósil de primate más completo nunca encontrado.
En concreto, Ida tiene en vez de garras uñas como las de los seres humanos y
sus pulgares opuestos, lo que la sitúa en el inicio de la raíz de la evolución
humana cuando los primeros primates desarrollaron características que después
eventualmente les harían convertirse en lo que hoy es el hombre. Su análisis ha
revelado que Ida se trataba de una hembra joven. Por sus manos y sus pies, y la
disposición de los dedos, se sabe que era un primate. También se ha podido
averiguar, por su tripa, que era un herbívoro que comía frutas, semillas y
hojas. Cuando murió, Ida no tenía más de nueve meses. El estudio revela que se
había fracturado la muñeca y quizás esa lesión fue la que provocó su muerte
prematura.
Asimismo, otro importante descubrimiento es la forma del hueso del talón de su
pie, que los humanos tuvieron de la misma manera muchos años mas tarde. Ida
fue desenterrada por un cazador de fósiles aficionado hace unos 25 años en
Messel, un antiguo cráter volcánico cerca de Frankfurt (Alemania), famoso por
la cantidad de fósiles. El coleccionista que la encontró la limpió y la colocó
en un poliéster de resina y la mantuvo colgada durante 20 años en la pared de
su casa.
Este fósil es realmente parte de la historia de la evolución humana, de la
parte más profunda de los anales del tiempo, de hace 47 millones de años,
según los investigadores.
Colgado en una pared durante
20 años. Según Sky News el propietario no tenía idea de la
importancia única del fósil y él simplemente lo contemplaba como a un cuadro.
Sin embargo, en 2006, Ida llegó a las manos de un tratante privado, Thomas
Perner, que se presentó con el fósil al profesor Hurum en la Feria anual de
fósiles y de comercio de minerales de Hamburgo (Alemania).
Al verlo por primera vez, el profesor Hurum exclamó que se trataba del "fósil
más bello del mundo" y no pudo dormir durante dos días. Según se observa en
una grabación de video casera del propio profesor, éste dice emocionado que
"esto es algo que el mundo no ha visto nunca antes, un espécimen único,
totalmente único".
Fue entonces cuando el tratante le pidió más de un millón de dólares por el
fósil, diez veces más que la cantidad más alta pagada por un fósil en el
mercado negro, según la cadena de noticias americana. Sin embargo, después de
seis meses de negociaciones, el profesor logró recopilar el dinero en Noruega
y se llevó a Ida a Oslo (Noruega).
De izquierda a derecha, Holly Smith , Jens Franzen y Jørn Hurum, los
tres investigadores que han analizado el esqueleto de hace 47 millones
de años del primate fósil más completo de la historia / AFP
Este experto en fósiles descubrió un monstruo marino de 50 pies de
altura que se llamó Predator X en una isla de Noruega cercana al Polo
Norte. Fue entonces cuando encajó "el dream team" de expertos que ha
trabajado en secreto durante los últimos dos años.
El equipo incluye al paleontólogo doctor Jens Franzen y al doctor
Holly Smith, de la Universidad de Michigan (Estados Unidos), y al
presidente electo de la Sociedad Paleontológica de Estados Unidos,
Philip Gingerich.
Una Alemania
tropicalDe acuerdo a los estudios radiométricos de las
rocas volcánicas de Messel, los expertos descubrieron que Ida vivió
hace 47 millones de años en el periodo del Eoceno, cuando los bosques
tropicales casi se juntaban con los polos y Suramérica estaba aún
separado aún tenía que juntarse a Norteamérica.
Durante ese periodo surgieron las primeras ballenas, caballos,
murciélagos y monos y los primeros primates se dividieron en dos
grupos; uno de ellos vivió y se mantuvo como lemures, y el segundo
evolucionó hacia los monos y después hasta los humanos.
Los investigadores han concluido que Ida no fue un simple lemur sino
un "lemur mono", porque se encuentra a caballo entre ambos grupos y
además se sitúa en la cercana línea hacia los humanos.
"Cuando Darwin publicó su 'Origen de las Especies' en 1859, dijo un
montón sobre la transición de las especies, pero también que él nunca
encontró especies de transición, por lo que toda su teoría entera
podría haber sido incorrecta, por lo que él hoy estaría muy contento
si viviera hoy cuando damos a conocer al mundo a Ida", concluyó el
profesor Hurum.
Fuente: ABC.es, 21-5-09
-La ESA presenta a los nuevos astronautas europeos
ESA PR 12-2009. La ESA ha presentado hoy a los que serán los nuevos
astronautas europeos. Los nuevos reclutas se unirán al Cuerpo Europeo de
Astronautas para comenzar su entrenamiento en preparación para las futuras
misiones a la Estación Espacial Internacional, y más allá.
Estos son la nueva generación de astronautas europeos entre los que
no
se encuentran ningún español
Los nuevos astronautas son:
1. Samantha Cristoforetti, Italia
2. Alexander Gerst, Alemania
3. Andreas Mogensen, Dinamarca
4. Luca Parmitano, Italia
5. Timothy Peake, Reino Unido
6. Thomas Pesquet, Francia
Todos ellos fueron
seleccionados tras un proceso de reclutamiento efectuado a nivel europeo, que
comenzó el año pasado. Tras una serie de rigurosos exámenes psicológicos,
médicos y profesionales que empezaron con 8413 solicitudes válidas, estos seis
reclutas son los primeros en unirse al Cuerpo Europeo de Astronautas desde 1992,
como resultado del segundo proceso de selección de astronautas convocado por la
ESA.
La elección de seis
nuevos astronautas responde a las oportunidades de vuelo planeadas no sólo bajo
los programas y actividades de la ESA, sino también en respuesta a todas
aquellas oportunidades planteadas bajo el marco del Memorando de Entendimiento
firmado entre la Agencia Espacial Italiana (ASI) y la NASA. Esta decisión se
tomó de acuerdo con las autoridades italianas y siguiendo la decisión del
Consejo de la ESA en 2002 para crear un único cuerpo de astronautas en
Europa.“Estamos en un punto clave para el programa de vuelos tripulados de la
ESA. El año pasado, con el lanzamiento del laboratorio Columbus y el del
Vehículo Automatizado de Transferencia Julio Verne, la ESA se convirtió en un
miembro de pleno derecho en el programa de la Estación Espacial Internacional (ISS).
Estamos entrando en una nueva fase de utilización de las capacidades únicas que
ofrece la ISS y preparándonos para la exploración internacional de la Luna y más
allá”, comenta el Director General de la ESA, Jean-Jacques Dordain.
“Esta nueva fase
requería reclutar nuevos talentos capaces de recoger la experiencia adquirida
por los astronautas ya existentes, y capaces de convertirse, paso a paso, en los
representantes de Europa en el espacio, donde junto a sus compañeros de otros
países, vivirán, trabajarán, explorarán y traerán de vuelta al planeta Tierra y
a sus ciudadanos los resultados de su experiencia única, sus logros y su
confianza en el futuro. Todos ellos representan la generación que dará el paso
desde la órbita baja de la Tierra hacia la Luna”, añade Dordain.
“Estoy muy orgullosa
con los resultados obtenidos en esta selección”, comenta Simonetta Di Pippo,
Directora de Vuelos Tripulados de la ESA. “Orgullosa, como europea, del calibre
de los candidatos; orgullosa de los esfuerzos organizativos realizados por la
ESA, y en particular por el Centro Europeo de Astronautas. Este resultado excede
con creces nuestras mayores expectativas. No sólo tenemos un grupo de
extraordinarios astronautas; también tenemos a un grupo de representantes de los
países europeos que demuestra el apoyo a los vuelos tripulados y a la
exploración del espacio en Europa”. Simonetta añade: “Considerando la extensión
de la vida útil de la ISS hasta 2020 o incluso más, creo que los seis nuevos
astronautas seleccionados hoy demostrarán el papel que juega Europa en la
exploración del espacio”.
“Hoy es un día muy
importante para los vuelos tripulados en Europa”, continua Di Pippo. “Estos
jóvenes hombres y mujeres son la nueva generación de exploradores europeos del
espacio. Todos tienen una fantástica carrera por delante, que los llevará a
afrontar uno de los mayores desafíos de nuestros tiempos: volver a la Luna y más
allá, como parte de un esfuerzo global para la exploración del espacio”.
Los nuevos astronautas europeos comenzarán su entrenamiento básico en el Centro
Europeo de Astronautas (EAC) en Colonia, Alemania. Los otros socios del programa
de la ISS también han completado o están terminando sus propias campañas de
selección, con lo que estos seis nuevos astronautas europeos se unirán a una
nueva generación de astronautas que serán preparados para las futuras misiones a
la Estación Espacial Internacional a partir del año 2013.
“Estoy muy orgullosa
con los resultados obtenidos en esta selección”, comenta Simonetta Di Pippo,
Directora de Vuelos Tripulados de la ESA. “Orgullosa, como europea, del calibre
de los candidatos; orgullosa de los esfuerzos organizativos realizados por la
ESA, y en particular por el Centro Europeo de Astronautas. Este resultado excede
con creces nuestras mayores expectativas. No sólo tenemos un grupo de
extraordinarios astronautas; también tenemos a un grupo de representantes de los
países europeos que demuestra el apoyo a los vuelos tripulados y a la
exploración del espacio en Europa”. Simonetta añade: “Considerando la extensión
de la vida útil de la ISS hasta 2020 o incluso más, creo que los seis nuevos
astronautas seleccionados hoy demostrarán el papel que juega Europa en la
exploración del espacio”.
“Hoy es un día muy importante para los vuelos tripulados en Europa”, continua
Di Pippo. “Estos jóvenes hombres y mujeres son la nueva generación de
exploradores europeos del espacio. Todos tienen una fantástica carrera por
delante, que los llevará a afrontar uno de los mayores desafíos de nuestros
tiempos: volver a la Luna y más allá, como parte de un esfuerzo global para la
exploración del espacio”.
Los nuevos astronautas europeos comenzarán su entrenamiento básico en el Centro
Europeo de Astronautas (EAC) en Colonia, Alemania. Los otros socios del programa
de la ISS también han completado o están terminando sus propias campañas de
selección, con lo que estos seis nuevos astronautas europeos se unirán a una
nueva generación de astronautas que serán preparados para las futuras misiones a
la Estación Espacial Internacional a partir del año 2013.
Fuente: ESA, 20-5-09
-El
renovado "Hubble" se desengancha del "Atlantis"
Los astronautas del
transbordador Atlantis se han despedido hoy del telescopio espacial
Hubble, después de que
ayer terminaran las tareas de reparación que tenían previstas en la misión.
Después de una
serie sin precedentes de cinco jornadas de labores extravehiculares a
563 kilómetros de la Tierra, los astronautas liberaron al Hubble a
las 12:57 GMT (14.57 hora peninsular española), cuando el transbordador
cumplía su órbita 119 sobre el Atlántico, aproximándose a la costa de África.
Unas dos horas
antes el comandante del Atlantis, Scott Altman, maniobró la nave hacia la
orientación correcta para liberar el observatorio de 13 toneladas.
Luego se dio la orden para la apertura de la puerta del telescopio, que
protege sus instrumentos extremadamente sensibles, a fin de permitir que
la luz de las estrellas impresione sus lentes.
Y tras esa
operación, la especialista de misión Megan McArthur maniobró el
brazo robótico del Atlántis dejando al telescopio por encima de
la nave antes de soltarlo.
El telescopio,
puesto en órbita hace 19 años, estuvo erguido en la
bodega del Atlantis, el último transbordador que lo visita para
reparaciones y mantenimiento, mientras los astronautas cambiaban baterías,
limpiaban mecanismos e instalaban artefactos que mejorarán la capacidad de
observación cósmica.
"Esta misión ha
sido tremendamente interesante", dijo el comandante del
Atlantis, Scott Altam después de que el lunes se completaron las labores,
con un coste de 220 millones de dólares (162 millones de euros), que
incluyeron la colocación de nuevos instrumentos en el observatorio
espacial.
Unos 45 minutos
después de la liberación del Hubble, el transbordador empezó a alejarse
del telescopio, camino de una órbita a aproximadamente 385
kilómetros de la Tierra adonde Altman y sus seis colegas
regresarán el viernes.
Hoy fue la
astronauta McArthur quien soltó al Hubble, pero fue su colega John
Grunsfeld, en su tercer viaje hasta el telescopio, quien le dio la
palmada de despedida en la última jornada de labores extra
vehiculares ayer, lunes.
"Felices
travesías", le dijo Grunsfeld al Hubble, según muestra un vídeo grabado
ayer. "Es difícil no pensar en el Hubble como algo vivo, pero
realmente yo lo siento como un amigo".
Imagen de las reparaciones inciadas esta tarde, tomada
desde el casco de uno de los astronautas. | AFP/ NASA
Caminata adicional
La misión ha
culminado como estaba previsto, si bien el domingo fue una jornada más
complicada de lo que se había previsto. Mike Massimino y Mike Good apenas
pudieron, en las primeras siete horas de caminata,
concluir la reparación del Espectrógrafo de Imágenes Telescópicas
Espaciales (STIS, por su sigla en inglés), tras lo cual aún les quedaba cerca
de hora y media más para dejar en condiciones el área donde habían trabajado.
Ante el
retraso, la agencia espacial estadounidense,
NASA, decidió
programar otra más para el lunes, para tratar de instalar el panel
aislante en una puerta que los astronautas no pudieron desplegar por falta de
tiempo.
Los cosmonautas,
situados a unos 600 kilómetros de la Tierra, cambiaron completamente las
baterías del Hubble, que pusieron en funcionamiento hace 19 años.
Concretamente, remplazaron el segundo módulo, que pesa más de 200 kilos y
contiene tres de las seis baterías del telescopio, encargado de suministrar
energía al telescopio durante las operaciones nocturnas. Las tres restantes
fueron sustituidas el pasado jueves.
El portavoz de la
NASA Rob Navias afirmó que los test han demostrado que la reparación ha sido
"satisfactoria". Los siete tripulantes del transbordador tienen previsto el
regreso a la Tierra el próximo viernes.
Frente a las
complicaciones del domingo, el sábado, los astronautas John Grunsfeld y Andrew
Feustel instalaron otro instrumento, el Espectrógrafo de Orígenes Cósmicos,
que permitirá detectar la luz de quásares lejanos.
También repararon
una cámara del telescopio, conocida como Cámara Avanzada para la Exploración,
estropeada desde hace cinco años. Los dos astronautas consiguieron reparar dos
de sus tres objetivos.
Aunque los
ingenieros de la
NASA
habían calculado que el paseo del sábado sería el paseo espacial más
complicado de la misión, la caminata se desarrolló sin incidentes e incluso
concluyó un poco antes de lo esperado.
El viernes pasado,
Massimino y Good instalaron nuevos giroscopios y baterías en el
Hubble, mientras
que el jueves el telescopio recibió una nueva cámara y se le instaló un nuevo
computador.
Fuente:
elmundo.es, 20-5-09
-"La
genómica sistémica liderará la nueva revolución industrial"
Los trabajos de este investigador no pasan inadvertidos ni a la comunidad
científica ni a la opinión pública. Su obra más polémica es un cromosoma
artificial. El cambio del modelo productivo es la solución para salir de la
actual crisis económica. Esto es lo que repiten los países, pero lo difícil es
acertar con la espoleta de ese nuevo modelo. A lo mejor, si los gobiernos
escuchasen más a los científicos la solución sería más fácil. Una de las mentes
más visionarias es la del investigador estadounidense Craig Venter, pionero en
la secuenciación del genoma humano y padre del primer cromosoma artificial.
“Crear vida sintética significa que, al menos, tenemos un entendimiento
básico de la vida, pero además pensamos que tiene un sinnúmero de aplicaciones
prácticas que pueden afectar a la Humanidad, como por ejemplo para diseñar
nuevas formas de capturar el dióxido de carbono; crear nuevos combustibles;
nuevas formas de hacer vacunas y modernos fármacos. Muchas personas están
empezando a pensar que la genómica sintética va a representar una nueva
revolución industrial, que tiene el potencial de cambiar cómo lo hacemos todo”.
Esta revolución tal vez cambie el protagonismo actual de determinados países.
Así, “un informe británico concluye que Reino Unido está a la zaga en estas
tecnologías que mi equipo ha desarrollado en Estados Unidos. Creo que es un
debate importante para España, que debería reconsiderar sus prioridades en
investigación para estar segura de que puede competir en este nuevo mundo basado
en la genómica, ya que es un país que cuenta con figuras destacadas de la
genética”, aseguró ayer Venter, que dictó en Madrid la XLI Lección Conmemorativa
Jiménez Díaz.
La opinión de Craig Venter es especialmente valiosa, puesto que no sólo ha
demostrado su capacidad científica sino también una extraordinaria habilidad
para los negocios. Así, en la década de 1990 comenzó el Proyecto Genoma Humano
bajo el paraguas del Gobierno estadounidense, pero abandonó esa protección y
fundó la empresa Celera Genomics para secuenciar el genoma usando las técnicas
que él y su equipo habían desarrollado.
En febrero de 2001, publicó por primera vez en el mundo la secuencia del
genoma humano. Y hoy vuelve a ser pionero al anunciar la secuenciación de la
jatrofa, una planta de la que se puede obtener biocombustible. “El aceite de
jatrofa puede ser utilizado directamente como combustible o procesado para
aviones jet. Utilizando su código genético, pretendemos alterar la jatrofa para
aumentar la producción de aceite y para permitir su cosechado mecánico (que es
más barato).
Las plantas que sirven de alimento, como el maíz, llevan siglos de
manipulación genética. Esto no ha sucedido con las plantas de producción de
energía; por tanto estamos ante un campo nuevo. Estamos intentando ver cómo
dejar de utilizar el petróleo, que en el último siglo ha añadido enormes
cantidades de CO2 a la atmósfera. Estos aceites producirían menos dióxido de
carbono y tendrían importantes implicaciones económicas”.
Del Báltico al Mediterráneo
Venter, que aseguró que España reúne buenas condiciones para cultivar jatrofa,
subrayó que “los países que apliquen estas nuevas medidas a la medicina y la
agricultura serán los que ganarán en unas escala económica. Los nuevos
productores de combustible serán los que utilicen estas tecnologías”. ¿Y quien
está financiando estas investigaciones? “El Departamento de Energía de Estados
Unidos, el Instituto Venter, Synthetic Genomies, la petrolera BP y una
corporación de Malasia”.
El científico concentra sus esfuerzos en descifrar el genoma de los
organismos marinos, y para ello está recogiendo muestras de agua, cada 200
kilómetros, de los mares Báltico, Mediterráneo y Negro. “Nuestra intención es
crear una biblioteca de genes del planeta Tierra. Conociendo el genoma de las
bacterias, podremos saber cómo ellas afectan a las personas y viceversa.
Además, comprendiendo cómo funciona la diversidad de los organismos que hay
en la superficie de las aguas, podremos encontrar genes únicos que sirvan para
crear nuevas formas de energía y nuevas formas de capturar CO2. Esto son
cuestiones cruciales para la supervivencia humana a largo plazo”.
El futuro en un genoma de mil dólares
Antes el futuro se leía en las líneas de la mano, pero dentro de pocos años se
podrá leer en el genoma, al menos en lo referente a la salud. Craig Venter fue
la primera persona que tuvo secuenciado su genoma completo, lo que le ha
permitido modificar ciertos aspectos para prevenir la aparición de enfermedades.
Pero, según aseguró ayer, en un plazo de cinco años este privilegio será
extensivo para muchas personas, que podrán conocer toda la información que
guardan sus genes por un precio de entre mil y dos mil dólares.
“En el futuro, es posible que se haga el genoma de un niño al nacer y luego
se vaya viendo cómo va cambiando a lo largo de su vida”. En contra de lo que
pueda parecer, este tipo de análisis abaratará los costes médicos, ya que
permitirá desarrollar estrategias preventivas frente a determinadas enfermedades
y administrar la terapia más eficaz para cada persona.
Fuente:
expansion.com, 19-5-09
-Científicos de Zaragoza logran mover un robot con la mente desde Japón
Un poco de
concentración mental en Osaka (Japón) ha bastado para que un pequeño robot se
desplazara a miles de kilómetros, en Zaragoza.
Allí,
investigadores de su universidad ha conseguido desarrollar una tecnología, a
la que han bautizado como "teleoperación", que permite mover objetos con la
mente a muy larga distancia y en tiempo real, mediante técnicas no invasivas
que captan la actividad cerebral.
Mauricio Antelís y Luis Montano preparan el robot ante la
mirada de Carlos Escolano (en pantalla) desde Osaka / EFE
Esta compleja
técnica ha sido demostrada en el laboratorio del Centro Politécnico
Superior (CPS) de la Universidad de Zaragoza, donde un robot fue movido
por una persona que se encontraba en Osaka.
Luis Montano,
responsable del Grupo de Robótica del Instituto de Investigación en
Ingeniería de Aragón; Javier Minguez, director del proyecto; Iñaki
Iturrate y Carlos Escolano, ingenieros informáticos; y Mauricio Antelis,
ingeniero en telecomunicaciones y experto en biomédica, son los
responsables de este proyecto tecnológico, en el que colaboran expertos
en robótica e inteligencia artificial.
Según
explicaron, la "teleoperación" consiste en
captar la señal
eléctrica que produce un individuo mediante un gorro con electrodos
colocado en la cabeza y enviarla a un ordenador que la procesa y, a su
vez, remite la información a otro ordenador que ejecuta la acción.
De esta
manera, el ingeniero Carlos Escolano, que se encontraba en Osaka sentado
frente a un ordenador, en el que podía ver el aula del laboratorio del
Centro Politécnico Superior (CPS), ha logrado, tras fijar su pensamiento
en un punto concreto, mover el robot que se encontraba en la sala.
El robot,
equipado con una cámara y guiado por la mente del ingeniero, ha
conseguido salvar los obstáculos que había en el aula y se ha dirigido
fuera de la sala, para después avanzar unos cuantos metros por el
pasillo.
Escolano ha
explicado desde la ciudad japonesa que estaba "un poco nervioso" pero
que con un poco de entrenamiento es fácil mantener la concentración, sin
que el proceso exija un gran esfuerzo.
Tecnología sin implantes
El hecho de que
la técnica no sea invasiva y que se base en un sistema
electroencefalográfico son dos de sus novedades más importantes, ha
manifestado el director del proyecto, Javier Mínguez, quien también se
encontraba en la capital nipona.
Este sistema
supone un gran avance, ya que hasta ahora, ha destacado, los resultados
logrados en este campo se habían hecho con primates a los que se les
introducen electrodos en la cabeza.
La nueva
tecnología se presenta en la feria científica de Osaka, donde ha despertado
gran interés, ha señalado Montano, quien ha reconocido, ante el éxito del
experimento realizado hoy, que podría haber resulatdo fallido por múltiples
problemas.
Entre otros, un
simple fallo en la conexión a internet, de tipo eléctrico, o una pérdida de la
concentración del individuo que mentalmente da la orden para mover el robot.
Una de las
principales aplicaciones prácticas que puede tener este avance científico,
como facilitar la vida
a las personas minusválidas, ya que podrían mover prótesis o sillas de
ruedas sin necesidad de ningún artilugio, aunque tanto Escolano como Mínguez
han advertido que aún pasará un tiempo hasta que estas aplicaciones se puedan
llevar a cabo.
Fuente: ABC.es,
18-5-09
-Un
perno pasado de rosca dificulta las tareas de los astronautas del "Atlantis"
Un perno pasado de rosca que no salía
de su sitio se convirtió inesperadamente en el mayor problema para
Mike Massimino y
Michael Good durante el cuarto paseo espacial de la misión
STS-125, ya que les impedía retirar un asa que a su vez les impedía colocar
en su sitio el accesorio que iban a utilizar para ayudar a que no se les
escapara ninguno de los 111 tornillos que tenían que retirar para acceder al
interior del
Space Telescope Imaging Spectrograph del
Hubble.
De todos modos, y
siguiendo las instrucciones que le dieron desde Tierra, Massimino fue capaz
de doblar y finalmente romper el asa para proceder con la reparación, aunque
debido al retraso causado por esto ambos tuvieron que recargar oxígeno para
sus trajes espaciales antes de terminar el paseo espacial.
Para complicar un
poco más las cosas, el destornillador que estaba usando para quitar los
tornillos se quedó sin batería en medio del proceso, por lo que tuvieron que
ir a buscar otro al interior de la esclusa del Atlantis.
En total, pasaron
8 horas y 2 minutos en el espacio en el que se convirtió en el sexto paseo
espacial más largo de la historia.
La reparación del
STIS, que no había sido diseñado para ser reparado en órbita, de ahí lo de
los 111 tornillos, consistió en instalarle una nueva fuente de alimentación,
ya que la original había fallado definitivamente en agosto de 2004, dos años
después de que el instrumento hubiera superado su vida útil prevista.
Las primeras
pruebas parecen indicar que todo iba bien, aunque el instrumento se puso a
si mismo en modo seguro antes de poder acabarlas por la baja temperatura a
la que estaba. Desde el control de la misión esperan poder reanudar las
pruebas en cuanto este haya subido de temperatura.
Debido al retraso
acumulado Good y Massimino tuvieron que dejar sin colocar una manta de
protección térmica que estaba previsto instalar sobre la bahía 8 del Hubble,
aunque desde el control de la misión van a estudiar si hay forma de incluir
esta tarea en el quinto y último paseo espacial de la misión.
El día comenzó al
son de
New York State of Mind por
Billy Joel, dedicada a Massimino. Por cierto que aproximadamente una
hora antes de terminar el paseo Massimino encontró un agujero en uno de sus
guantes, aunque dado que estos tienen múltiples capas esto no supuso ningún
problema.
Placa para
captura de tornillos en pruebas - NASA/Goddard Space Flight Center
Comentarios en "La Rosa de los Vientos" de Onda Cero:
Fuente: microsiervos.com, 18-5-09
-Los
astronautas del "Atlantis" completan la reparación más difícil del telescopio "Hubble"
La pareja de astronautas John
Grunsfeld y Andrew Feustel han logrado completar la reparación más difícil del
telescopio espacial
'Hubble'
y han instalado un nuevo espectrómetro capacitado para descubrir las
propiedades de galaxias distantes.
Los astronautas pasaron seis horas
y media en el exterior del transbordador en lo que ha sido la tercera de cinco
caminatas espaciales consecutivas para actualizar el famoso observatorio
espacial, lo que permitirá que siga trabajando de otros cinco a diez
años más.
Los astronautas del 'Atlantis', durante el paseo espacial
para reparar el 'Hubble'. | AP/NASA
Los encargados
de la
NASA habían
señalado que la caminata del sábado sería la más compleja de la
actual misión de 11 días del 'Atlantis', la quinta y última
visita de mantenimiento al 'Hubble' antes de que la flota de
transbordadores sea retirada el próximo año.
Las tareas de
Grunsfeld y Feustel se completaron sin problemas, tras dos caminatas
previas que estuvieron rodeadas de problemas con herramientas
insuficientes que obligó a los astronautas a improvisar. Por
ejemplo, la instalación del jueves de una nueva cámara de campo amplio
casi fracasó por un perno congelado.
Las labores del
sábado requirieron que Grunsfeld trepara por el cuerpo del 'Hubble',
entrara en su interior y reemplazara una placa de circuitos
que no estaba preparada para ser reparada en el espacio.
Sólo mediante
el tacto, Grunsfeld consiguió cortar una malla y retirar una placa
de protección, empleando un par de tenazas especialmente
diseñadas para sacar la placa de circuitos. Es la primera vez que la NASA
ha intentado reparar un instrumento del 'Hubble' en lugar de reemplazarlo.
"Esta actividad
está dedicada a estudiar el comportamiento de pequeños tornillos en el
espacio", bromeó Grunsfeld después de retirar 32 seguros de la
placa de circuitos defectuosa de la Cámara Avanzada del 'Hubble',
que se apagó en el 2007 después de un fallo en el suministro de energía.
Los ingenieros, por
su parte, pudieron comprobar tras la reparación que la máquina había
vuelto a funcionar a la perfección. "Es algo increíble", afirmó
Grunsfeld. Las observaciones del Hubble han reformulado el
conocimiento científico sobre la formación de galaxias y su
transformación a través del tiempo, el origen de los planetas y la misteriosa
fuerza de la "energía oscura" que está expandiendo el universo a una mayor
velocidad y ritmo.
Para mantener el
telescopio en óptimas condiciones se le está equipando con dos nuevos
instrumentos. Uno es una cámara pancromática de amplio espectro
instalada el jueves por Grunsfeld y Feustel durante una caminata espacial.
El otro es un instrumento conocido como
espectrómetro del origen del cosmos, que reemplaza a un grupo de
espejos que fueron instalados en el 'Hubble' en 1993 para corregir la visión
borrosa que provocaron errores microscópicos en la lente original del
telescopio.
Fuente: elmundo.es, 17-5-09
-Siete
amenazas para la red de conocemos
Muchos pueblos y ciudades del mundo
celebran hoy el Día de Internet, cuyo acto central en España tendrá lugar en la
plaza de Colón de Madrid. La edición de este año se centra en la protección de
la infancia en el ciberespacio. Pero es la propia Internet la que necesita ser
protegida porque, si por algo se está caracterizando este 2009, es por el
creciente número de amenazas que se ciernen sobre ella.
Unas son fruto de su propio éxito,
como el agotamiento de direcciones IP. Con casi 1.600 millones de internautas en
el mundo, los números que identifican a cada ordenador y permiten que se
comuniquen entre ellos se están agotando. Además, muchos de esos usuarios son
muy diferentes a los de hace unos años. Entonces, se limitaban a leer el correo
y buscar información. Ahora la generan. Esto ha provocado un crecimiento
exponencial del tráfico de datos.
Las operadoras, preocupadas por la
congestión de sus redes, buscan acabar con la igualdad en el acceso y la
neutralidad de la Red. Con esa excusa técnica, se ha tomado una decisión
política, y varios ISP ya dan prioridad a un tipo de tráfico sobre otro.
Víctimas de esta decisión son los programas de intercambio de archivos. Redes
como las de eMule o BitTorrent son responsables de buena parte del tráfico y ya
empiezan a ser castigadas. Al mismo tiempo, sus usuarios van camino de ser
considerados criminales, como demuestra la aprobación de una ley que les
penaliza en Francia. Los autores españoles quieren que el Gobierno siga el
ejemplo.
La basura de nunca acabar
El fundador de Microsoft, Bill Gates dijo en 2004 que el correo basura
dejaría de ser un problema en dos años. Se equivocó. En 2009, las cifras de spam
o virus informáticos no han dejado de crecer. Además, ahora se da un fenómeno
que no existía a comienzos de siglo: los programas maliciosos se han convertido
en una forma de cibercrimen.Otras amenazas crecientes son la dependencia cada
vez mayor que tiene Internet de una sola empresa, Google, y la censura y el
espionaje electrónico a los ciudadanos, algo que siempre se asoció a regímenes
totalitarios y que se está extendiendo a las sociedades occidentales.
Ahora no sólo espían los gobiernos, también lo hacen las grandes empresas y
los propios ciudadanos. Muchos de esos gobiernos y compañías han organizados
actos para celebrar el Día de Internet.
En dos años se agotan los números
Lo que parecía un problema técnico puede convertirse en un
serio obstáculo para la Internet del futuro inmediato. Cuando se creó el
protocolo TCP/IP (que permite la comunicación entre las máquinas), el sistema de
numeración elegido pareció suficiente. El IPv4 ofrece 4.294 millones de
direcciones IP. Sin embargo se están acabando.
Además de los 1.600 millones de internautas que hay, la
popularización de la movilidad (los portátiles y los teléfonos necesitan también
su propia IP) y la llegada de la Internet de las cosas (donde hasta el
frigorífico tendrá acceso) han acortado los plazos. El responsable de la agencia
estadounidense para la asignación de números de Internet dijo en abril que en
dos años no habría más. La solución se llama IPv6, un sistema que generará 2128
combinaciones.
España, siempre por detrás
La Comisión del Mercado de las Telecomunicaciones publicó a
finales de abril una comparativa de ofertas de banda ancha en la Unión Europea.
Los españoles que tienen una conexión contratada de entre 2 y 10 Megabits por
segundo (Mbts) pagan un 11% más que la media europea. Pero el problema no está
en los datos absolutos. Casi dos tercios de los usuarios españoles tienen una
conexión de este tipo. Mientras, en países como Suecia u Holanda, las ofertas
más contratadas son las superiores a los 10 Mbts.
El problema se agrava si se compara entre operadores
históricos de cada país. La mejor oferta comercial de Telefónica en España es un
56% más cara que las media de sus colegas europeos. Hay que tener en cuenta que
esta operadora controla la mayor parte del mercado. La crisis económica, además,
ha provocado el aplazamiento del despliegue de la fibra óptica, que permitiría
alcanzar a los países más destacados.
Apple abre el camino al fin de la igualdad
El fabricante Apple se lo está poniendo fácil a las
operadoras. Esta misma semana ha retirado dos programas de su tienda iTunes.
Diseñado para el móvil iPhone, uno permitía poner en marcha un programa P2P en
el ordenador sin estar en casa. El caso recuerda a la prohibición de usar el
programa de telefonía Skype también este teléfono, de hace semanas.
Estos son algunos ejemplos de lo que es la no neutralidad
tecnológica. Las empresas dan prioridad a unos programas sobre otros. En EEUU y
Canadá, varias operadoras de Internet han sido acusadas (y dos multadas) por
acelerar o frenar determinado tipo de datos.
Otra modalidad de este sistema de desigualdad es dar prioridad a unos usuarios
sobre otros. Telefónica está ensayando un sistema por el que, pagando un plus,
los datos de su cliente llegarán antes.
Francia es el espejo en que se miran todos
El martes fue la Asamblea Nacional francesa, el miércoles el
Senado galo. Sólo falta la sanción presidencial para que la Ley Creación e
Internet, que penaliza a los internautas que compartan archivos, entre en vigor.
Dos semanas antes, le tocaba el turno a la página The Pirate Bay (que alberga
enlaces a archivos P2P). Un juez condenó a sus responsables por piratería. Y,
por último, el próximo martes, se inicia la vista del caso Promusicae contra
Pablo Soto. Este creador de programas P2P (como Blubster o Manolito P2P) se
enfrenta a una multa multimillonaria por limitarse a hacer un software.
Pero el tour de force contra el intercambio de archivos en
España es el pulso que mantienen operadoras y autores. Si llegan a un acuerdo,
el modelo francés podría ser aplicado al sur de los Pirineos. Hay un documento
elaborado por el lobby cultural de EEUU que pone fecha: agosto.
La mayor cifra de ataques de la historia
A finales de 2008, la desarticulación de una mafia que
controlaba miles de ordenadores sin el conocimiento de sus dueños, dio un
respiro en la cantidad de correo basura que circula por Internet. Pero, como
revela un informe de Message Labs, para febrero el spam ya se había recuperado y
volvía a llenar los buzones de correo.
Más peligrosos que el molesto y costoso spam son los ataques
cibernéticos contra redes y sistemas para infectarlos y robar información. El
informe El Estado de Internet de Akamai revela que la mayoría de estos ataques
proceden de China y EEUU. El mismo trabajo destaca el peligro que supone la
vulneración del SSL. Este sistema cifra y da seguridad a las comunicaciones. Su
violación significa un duro golpe al comercio electrónico, ya escaso de por sí.
Google es algo más que un buscador
El pasado jueves millones de internautas vieron cómo su
buscador preferido no funcionaba como siempre. Un problema similar al que dejó a
los usuarios españoles sin su servicio de correo hace unas semanas había
provocado el pánico.
Google controla las búsquedas en Internet (en España tiene más del 90% de cuota
de mercado), la publicidad en
Internet (con sus Adwords y Adsense) y tiene un programa o servicio para casi
cada cosa. Es tal su poder que, de hecho, la Comisión Europea podría iniciar una
investigación contra Google.
Lo que más preocupa a los defensores de la privacidad es que
esta empresa sabe mucho de sus usuarios. Quién, qué, cómo, dónde y cuándo busca
un usuario queda registrado en sus servidores. Aunque Google siempre ha
asegurado que no hace un mal uso de esos datos, se trata de una concentración de
información demasiado grande, y la información es poder.
Espionaje y el fin de la privacidad
La misma Internet que ha revolucionado el acceso a la
información puede ser un formidable instrumento de control y censura. Cada año,
organizaciones como Reporteros sin Fronteras realizan un estudio sobre la
censura en Internet. China suele encabezar esa lista por méritos propios.
Pero el fenómeno se está extiendo a las democracias
occidentales. Aquí, el peligro no sólo procede de los Estados. Las empresas usan
la Red para espiarse entre ellas. El control sobre sus trabajadores crece cada
vez más y el espionaje sobre sus usuarios lo disfrazan de minería de datos o
marketing conductual. Por último, redes sociales como Facebook han provocado la
democratización del espionaje. En un reciente estudio del Pew Internet se
sostiene que estos servicios están provocando el fin de la privacidad.
Fuente: publico.es, 16-5-09
-La
NASA dota al Hubble de nuevos giroscopios y módulos de baterías
Los especialistas Michael Good y Mike
Massimino instalaron el viernes seis giroscopios y una nueva batería en el
telescopio 'Hubble', en la segunda caminata espacial de la misión de la NASA,
que duró ocho horas, la octava más larga de la historia.
La segunda caminata
espacial de la misión STS-125 del transbordador Atlantis para mejorar la
capacidad y efectuar una serie de reparaciones del telescopio espacial,
se inició con el primer rayo de luz y sobre las 15.15 horas el equipo de la NASA
había cumplido con todos los objetivos prefijados.
Segunda caminata espacial
La tarea de Good
y Massimino era reemplazar las tres unidades sensoriales del 'Hubble'. Cada
unidad incluye dos giroscopios que ayudan al telescopio a enfocar, indicó la
NASA en su resumen final de la caminata espacial.
Los astronautas
no pudieron colocar una de las tres unidades, pero fueron
capaces de instalar una de repuesto con dos giroscopios.
Reemplazamiento de baterías
Los dos
especialistas espaciales también reemplazaron un módulo de batería
instalado hace 19 años con uno nuevo en una parte del telescopio.
El lunes los especialistas John Grunsfeld y Andrew Feustel cambiarán otro
módulo.
Las baterías
suministran energía al telescopio cuando la sombra de la Tierra lo deja en
la oscuridad y sus paneles solares no están expuestos al sol.
El control en el
Centro de Operaciones para Telescopios Espaciales de la NASA en Maryland
confirmaron que los seis giroscopios habían sido instalados
y que la nueva batería ha superado las pruebas preliminares de
funcionamiento.
El comandante
Scott Altman y la especialista de la misión Megan McArthur completaron una
inspección de 40 placas térmicas de la cobertura del transbordador Atlantis,
que no podían ser revisadas el martes.
El Atlantis, dañado en la misión
El Atlantis, que
partió el lunes de Cabo Cañaveral (Florida, EEUU) sufrió daños
aparentemente leves en su cobertura térmica durante el despegue.
En una inspección
de diez horas realizada por la tripulación del transbordador al día
siguiente, se detectaron pequeños arañazos en una de las placas térmicas que
recubren el transbordador.
La NASA indicó
entonces que a primera vista, el daño encontrado "parece ser menor y no
supone una preocupación", si bien los expertos tendrán que analizarlo para
averiguar si la cubierta térmica del transbordador "está en buen estado".
Los astronautas, durante la reparación de los giroscopios en plena caminata
espacial. | Reuters
La agencia espacial señaló que,
basado en análisis de imágenes de la cubierta, los directores de la
misión han dado su visto bueno al estado del sistema de protección
termal hasta una nueva inspección antes del aterrizaje el martes.
La última tarea de la tripulación del
Atlantis fue revisar los procedimientos de la caminata espacial
del sábado, la tercera de la misión.
En esa caminata, Grunsfeld y Feustel
instalarán un nuevo espectógrafo cósmico y una cámara avanzada para inspecciones
u operaciones de reconocimiento.
Dado que la caminata espacial del
viernes se prolongó más de lo previsto, el equipo se levantará el sábado una
hora más tarde
Fuente: elmundo.es, 16-5-09
-Cámara sustituida en el "Hubble"
Astronauta Andrew Feustel mostrando
sus guantes durante la primera jornada de reparaciones. | Efe
Abajo, momento en el que el Hubble es capturado por "Atlantis"
La tripulación del transbordador Atlantis ha concluido con éxito la
primera jornada de trabajo para mejorar el funcionamiento del telescopio
Hubble, que desde hoy cuenta con una nueva y poderosa cámara para
fotografiar el espacio.
Después de siete horas y 20 minutos
de trabajo en el exterior del transbordador, en el espacio abierto,
los astronautas John Grunsfeld y Andrew Feustel lograron sustituir la
vieja cámara del Hubble por una nueva capaz de escudriñar el cosmos en
mayor profundidad.
Los astronautas se encontraron con algunos problemas para desatascar un
cierre obstruido, pero finalmente lograron sustituir la vieja cámara Wide
Field Planetary, de 15 años de antigüedad, por otra mucho más poderosa,
del tamaño de un piano de pared.
La NASA dejó claro que con este nuevo instrumento, el telescopio, que
ha transmitido a la humanidad imágenes increíbles de las profundidades del
Universo antes invisibles para los telescopios en tierra, será capaz de
captar fotografías más grandes, claras y detalladas.
Tras los trabajos de sustitución, la cámara vieja fue
depositada en el Atlantis, que la devolverá a la Tierra, donde
será expuesta en el Museo Espacial de Washington.
Esta es la quinta y última vez que un transbordador va al encuentro del
Hubble, ubicado a más de 600 kilómetros de la Tierra, para reparaciones y
mantenimiento. El Hubble, puesto en órbita en 1990 durante un viaje del
transbordador Discovery, ha completado ya más de 97.000 vueltas a la
Tierra.
El peligro de la misión
La misión que desarrolla el Atlantis es de una especial peligrosidad,
pues el Hubble orbita en una zona donde hay presente mucha basura
espacial.
De hecho, los astronautas del transbordador recibieron el miércoles la
comunicación de que había un alto riesgo de que chocaran con los
restos de un viejo satélite meteorológico chino, que fue
destruido intencionadamente en 2007.
Sin embargo, la partícula, que no medía mas de un palmo, pasó a varios
kilómetros de donde se encontraban.
"Una partícula del tamaño de un guisante podría hacer un agujero
desastroso en el transbordador", dijo a la cadena ABC el ex astronauta
Jeffrey Hoffman, poniendo de relieve la peligrosidad de la misión que
desarrolla el Atlantis.
Fuente: elmundo.es, 16-4-09
-Canarias oculta un informe que alerta de
la crisis marina
Entre el 19 y el 21 de noviembre de 2008, más de 60
científicos de instituciones canarias se encerraron en un hotel de Las Palmas
para hacer un diagnóstico de los ecosistemas marinos del archipiélago. El
encuentro, financiado por el Gobierno canario, finalizó con un veredicto
demoledor para la propia Administración que no ha trascendido a la opinión
pública. Según el informe final, al que ha tenido acceso Público, "la
definición de políticas [pesqueras] a medio o largo plazo ha brillado, en
general, por su ausencia". Como resultado, unas 25 especies de peces que viven
en los fondos marinos del archipiélago, como el mero, se encuentran en un estado
de "sobreexplotación" que impone "la adopción inmediata de medidas drásticas
para su recuperación". Y los recursos marisqueros litorales, una quincena de
especies, también están agotándose.
El mero es una de las especies sobreexplotadas. - PÚBLICO
Los investigadores -procedentes de organismos como el
Instituto Español de Oceanografía, WWF y las universidades de La Laguna y
Las Palmas de Gran Canaria- achacan igualmente esta crisis a la
animadversión entre la Administración autonómica, dirigida por Coalición
Canaria y el PP, y el Gobierno central. "Las relaciones políticas con el
actual Ministerio de Medio Ambiente son muy distantes y se han caracterizado
por una lucha tensa constante por obtener más fondos, pero sin que Canarias
haya presentado una estrategia coherente, lo que ha relegado a la comunidad
autónoma en la distribución del Fondo Europeo de Pesca", reprende el informe
final.
A pesar de la crudeza de sus conclusiones, y de haber
transcurrido medio año desde el congreso, este documento no ha sido
publicado. Las propuestas del Primer seminario científico sobre el
estado de los recursos pesqueros de Canarias (Repescan) están guardadas
en un cajón de la Viceconsejería de Pesca, dirigida por Francisco López, del
PP.
El coordinador de esta cumbre científica, José Antonio
González, no entiende la razón de esta tardanza. "Le hemos preguntado
reiteradamente al viceconsejero que cuándo se va a publicar el informe
técnico, pero no sabemos nada", lamenta. González, que trabaja en el
Instituto Canario de Ciencias Marinas, dependiente del propio Gobierno
autonómico, explica que la Viceconsejería impuso una "cláusula de
confidencialidad" que impide la publicación del informe sin su visto bueno.
"Lo correcto es que las conclusiones de un seminario pagado con dinero
público sean públicas", señala.
El catedrático de la Universidad de La Laguna, Alberto Brito, fue uno de
los participantes en el congreso. "Allí trabajamos muy duro, con reuniones
larguísimas que acababan a medianoche, pero aquel esfuerzo ha quedado en
nada", recuerda. A su juicio, su informe simplemente señalaba los problemas
y proponía un plan estratégico para evitar una ruina de los recursos
pesqueros. "Posiblemente, algunas medidas no gustaron a la Administración",
conjetura.
Informes en los cajones
El director del programa marino de WWF, José Luis García
Varas, también participó en uno de los grupos de trabajo. Durante tres días,
dice, se habló de pedir al Gobierno un mayor esfuerzo para conservar los
ecosistemas marinos de las islas. Pero ninguno de estos reproches ha salido a la
luz. "Es sospechoso que los resultados no se hayan publicado, aunque en el caso
de Canarias es habitual; muchos informes se quedan en los cajones", denuncia
este activista.
Heriberto Dávila, de Ben Magec-Ecologistas en Acción, va incluso más allá y
vincula "la ocultación" del documento con la construcción de un puerto
industrial en la localidad tinerfeña de Granadilla. El proyecto, apoyado por el
gabinete de Paulino Rivero, está paralizado por la Justicia para evitar "un daño
irreversible al ecosistema marino".
Marisa Ramos, portavoz de la Viceconsejería de Pesca, niega que el informe
haya sido censurado. "El seminario Repescan no se hizo con fines divulgativos,
sino para ayudar a la Administración a elaborar una nueva Ley de Pesca",
asegura. "No creo que el viceconsejero tenga problemas en publicarlo", opina.
López sustituyó en noviembre al anterior viceconsejero y promotor de Repescan,
Víctor Jordán, cesado por el presidente del PP canario, José Manuel Soria.
Más de 200 páginas de datos científicos
Cooperación inexistente
“La planificación de actuaciones conjuntas entre las distintas
administraciones en aspectos que afectan a varias a la vez (local, autonómica,
estatal) resulta prácticamente inexistente”.
Ciencia escasa
“El marco legal de la actividad en las islas, marcado en buena medida por la
Ley de Pesca de Canarias y su Reglamento, se ha demostrado como inadecuado,
entre otras cuestiones por la falta de asesoramiento científico durante el
proceso de su elaboración. La participación de los centros de investigación
canarios durante el proceso de elaboración de estas normas fue prácticamente
nula”.
Indiferencia
Existen estudios de algunos sebadales (praderas submarinas) de Tenerife, pero
“hasta el momento no han sido tenidos en consideración por la administración
competente”.
Fuente: publico.es, 15-5-09
-Herschel-Plank en buen camino
Imágenes tomadas desde la Tierra y el espacio muestran a los telescopios
Heschel y Planck en órbita el 14 de Mayo de 2009. La primera, tomada desde
Herschel, muestra a Planck-Sylda después de la separación con el Herschel a unos
1500 kilómetros por encima de África. Un segunda imagen, hecha desde la Estación
Óptica de Tierra de la ESA muestra a Herschel, Planck Sylda y la fase superior
del cohete tras la separación, a una altura de unos 100000 Km.
Esta animación contiene la primera serie de imágenes
capturadas por la Cámara de monitorización Visual del Herschel (VMC) un poco
después de la separación del Herschel a las 15:38 CEST, el 14 de mayo. La
secuencia muestra claramente a Planck-Sylda retrocediendo detrás de Herschel,
encima de nuestro planeta; nubes, el océano, y líneas de costas pueden ser
vistos abajo, a lo lejos. Sylda es una estructura que encapsula a Planck y sirve
de soporte al Herschel durante el lanzamiento.
Durante esta secuencia, Herschel y el Planck-Sylda
viajaron a una altitud de 1500 Km por encima de la costa este de África a una
velocidad de casi 10 Km/s. Planck se separó de Sylka unos pocos minutos más
tarde, a las 15:40 CEST. La segunda animación contiene las imágenes recogidas
por la Estación Óptica de Tenerife, en España.
Estación de Tierra en Tenerife
Las imágenes fueron captadas u nos pocas horas después
de que comenzara la separación sobre las 23:30 CEST. Cuatro objetos brillantes
son claramente visibles, tres de ellos (Herschel, Planck y Sylda), forman un
triplete que se mueven en el centro. El cuarto objeto es la fase superior del
Ariane 5. Se encontraban a una altura de 100000 Km.
El lanzamiento de estos sofisticados satélites se hizo
a bordo del cohete Ariane 5 desde el puerto espacial europeo de Kourou, en la
Guayana Francesa a las 15:12 CEST, el 14 de mayo de 2009. Casi 26 minutos más
tarde, se produjo la separación para entre las sondas para llegar a sus órbitas
finales alrededor de el segundo punto de Lagrange (L2) el sistema Sol-Tierra.
Este es un punto virtual en el espacio, situado a 1,5 millones de Km de la
Tierra en la dirección opuesta al Sol. El Sylda también viajará al L2 en una
trayectoria separada.
Las sondas han estado bajo el control del Centro de
Operaciones Espaciales Europeo (ESOC), (Darmstadt, Alemania) desde el momento en
el que se recibió su primera señal de radio procedente de los dos satélites a
las 15:49. Ahora operan en condición nominal en su camino hacia su órbita
final alrededor de L2.
Imágenes tomadas con un telescopio en
Tenerife.
Los puntos que se desplazan son las sondas
Separación entre Plank y Herschel. Imágenes
tomadas por una cámara del Herschel
Fuente: ESA, 15-5-09
-Hallan el en ARN nuevas pistas sobre el origen de la vida en la Tierra
La ciencia continúa en su intento de dar respuesta a los misterios de los
orígenes de la vida sobre la Tierra. Esta vez, un grupo de químicos cree haber
dado con nuevas pistas sobre la aparición de las primeras moléculas
como almacenes de información genética. Sus hallazgos aparecen
publicados en la revista británica
Nature.
En los mamíferos, los peces o las bacterias, la información genética se
almacena en el ADN (acido desoxirribonucleico). Por su parte, el ARN (ácido
ribonucleico) desempeña un papel activo para traducir esta información y
permitir la síntesis de moléculas activas en el organismo.
Sin embargo, a veces la propia información genética se almacena en forma de
ARN. Es el caso de los virus. Siendo el ARN más robusto que el ADN, los
científicos han formulado la hipótesis según la cual "un mundo de ARN"
precedió al actual, en el que el ADN domina las formas de vida. Como
su primo el ADN, el ARN asocia tres tipos de moléculas: un azúcar, un grupo
fosfato y una base que vehicula la información genética. La idea más extendida
entre la comunidad científica establece que estos tres tipos de
moléculas debieron aparecer de forma separada en la Tierra promigenia.
Pero lo que los químicos no han llegado a entender es cómo esas moléculas
pudieron asociarse para constituir el ARN.
A través de trabajos de síntesis química en laboratorio, John Sutherland,
de la Universidad de Manchester (Reino Unido), y colegas han descubierto una
posible pista de cómo el ARN pudo aparecer sin la ayuda de enzimas,
gracias a los rayos ultravioletas y al fosfato. Los investigadores
utilizaron moléculas presentes en la Tierra primitiva y provocaron reacciones
químicas en modelos de ambientes geológicos como los que existieron en tiempos
remotos. En la misma revista, un segundo estudio recalca cómo el ARN,
tradicional fuente de interés para explicar el origen de la vida, es
buscado por los científicos en las profundidades oceánicas. El equipo
de Edward DeLong, del MIT (EEUU), ha catalogado ya distintos y "pequeños" ARN
directamente del plancton.
Fuente:
elmundo.es, 13-5-09
-Un
modelo de 35000 años
Hace más de 35.000 años, un sensible Homo sapiens
agarró un colmillo de mamut lanudo en una caverna de la actual Alemania y
comenzó a tallar una figura femenina. La esculpió con unos pechos
descomunales, como si fuera una vaca lechera erguida, y con una vulva
sobredimensionada que más parece la cicatriz de una cesárea. A su lado, las
orondas figuras del escultor colombiano Fernando Botero parecen sílfides.
La estatuilla apareció, quebrada en media docena de
fragmentos, en septiembre de 2008 en la cueva de Hohle Fels, en el suroeste de
Alemania. Su descubridor, el arqueólogo Nicholas Conard, de la Universidad de
Tubinga, se percató en seguida de que estaba ante un hallazgo
"revolucionario", que se publica hoy en Nature. La rolliza figura,
bautizada como Venus de Hohle Fels, es a su juicio la representación artística
figurativa más antigua que se conoce de un ser humano. Aquel artista del
Paleolítico Superior fue el primero, según los restos arqueológicos
encontrados hasta la fecha, que tuvo la suficiente destreza como para
abandonar el arte abstracto e intentar el realismo para retratar a un
congénere.
"No hay duda de que la representación de pechos
sobredimensionados y de nalgas y genitales acentuados son el resultado de una
exageración deliberada de los caracteres sexuales de la figurilla", explica
Conard sobre su hallazgo,. Algunos rasgos de la escultura, como el "énfasis
extremo" en sus atributos sexuales y la falta de interés en los detalles
faciales son comunes a las célebres venus, como la de Willendorf, de la
cultura Gravetiense, comenzada hace unos 28.000 años y finalizada hace 22.000.
Por ello, los expertos tendrán que buscar ahora la función de la Venus de
Hohle Fels entre el abanico de cometidos propuesto para las venus conocidas.
Objetos en forma de falos encontrados en la cueva de
Hohle Fels
Figurita de marfil de mamut que data de hace 40.000 años y
que
está considerada la venus más antigua del mundo. Ha
sido hallada al sur de Alemania.-
AFP
Desde 1893, cuando el arqueólogo francés Édouard Piette
encontró la Venus de Brassempouy en un pueblo de las Landas, los especialistas
han visto en las figurillas femeninas iconos de la fertilidad, muñecos para
los niños y cánones de la belleza, como revistas porno del Paleolítico.
Algunos, incluso, han sugerido que estatuillas de medio tamaño, como la Venus
de Willendorf, con una talla de más de 10 centímetros de longitud, podrían
haber sido utilizadas como juguetes sexuales.
El pequeño tamaño de la Venus de Hohle Fels parece
descartar esta última hipótesis, ridiculizada por muchos arqueólogos. Y,
además, su descubridor apunta en otra dirección. "Aunque existe un largo
debate sobre el significado de las venus paleolíticas, su explícita
representación de los atributos sexuales sugiere que son una expresión directa
o indirecta de la fertilidad", explica Conard.
Sex shop prehistórico
El arqueólogo Paul Mellars, de la Universidad de Cambridge
(EEUU), incide en la perspectiva sexual en un análisis que acompaña a la
publicación del hallazgo en Nature. Para este científico, la obsesión
por los rasgos femeninos presente en la Venus de Hohle Fels no debería ser
ninguna sorpresa, porque ya se han registrado dibujos abstractos de vulvas en
yacimientos franceses del mismo periodo que la cueva alemana, el Auriñaciense.
"Curiosamente, este aspecto de simbolismo sexual del arte es simétrico, porque
en los mismos yacimientos [en los que se han desenterrado venus] también se
han encontrado representaciones fálicas explícitas, talladas en hueso, en
marfil o en cuerno de bisonte", subraya Mellars. De hecho, la caverna de Hohle
Fels parece un sex shop prehistórico. En 2005, el propio Conard
anunció el hallazgo de un falo de pedernal pulido, con un tamaño de 20
centímetros y una anchura de tres. El instrumento, tallado hace 28.000 años,
pudo haber sido utilizado como un consolador, según los científicos. A juicio
de Mellars, "la posibilidad de que estos falos pudieran ser juguetes para
chicas", como le sugirió un dubitativo estudiante de primer año, "no debería
ser descartada".
El investigador estadounidense añade una interpretación que
parece más relevante para desenmarañar la evolución de la especie humana. Las
primeras poblaciones de Homo sapiens desembarcaron en Europa
procedentes de África, donde dejaron un rastro de arte abstracto realizado
hace 75.000 o, como mucho, 95.000 años. Pero, según Mellars, la adopción de un
arte figurativo, empeñado en retratar la naturaleza de una manera realista, es
un fenómeno exclusivamente europeo, sin un parangón africano más allá de la
barrera de los 30.000 años.
Mutación del cerebro humano
"Es polémico el tema de hasta qué punto esta explosión simbólica, asociada
con el origen y la dispersión de nuestra especie, refleja una reorganización
fundamental de las capacidades cognitivas del cerebro humano, quizá
relacionada con un salto hacia delante similar en la complejidad del
lenguaje", detalla Mellars.
El catedrático de Prehistoria de la Universidad Autónoma de Madrid, Javier
Baena, resta importancia al descubrimiento de la Venus de Hohle Fels. "No está
en un rango cronológico que nos sorprenda. La figura tiene 35.000 años, si
tuviera 70.000 me hubiera quedado con la boca abierta", comenta. Baena tampoco
se cree que los Homo sapiens europeos tengan la patente mundial del
arte figurativo. "En la cueva de Blombos, en Suráfrica, se han encontrado
collares y otros útiles con una decoración simbólica muy elaborada, fabricados
hace más de 75.000 años. Es más que probable que en Blombos fueran capaces de
hacer arte figurativo", elucubra.
Baena admite la dificultad de proponer una función para las venus, porque
"el pensamiento no fosiliza". "Los arqueólogos tendemos a pensar que todo lo
que encontramos tiene un significado mágico o religioso, pero tendría que
aparecer una venus en la mano del esqueleto de un niño enterrado para conocer
su función", bromea.
Fuente: publico.es, 13-5-09
-Europa se lanza con éxito a estudiar el "Big-Bang"
Un viaje a los
orígenes del Cosmos. Al momento en el que la luz de la gran explosión del 'Big
Bang', hace unos 14.000 millones de años, comenzó a viajar por el espacio y
las estrellas y galaxias comenzaron a formarse. Este es el ambicioso objetivo
de los dos telescopios el 'Herschel' y el 'Planck' que la
Agencia Espacial
Europea (ESA)ha lanzado hoy con éxito (a las 15.12, hora
peninsular española) a bordo de un cohete Ariane 5, desde la base en
la Guayuna Francesa.
Cohete Ariane 5 listo para despegar con los telescopios "Herschel"
y "Planck"
Veinticinco minutos
más tarde, los satélites iniciaron su recorrido para alcanzar su punto
orbital, situado a unos 1,5 millones de kilómetros sobre la Tierra,
donde llegarán en unos 60 días.
"La ESA está
en ruta para conocer los orígenes del Universo", afirmó
minutos después del despegue el director general de la agencia, Jean-Jacques
Dordain, convencido de haber dado "un gran paso para ampliar el conocimiento
humano".
Para la ESA esta
es, sin duda, la misión más importante del año y una de las más ambiciosas de
toda su historia. No en vano, colocará en órbita una misión que ha
costado 1.800 millones de euros y en la que están implicadas más de
300 personas de 15 países. La aportación española es de 98 millones.
Los dos
telescopios, que estarán separados por miles de kilómetros, tienen dos
trabajos muy distintos, aunque la finalidad sea la misma.
El 'Herschel',
con un espejo de 3,5 metros de diámetro (el más grande colocado en el
espacio), ha sido diseñado para captar señales del infrarrojo lejano
y estudiar algunos de los objetos más fríos del Universo. "Estudiará detalles
de los procesos iniciales de las estrellas y las galaxias. Será ver el
Universo con ojos muy distintos de los de la Tierra, donde la atmósfera nos
bloquea gran parte de esa radiación de infrarrojo", explica Pedro García Lario,
de la ESA.
Para que esa
captación sea posible, además de un espejo ligero de carburo de
silicio (en total pesa sólo 320 kilos) lleva a bordo unos detectores
enfriados hasta temperaturas de 271º C bajo cero (con 2.000 litros de helio) y
tres sofisticados instrumentos. El frío es necesario, explican los expertos,
porque a más baja temperatura más aumenta la sensibilidad del
telescopio, aunque el problema es que dejará de funcionar cuando es
helio se consuma, lo que ocurrirá en unos cuatro años.
Los instrumentos
consisten en cámaras y espectrómetros para realizar las mediciones, en cuyo
desarrollo han participado numerosas empresas e instituciones españolas. "Nos
dará datos que nunca podrá proporcionar el 'Hubble', como la distribución de
vapor de agua en las nubes que forman las estrellas y los planetas. Para ello
lleva un detector heterodino, el HIFI, en el cuyo desarrollo han participado
científicos españoles", explica José Cernicharo, del
Centro de Astrobiología del
CSIC. En octubre llegarán a la Tierra los primeros resultados.
Un mapa del
Universo
El 'Planck' no es
menos complejo ni ambicioso. Su misión es hacer un mapa de la luz fósil del
Universo: detectar la radiación cósmica de microondas que se
generó hace 14.000 millones de años, con el 'Big Bang', y de la que sabemos
muy poco. También operará a temperaturas muy bajas (-253ºC) con sus dos
instrumentos: el LFI y el LHFI.
Cada minuto, dará
una vuelta sobre sí mismo, recogiendo datos que no podrán estar disponibles
hasta 2012 para el público, y sólo un año antes para los científicos que lo
han desarrollado. Rafael Rebolo, del
Instituto Astrofísico de Canarias
explica que "se trata de buscar el ADN del Universo, su genoma,
las huellas de la materia que han quedado en la radiación y por ello se
tardará tiempo en tener todo el mapa".
Para ello, el
telescopio buscará en nueve frecuencias que van de 30 a 850
gigaherzios (GHz). "Si entendemos que ocurrió en los orígenes quizás
encontremos nuevas leyes fundamentales", argumenta Rebolo que, desde Canarias,
completará las observaciones del Planck con el radiotelescopio 'Quijote', que
también comenzará a operar en verano, como el espacial.
Una vez en marcha,
los datos de ambos telescopios serán recogidos por una antena en Australia y
otra en Cebreros (Ávila). Desde Villafranca del Castillo (Madrid), donde está
el Centro Europeo de Astronomía Espacial se archivarán y distribuirán los
datos de las operaciones científicas.
Fuente:
elmundo.es, 13-5-09
-La
extraordinaria supervivencia de los neandertales ibéricos: una explicación
ecológica
Las investigaciones sobre el marco temporal
de los yacimientos de Neandertal nos sitúan las últimas ocupaciones en el
extremo sur de la Península Ibérica diez mil años después que en el resto del
dominio euroasiático de la especie. Más concretamente, los yacimientos
gibraltareños de las cuevas de Gorham's y Vanguard, cuyas excavaciones son
dirigidas por el profesor Clive Finlayson (Museo de Gibraltar) aparecen como
bastiones de una formidable supervivencia, resultando posible que otros enclaves
en el litoral de Cádiz, Huelva y Málaga, o en el interior de Granada, acogieran
pequeñas poblaciones tardías. Hasta el momento, no hay evidencias de que el
Neandertal viviera en África, por lo cual se da la curiosidad de que los
neandertales gibraltareños tendrían a nuestra especie como vecinos, al otro lado
del Estrecho durante unos cuantos miles de años entre 50.000 y 25.000 antes del
presente.
¿Cómo es posible que, tantos miles de años después de la
aparición de nuestra especie en Europa, los neandertales pudieran seguir
subsistiendo en el sur de Iberia? Los estudios con el registro fósil de Gorham's
podrían arrojar algo de luz sobre este particular. En primer lugar, la fauna
preservada en el yacimiento (en su mayor parte incorporada por la acción del
hombre) es de una diversidad asombrosa. Merece la pena destacar la existencia de
más de 145 especies de aves entre Gorham's, Vanguard y Devil's Tower, incluyendo
algunas especies ausentes hoy en la región.
Hay veintiocho especies típicas de acantilados y un gran
número de rapaces y carroñeros, lo cual sugiere una alta productividad para la
plataforma costera. Encontramos paíños, pardelas, cormoranes, alcas y gaviotas;
aves de aguas estacionales como somormujos, patos, fochas, limícolas, canasteras
y fumareles. En contexto terrestre, hay restos abundantes de perdiz roja,
codorniz, alcaraván y abubilla. La fauna de mamíferos incluye conejos, cabra
montés, ciervo, jabalí, uro, caballo, rinoceronte (Stephanorhinus
hemitoechus) y carnívoros como el lince, el gato montés, la hiena manchada,
el leopardo, el lobo y el oso pardo. En la costa se encontraba, además, la foca
monje (Monachus monachus). Finalmente, no podemos olvidar la abundancia
de anfibios y reptiles de ambientes cálidos como el sapo de espuelas, el tritón
jaspeado, la ranita meridional, el gallipato, eslizones, tortuga mediterránea,
galápagos, lacértidos y muchas especies de culebras.
La flora identificada a través de granos de polen, madera
carbonizada y semillas en el yacimiento de Gorham's no es menos sorprendente en
su diversidad y significado ecológico. Los análisis tanto en el sedimento de
relleno como en coprolitos de hienas revelan la coexistencia de paisajes
esteparios y arbolados, incluyendo bosques de quercíneas, pinares, sabinares,
bosques galería y bosques mixtos. Los ambientes parecidos a una sabana podrían
haber sido muy extensos, sobre todo en la plataforma litoral que se extendía
entre la cueva y el mar (el nivel del mar estaba muy por debajo del actual
durante la última glaciación) y desde la cual los habitantes de Gorham's
inspeccionarían el territorio para planificar sus estrategias de caza y
recolección.
Entre las especies
leñosas más relevantes cabe destacar el pino piñonero (del cual hicieron
aprovechamiento recolector), la encina, los robles, alcornoques, avellanos,
alisos, olmos, sauces, abedules, castaños, tejos, acebos, fresnos, arces,
madroños, brezales, jarales, etc. El espectro incluye también plantas
indicadores de ambiente cálido, como el lentisco, el mirto, el acebuche, el
cornical (Periploca angustifolia), el bayón (Osysis quadripartita)
y el arto (Maytenus senegalensis).
El contingente supone
una combinación única de elementos de alta montaña, de matorral y bosque
mediterráneo, junto con elementos florísticos ibero-norteafricanos. No se ha
encontrado análogo moderno ni tampoco un cuadro similar en los extremos sur de
Italia o de la península greco-balcánica.
Los humanos que ocuparon este entorno costero (hasta hace unos 25.000
años los neandertales, y a partir de 18.000 años nuestra especie) eran
omnívoros y queda claro que tenían un profundo conocimiento del medio en que
se desenvolvían, lo cual debilita las ideas sobre la superioridad de los
humanos modernos.
Fundamentalmente, porque al desaparecer los neandertales miles de años antes
de que éstos lleguen, parece complicado sostener una hipótesis de
desplazamiento por competencia. Luego, no podemos olvidar que según el
estudio arqueológico y tafonómico, apenas hay diferencias entre el
comportamiento de ambos grupos. Por la agitación intelectual que provoca, el
tema central de especulación científica -y literaria- en torno a los
neandertales, ha sido su extinción. Sin embargo, es probable que nunca
lleguemos a conocer las causas reales de la extinción.
Uno de los posibles últimos refugios de los neandertales
Se trata de un
problema de difícil abordaje metodológico dada la escasez de restos humanos y la
difícil adscripción de las industrias líticas del Paleolítico Superior inicial.
Eventualmente, parece claro que las continuas fluctuaciones climáticas desde
hace 50.000 BP fueron fragmentando progresivamente las poblaciones de Neandertal
dejando poblaciones cada vez más aisladas en el Mediterráneo, Oriente medio,
Caúcaso y Crimea.Se trata de un problema de difícil abordaje metodológico dada
la escasez de restos humanos y la difícil adscripción de las industrias líticas
del Paleolítico Superior inicial. Eventualmente, parece claro que las continuas
fluctuaciones climáticas desde hace 50.000 BP fueron fragmentando
progresivamente las poblaciones de Neandertal dejando poblaciones cada vez más
aisladas en el Mediterráneo, Oriente medio, Caúcaso y Crimea.La pauta está
claramente orientada desde zonas continentales e interiores hasta las áreas
costeras. Poco a poco, incluso éstas se irían extinguiendo, probablemente porque
los primates soportan mal la reducción del tamaño poblacional. De otro lado, la
extinción forma parte indisoluble de cualquier escenario evolutivo en eucariotas
y sin exclusión alguna, en homínidos ("Soy hombre. Duro poco y es enorme la
noche" decía Octavio Paz). No se puede olvidar que, como especie y en el
contexto de la evolución humana, los neandertales tuvieron una existencia
biológica particularmente dilatada,pues formando parte de los cortejos
faunísticos del Pleistoceno Medio, alcanzan el final del Pleistoceno Superior,
desapareciendo solo cuando llega el Último Máximo Glaciar, uno de los momentos
más críticos de la historia climática de la Tierra.
En este contexto de
incertidumbre, parece mucho más interesante, y probablemente más investigable,
plantear el por qué de tan extraordinaria supervivencia. Y en ello estamos. De
momento, parece que el escenario ecológico fue favorable a la explotación de
recursos de muy diversa naturaleza, lo cual implica capacidad de adaptación en
un entorno cambiante.
No es la primera vez, en la historia evolutiva del género Homo, que las
poblaciones se asocian con "puntos calientes de biodiversidad". Las ocupaciones
de Dmanisi en Georgia, que documentan los primeros habitantes de Eurasia hace
1,8 millones de años, lo hacen en la región irano-anatólica. Los yacimientos de
Homo erectus de Java y suroeste de China, fechados algo después,
también se relacionan con enclaves considerados hoy día como "hotspots".
Luego está el hecho remarcable de la asociación de homínidos con plataformas
litorales.Estas han evidenciado su valor de supervivencia en momentos en los que
la migración se hizo una necesidad. Los grandes eventos de dispersión de nuestra
especie, da igual pensar en los Out-of-Africa como en otras
colonizaciones como la americana o la de Japón, Australia o Nueva Guinea, se han
producido a través de corredores costeros. Estas plataformas han funcionado como
"superecotonos", disponiendo de un mosaico de hábitats y organismos que
coexistieron en cortas distancias. En el caso de la Península de Gibraltar,
representa además, un enclave particular por su conexión del mundo atlántico con
el mediterráneo, del africano con el euroasiático. Probablemente, un buen lugar
para los últimos días del último de los neandertales.
Fuente:
madridmasd.org, 12-5-09
-"Atlantis"
se dirige hacia el "Hubble"
El transbordador 'Atlantis' ha despegado con éxito hacia el telescopio
espacial
'Hubble', en una
misión que debe dar un 'lavado de cara' al mítico observatorio, reparar
sus fallos y llevar nuevos instrumentos científicos, más potentes, que
nos desvelen más misterios del pasado y el presente del Universo. Siete
astronautas de la
NASA viajan
hasta esta instalación científica, que lleva 19 años a casi 600 kilómetros de la
corteza terrestre como un gran ojo abierto al cosmos profundo.
Tras su paso, se espera que el 'Hubble' siga enviando imágenes espectaculares
del espacio exterior hasta 2014.
Transbordador Atlantis en el momento del despegue desde el Centro Espacial
Kennedy en Florida
La misión, que
durará 11 días, supone un tremendo reto para la tripulación
que, desde Cabo Cañaveral (EEUU) parte en el transbordador 'Atlantis'. Se
trata de la quinta misión para mejorar al 'Hubble' desde su
lanzamiento en 1990; en este caso, para realizar delicadas operaciones
mecánicas en el sofisticado entramado del telescopio.
Durante cinco de
esos días, cuatro de los astronautas realizarán otros tantos paseos
espaciales, de entre seis y siete horas cada uno.
En el primero de
ellos, colocarán una nueva cámara WFC3 (Wide Field Camera),
que sustituye a la vieja WFC2. Se trata de un instrumento que, según la
NASA, permitirá observar galaxias más lejanas y primitivas que las que ahora
se consiguen y nos acercará a sus orígenes.
En el camino, la
potente cámara proporcionará información de la misteriosa energía
oscura. Y además, como será capaz de captar imágenes a través de
las ondas infrarrojas y ultravioletas, aseguran en la Agencia Espacial
Europea (ESA) que habrá una oportunidad única de ver si hay agua o hielo en
objetos de nuestro Sistema Solar.
Esta cámara es
complementaria del ACS (Advanced Camera for Surveys) o cámara de sondeos,
que también tendrá que ser reparada durante la misión porque no funciona
bien desde enero de 2007. "Con la WFC3 y la ACS tendremos la primera
oportunidad de tomar imágenes diferentes al mismo tiempo. Si se quiere tener
un álbum completo de la familia del Universo, se necesita
mirarlo desde diferentes longitudes de onda", ha señalado Dave Leckrone,
responsable científico de la misión.
El otro novedoso
instrumento que llevarán a bordo en el 'Atlantis' es un Espectógrafo Cósmico
de los Orígenes (COS, en inglés). Sustituirá al COSTAR, un sistema que
corrigió un defecto el espejo primario del telescopio y que fue instalado en
1993.
El COS es un
dispositivo capaz de detectar la débil luz de los cuásares (objetos que
emiten energía electromagnética) y que puede registrar los cambios en esa luz
cuando atraviesa zonas de nubes de gas entre galaxias que están muy distantes.
Con estos datos, los astrónomos determinarán la composición química y la
localización de la materia, dando información clave sobre la estructura del
Universo.
La segunda de las
reparaciones importantes será la del STIS, un espectrógrafo de imágenes que
también está estropeado desde hace tiempo.
Pero el trabajo no
acabará con estas tareas. Los astronautas encargados de los trabajos en el
exterior -en concreto, Michael Good, John Grunsfeld, Andrew Feustel y Mike
Massimino- tendrán que reemplazar baterías que llevan casi dos décadas en
activo, reponer algunos giroscopios y reemplazar un sensor.
El
observatorio más poderoso
«Continuando su
misión de servicio, el 'Hubble' llegará a ser el más poderoso observatorio que
jamás hemos tenido y seguirá pivotando las observaciones astrofísicas en la
próxima década», ha señalado Bol Fosbury, responsable del Telescopio Espacial de
la ESA. De hecho, la agencia europea contribuyó con un 15% al desarrollo
del telescopio y ese es el porcentaje de tiempo de observación del que
dispone en esta, aunque lo amplía hasta el 20%.
Aunque la instalación
de los dos nuevos instrumentos y reemplazar los viejos será delicado, la NASA
reconoce que la parte más difícil será arreglar lo que no funciona, y que no fue
diseñado para ser reparado. Por ejemplo, arreglar es espectrógrafo
supondrá quitar más de 100 tornillos para acceder a una tarjeta
electrónica que tienen que sustituir.
Además, los
astronautas deberán revistar el escudo térmico del transbordador
'Atlantis'antes de su vuelta, un repaso imprescindible desde el
accidente del Columbia. en el que utilizarán el brazo robótico que lleva la
nave.
¿Y si detectan un
fallo en algunas de las placas de aislamiento? Lo que está claro es que no
podrían llegar de ninguna manera a la Estación Espacial Internacional para
volver, desde allí, a casa.
Por ello, en la NASA
ya tienen preparado en Cabo Cañaveral otro transbordador, el Endeavour, para que
vaya al rescate de la tripulación en cuestión de días.
Mientras, los siete astronautas deberían permanecer en un espacio que los
propios técnicos reconocen que es reducido para tantas personas.
El comandante de la
misión, Scott Altman, cree que no será necesario: "Hemos llevado a cabo grandes
mejoras en el tanque externo y siempre podemos detectar el fallo, evaluar su
gravedad y solucionarlo, o esperar a que vengan a por nosotros. El
riesgo es bajo para una rentabilidad que será enorme".
A lo largo de sus 19
años de funcionamiento, son muchos los hitos científicos que ha logrado el 'Hubble'.
Quizás el más llamativo fue la detección de un objeto de hace 13.000
millones de años, cuando se calcula que el Universo tiene una edad de
13.700 millones de años. También descubrió indicios de los agujeros negros.
Fuente: elmundo.es, 11-5-09
-Jane Goodall, doctora 'honoris causa' por sus hallazgos
sobre los chimpancés
La naturalista
británica Jane Goodall ha afirmado hoy que, aunque "no hay duda" de que "el
hombre ha dañado el Planeta", es "un error" pensar que "no puede hacer
nada" por la defensa de la biodiversidad, porque las "acciones
diarias" son "importantes" para la preservación del medio ambiente.
Goodall, premio
Príncipe de Asturias de la Investigación en 2003, embajadora del Año del
Gorila 2009 y 'Mensajera de la Paz' de Naciones Unidas, ha expuesto estas
reflexiones en la Universidad de Alicante (UA), donde ha sido investida
doctora "honoris causa" por su notable contribución al conocimiento
del comportamiento de los primates.
La etóloga
británica, de 75 años, ha considerado también que la existencia aún de "la
pobreza extrema, el hambre y las luchas entre etnias" cuestiona la
"sabiduría" de la Humanidad.
En su visión global
de la biodiversidad, la investigadora ha sido tajante al manifestar que "los
pueblos indígenas adoptan sus decisiones pensando en las generaciones
futuras", mientras que, por el contrario, los países desarrollados "no las
toman" por vivir con "la mente desconectada del corazón".
Jane Goodall, durante su investidura
como doctora 'honoris causa' en Alicante. | Efe
Lo único que
diferencia al hombre de los chimpancés" es que el primero "puede
enseñar el presente y hablar sobre el futuro", pero, a pesar de
disponer de un "mayor nivel intelectual que los animales", protagoniza
acciones perjudiciales para el Planeta, ha sentenciado.
Goodall, que
también ha dirigido en todo el mundo campañas de concienciación sobre la
importancia de la conservación de la naturaleza, ha declarado que
"el agua en España es un problema como en el resto del mundo",
como "la deforestación y la contaminación de los ríos, el agua y el medio
ambiente con ingredientes químicos".
Recuperación
de primates
La premio
Príncipe de Asturias ha revelado que ha llegado a ser lo que es gracias a
su madre, quien la apoyó desde pequeña cuando mostró su intención de "ir a
estudiar los animales a África".
En rueda de
prensa previa al acto de investidura, Goodall ha lamentado que continúe
la comercialización ilegal de crías de chimpancés en África,
durante cuya captura son "asesinadas sus madres".
La naturalista
británica ha reiterado, igualmente, su compromiso con el centro de
recuperación de primates que la asociación holandesa APP construye en
Villena (Alicante) y que ha definido como un "proyecto
interesante" para el cuidado de estos mamíferos y la educación
sobre el medio natural.
"Agradezco el
esfuerzo de los políticos y de todos los que han hecho posible que el
proyecto salga adelante", ha dicho Goodall, quien ha destacado la
plantación de 1.500 árboles alrededor del centro de recuperación
de primates de Villena, el tercero de sus características en España.
Durante la
conferencia de prensa, el Instituto Jane Goodall (IJG) ha presentado los
programas que realiza en España y en el resto del mundo, donde implica a
"cientos de miles de personas" y cuya línea de actuación es
"trabajar por el bienestar de los chimpancés que están en cautividad"
y su reintegración en el medio natural.
"El IJG llega a
mucha gente con entusiasmo, cuyo trabajo voluntario hace que se expanda
esa red y podamos llegar a lugares que no pensábamos", ha
explicado Goodall, quien ha apostado por la implicación de los jóvenes en
los programas de la fundación.
Por su parte, el rector de la UA,
Ignacio Jiménez Raneda, ha subrayado que es "un verdadero orgullo"
el nombramiento de Goodall, cuya labor sobre "la etología de los
chimpancés" ha supuesto un salto cualitativo "importantísimo" en los
conocimientos sobre el comportamiento de los primates.
"Nuestra nueva doctora 'honoris
causa' es la gran impulsora de una nueva cultura que promueve una
visión más humilde del género humano y aproxima nuestra distancia con
los animales y la naturales, cultura que viene recogida en su lema: mira y
aprende lo que los animales te enseñan", ha indicado Jiménez Raneda.
Comentarios en el programa "España
directo" de RNE:
Fuente: elmundo.es, 11-5-09
-"Spirit" embarranca
El 6 de Mayo de 2009 Spirit embarrancó en una zona con un
sustrato blando. Dos de sus ruedas han quedado parcialmente enterradas.
Spirit tomó esta imagen con su cámara frontal usada para evitar obstáculos. Con
Spirit, en la posición mostrada aquí, el equipo que controla al todo-terreno ha
tomado la decisión de suspender los intentos de conducción mientras estudian la
naturaleza del suelo alrededor de "Spirit" y planean las pruebas de simulación
para conocer las posibilidades de conducción del vehículo.
En la imagen también se puede apreciar la rueda frontal derecha que no puede
rotar. El punto de vista es hacia el norte. Se pueden apreciar las Colinas
Husband en el fondo.
Fuente: NASA, 11-5-09
-Un cine 4-D causa mareos por resultar
demasiado realista
Durante la proyección de Shallow
Seas 4-D Experience, los asientos se mueven y vibran, y las imágenes en 3-D
son acompañadas por un spray de agua salada. El personal que trabaja en la sala
ya alerta a los espectadores de los posibles efectos adversos.
Joseph Mann, el
director de la atracción, que ha costado cerca de un millón de libras, ha
dicho que "para conseguir el efecto de las grandes olas, los asientos se
sacuden fuertemente". A esos efectos se añaden delfines saltando por encima de
nuestras cabezas y esto, según el director, "puede ser demasiado para algunas
personas".
Sin embargo, parece que los mareos
los padecen sólo los adultos, "los niños parecen tener mayor resistencia que
sus padres", añadió Mann.
Joy Larkins, una de las visitantes de 50 años de edad,
declaró que tuvo que salir de la sala porque "era demasiado realista e
impresionante". "Un par de minutos después de que comenzara la película, me
sentí realmente mal; cuando me levanté, me temblaban las piernas", contó.
Fuente: 20minutos.es, 10-5-09
-Willy
prefirió morir en cautividad
El brillo de las
lentejuelas de Hollywood a menudo enmascara historias desgraciadas, una
maldición de la que ni siquiera los animales escapan. En 1993, la producción de
Warner Bros Liberad a Willy recaudó más de 100 millones de euros con la
lacrimógena trama de un niño desarraigado que encontraba a su mejor
amigo en una orca prisionera, a la que finalmente liberaba para
alejarla de las manos codiciosas de sus captores.
La película
inspiró un movimiento popular para convertir la ficción en realidad y
liberar a Keiko, el cetáceo devenido en actor que malvivía en un parque
mexicano. Algunos patrocinadores y miles de pequeñas donaciones de huchas
infantiles restauraron la libertad perdida de Keiko, que
siempre conservó los lazos con sus amigos humanos hasta que una neumonía se
lo llevó de este mundo a la edad de 27 años, el 12 de diciembre de 2003,
mientras disfrutaba desu ansiada libertad.
Condolencias de
todos los rincones del mundo llegaron a la web de la Fundación Free Willy
Keiko, promotora de la operación, que subrayaba cómo el éxito de la
reintroducción había "probado que los negacionistas se equivocaban". El
oceanógrafo Jean-Michel Cousteau glosaba a Keiko nada menos
que como "un líder amado" y "un maestro". La ballena recibió sepultura
terrestre bajo suelo noruego con pompa y ceremonia. En el Acuario de Oregón
donde Keiko reposó los dos años anteriores a su liberación, un capellán
veterinario celebró un servicio memorial ante 700 pares de ojos
acuosos: "Keiko no era como nosotros, pero era uno de nosotros..."
La cara oscura
Hasta ahí, la
versión oficial. Pero detrás de las cámaras, la realidad es otra. Durante
años se debatió si fue acertado liberar a un animal que había vivido casi
toda su existencia en cautividad y que, en contra de las edulcoradas
crónicas del momento, nunca se adaptó a su mundo de origen ni superó su
dependencia de los humanos. Ahora, un estudio en Marine Mammal Scienceclava la tapa del ataúd de Willy: "La liberación de Keiko a
la naturaleza no fue un éxito", dice el trabajo que dirige Malene Simon, del
Instituto de Recursos Naturales de Groenlandia.
El estudio resume
la desdichada biografía de Keiko. Capturado a la edad de dos años cerca de
Islandia, viajó de aquel país a Canadá para cumplir condena de 11 años en su
reducida prisión de cemento en México. Su debut en el cine y el clamor del
público lo llevaron a Oregón y por fin a Islandia, donde su liberación,
juzgan los autores según criterios científicos, fue un fracaso: no se
alimentaba, no se integraba con sus congéneres y seguía a los barcos como un
perrito fiel.Emigró, posiblemente en solitario, hasta Noruega, para recalar
en una localidad costera donde los niños escandinavos lo adoptaron como
mascota. Por fin se le acomodó en un recinto abierto en un fiordo, que
abandonaba ocasionalmente, pero a la hora de morir regresó buscando la
compañía de los suyos, los Homo sapiens. Simon explica a
Público que en cualquier caso "era necesario sacarlo de aquel reducido
tanque en México, de lo contrario habría muerto antes". "Aprendimos mucho
del proceso de liberación", agrega. Pero su veredicto es tajante: "Keiko no
quiso ser libre".
Una imagen de Keiko tomada en 1996,
durante
su cautiverio en un parque mexicano. - reuters
Los
visitantes pasan por caja
Durante estos años,
Keiko no ha dejado de generar inmensas cantidades de dinero. Dos millones y
medio de visitantes pasaron por caja en el acuario de Oregón. Sus escenas
descartadas se estiraron para dos secuelas más en la pantalla. Una empresa de
transportes lució sus emblemas durante el aparatoso transporte aéreo a Europa.
La operación orquestada por la Fundación Free Willy Keiko consumió 15 millones
de euros. Hoy, esta entidad sigue recaudando donaciones en su web con el borroso
fin de "mantener el legado de Keiko". La cuarta entrega de la saga Willy se
anuncia para el próximo año.
El rentable circo
organizado en torno a la ballena que nunca debió ser capturada, pero que tampoco
quiso la libertad, se resume en las palabras del capellán veterinario
de Oregón, Thomas Chatterton: "¿Por qué deberíamos preocuparnos tanto por un pez
en tiempos de pobreza y niños sin hogar? Porque se granjeó el cariño de
millones". ¿Pez? ¿Veterinario?
Fuente:
publico.es, 10-5-09
-La
Pompeya de los trilobites
Los trilobites
son uno de los fósiles más conocidos para los aficionados y el gran
público. Lo que resulta difícil de encontrar es un yacimiento como el que
acaba de aparecer en Portugal, en una cantera cercana a la
localidad de Aveiro.
Se trata de la
mayor y más completa acumulación de estos seres prehistóricos y también la
que tiene los mayores ejemplares nunca hallados. El
descubrimiento lo ha realizado un equipo internacional de paleontólogos
liderado por investigadores del Consejo Superior de Investigaciones
Científicas (CSIC).
Estos
artrópodos marinos dominaron los mares terrestres durante 250 millones de
años en la era Paleozoica y tenían un tamaño modesto. Los restos que nos
han llegado no suelen superar los 10 centímetros de longitud. Sin embargo,
los recién encontrados exceden los 30 centímetros y alcanzan
incluso los 90, lo que los convierte en los mayores fósiles de
trilobites hallados hasta la fecha. El trabajo se publica en el último
número de la revista Geology.
Según el
coordinador de la investigación, el científico del CSIC Juan Carlos
Gutiérrez Marco, «lo excepcional es que los ejemplares adultos se
conservan completos y articulados, en tanto que en España y
Portugal, para rocas de edades comparables, sólo disponemos de fragmentos
y restos de mudas de los individuos de mayor tamaño».
Los expertos
relacionan el gran tamaño de los fósiles hallados con el gigantismo polar
observado en distintos grupos de invertebrados durante el Ordovícico,
el periodo que comenzó hace unos 490 millones de años y terminó
hace 443. Entonces los territorios ibéricos se ubicaban muy cerca
de lo que entonces era el polo Sur y formaban parte de la plataforma
marina que circundaba el desaparecido continente de Gondwana.
Algunos de los fósiles de trilobites hallados en Portugal.
| Geoparque Arouca/CSIC
«En un pequeño
sector de la plataforma marina se formó una cubeta a salvo de corrientes, que
retuvo aguas frías y estancadas pobres en oxígeno», explica Gutiérrez Marco.
La fluctuación de los niveles de oxígeno, cerca del fondo, asfixió y
conservó los cadáveres de muchos trilobites, sorprendidos por la
muerte cuando se juntaban para mudar y reproducirse o cuando se protegían de
los depredadores.
Gutiérrez-Marco
describe el yacimiento como «una pequeña Pompeya de trilobites, en la que
perecieron sofocados y yacen en el mismo lugar en el que vivieron». Así, se
han encontrado algunos individuos enrollados en posición defensiva
u otros que murieron mientras mudaban el caparazón y conservan su
vieja muda junto al cadáver.
Esta circunstancia
ha permitido a los investigadores trazar instantáneas de la vida de
los trilobites. El yacimiento puede visitarse gracias a la apertura
del Centro de Interpretación Geológica de Canelas.
Fuente:
elmundo.es, 9-5-09
-La
extinción de los mastodontes de la física
El lunes, el
secretario de Energía de EEUU, Steve Chu, afirmó que el International Linear
Collider (ILC), el próximo gran acelerador de partículas, costará cerca de
20.000 millones de euros. Esta máquina tendrá entre sus objetivos poner a prueba
los descubrimientos que debería realizar el LHC, en la sede del CERN, en
Ginebra. Por ahora, el alto precio y los aún nulos resultados del acelerador
europeo convaleciente mantienen a los gobiernos a la expectativa y el proyecto
en el aire.
El caso del ILC
muestra que la construcción de máquinas cada vez mayores y más potentes para
explorar los abismos de la física puede tener cerca su límite. Tevatrón, el
acelerador en activo más energético, costó unos 200 millones de euros; LHC,
siete veces más potente, 5.000. La progresión con la tecnología actual es clara
y cada nuevo proyecto supone un esfuerzo épico para lograr fondos con los que
financiarlos. Si se quiere seguir avanzando será necesario encontrar formas más
asequibles de lanzar unas partículascontra otras.
Recientemente,
investigadores de instituciones rusas y alemanas publicaron en Nature
Physics un artículo que puede permitir la aparición de aceleradores de
electrones (como el ILC) muy potentes y mucho más pequeños. El sistema,
bautizado como proton driven plasma acceleration (PWFA), haría posible
utilizar campos eléctricos unas mil veces más potentes que los aceleradores
convencionales y, en principio, mil veces más cortos.
Dispararon contra una sopa
En los
aceleradores de investigación, las partículas tienen que chocar a energías
muy elevadas. Para lograrlo, se aceleran mucho con potentes campos
eléctricos. El problema es que si el campo es demasiado intenso, comienza a
arrancar electrones de las paredes del tubo del acelerador y puede acabar
por fundirlo. Además, los imanes que curvan la trayectoria de las partículas
no pueden hacerlo de forma brusca. Por eso, se necesitan anillos de
aceleración de muchos kilómetros para lograr una velocidad elevada sin
superar las limitaciones.
Otra forma de
superarlas sería emplear plasma, una sopa de gas ionizado en la que los
electrones han sido separados de sus núcleos. En 2007, investigadores de las
universidades californianas de Stanford, UCLA y USC mostraron que lanzando
contra este plasma un proyectil formado por electrones estrechamente
empaquetados se provoca una especie de oleaje que crea un campo eléctrico
muy intenso. A lomos de estas olas, los electrones pueden alcanzar energías
muy elevadas en un espacio reducido.
En el nuevo
artículo, el equipo dirigido por Allen Caldwell, del Instituto Max Planck de
Física (Múnich), propuso disparar protones en lugar de electrones. El
motivo: los aceleradores actuales son capaces de lanzar los protones a
energías mucho más elevadas que los electrones. Con este sistema, en una
simulación, los investigadores aceleraron grupos de electrones a 500 GeV en
300 metros. Para alcanzar esa energía, el ILC necesitaría 15 kilómetros. Con
este sistema, el equipo de Caldwell cree que se podría combinar la precisión
de los colisionadores de electrones con la potencia de los que utilizan
protones. Hasta ahora, este tipo de aceleración está en fase teórica, pero
los autores del estudio creen que en un futuro no muy lejano estas ideas
pueden permitir hacer máquinas más pequeñas y más asequibles para la
sociedad.
Uno de los túneles del LHC. U.C.
Las mayores máquinas
que existen
¿Para qué sirve un acelerador de partículas?
Los aceleradores se emplean en muchos campos. En medicina, por ejemplo, se usan
para producir las radiaciones con las que se realizan los tratamientos de
radioterapia. En investigación básica, aceleradores como el LHC lanzan unas
partículas contra otras para provocar choques muy energéticos en los que
aparecen durante un instante partículas desaparecidas hace miles de millones de
años. Es una manera de conocer los mecanismos que rigen las relaciones entre los
componentes de la materia.
¿Cómo funciona un acelerador de plasma?
Se lanza un proyectil de electrones (carga negativa) contra plasma (una sopa de
gas ionizado en la que los electrones han sido separados de sus núcleos). Los
electrones salen repelidos, dejando tras de sí los núcleos. Estos núcleos (carga
positiva) forman una burbuja tras el proyectil de electrones. Los electrones (-)
del plasma expulsados por la bala, se ven atraídos por la burbuja de núcleos (+)
y vuelven hacia su posición inicial. Sin embargo, con la brusquedad del
movimiento acaban en un lugar distinto del de partida. Esta estela de electrones
descolocados crea un campo eléctrico muy intenso y, montados en esta estela, los
electrones pueden alcanzar energías muy elevadas en un espacio reducido.
¿Es mejor lanzar protones que electrones?
Cada tipo de partícula ofrece unas ventajas. Los aceleradores de protones han
permitido alcanzar energías mucho más elevadas. Este tipo de máquinas se emplean
para realizar experimentos de descubrimiento. Los aceleradores de electrones son
menos energéticos, pero mucho más precisos.
Fuente:
publico.es, 8-5-09
-¿Ha despertado el sol de su letargo?
Durante todo el año
2008 y lo que llevamos de 2009, el Sol ha permanecido inusualmente tranquilo e
inactivo. Tanto, que los astrónomos empezaban a preguntarse si tanta quietud no
sería, para nuestra desgracia, la calma que precede a un periodo de actividad
jamás conocido hasta ahora. Desde enero del pasado año, las manchas oscuras que
normalmente salpican la superficie de nuestra estrella (y que no son otra cosa
que zonas temporalmente más frías, causadas por la irrupción a la superficie de
los campos magnéticos internos) desaparecieron casi por completo sin que nadie
acertara a decir cuándo volverían a producirse, ni en qué medida lo harían.
La velocidad y la
intensidad de la próxima «generación» de manchas revelaría a los científicos
cómo de activo será el nuevo ciclo solar que se avecina, y cómo de peligroso,
por lo tanto, para los sistemas de comunicaciones por satélite y redes
eléctricas terrestres. Algo que, por fin, parece que podrá conocerse, ya que
hace apenas unos días, el 6 de mayo, la estrella que ilumina a la Tierra ha
empezado a mostrar síntomas de recuperación. Tal y como muestra el vídeo,
obtenido por los instrumentos de la misión
STEREO, de
la NASA, ese día se produjo una violenta
erupción, lo que podría ser la señal del esperado comienzo del nuevo ciclo
solar.
Normalmente, el número de
manchas solares varía cíclicamente (desde un mínimo hasta un máximo y vuelta
a empezar) en periodos que se suceden cada once años, el mismo tiempo que tardan
los polos magnéticos de la estrella en invertir su dirección. En los momentos de
máxima actividad, es fácil que se produzcan varias docenas de manchas al día.
Y si bien es cierto que ahora estamos al final del ciclo actual, y en el periodo
de menor intensidad, la total ausencia de manchas (como se puede observar en la
imagen del satélite
SOHO,
tomada el pasado 31 de marzo) sugería un «parón» que no es en absoluto habitual.
Según las observaciones realizadas por la NASA, no se han observado manchas
solares (ninguna) en 266 de los 366 días del año 2008, algo que no sucedía desde
1913. Pero la cosa ha ido incluso a peor durante los primeros meses de este año,
con una disminución todavía mayor de las manchas solares. Hasta el pasado 31 de
marzo, no se había observado ninguna en 78 de los 90 días que iban de año.
Por eso precisamente la erupción detectada el 6 de mayo tiene tanta
importancia. "Este es el mayor suceso que hemos podido observar en el sol
en más de un año", aseguraba ayer Michael Kaiser, investigador de la
división de heliofísica del
centro
espacial Goddard, de la NASA. "¿Significa esto que se ha terminado el
mínimo, o no? -se preguntaba el científico-. Ha sido un mínimo solar muy
largo, el más largo y profundo de los últimos cien años".
De la misma forma en que los terremotos pueden provocar, aquí en la
Tierra, enormes tsunamis en el mar, una eyección de masa coronal, o
erupción solar, puede causar un "tsunami" en la superficie de la estrella.
Las ondas generadas por las violentas erupciones pueden desplazarse a
velocidades que se cifran en millones de kilómetros por hora. La energía
liberada durante el evento registrado por Stereo equivale, según los
investigadores de la misión, "a dos mil millones de veces el consumo anual
de energía en todo el mundo". Y todo en apenas una fracción de segundo. La
última vez que se registró un "tsunami" solar fue hace más de una década,
gracias a los instrumentos de la sonda SOHO.
¿Normal o anormal?
La cuestión, ahora, está en averiguar si se trata de una oscilación normal,
aunque más marcada, de la actividad solar, si nos encontramos ante alguna
especie de «anemia estelar» cuya duración desconocemos o si, por el contrario,
la tranquilidad actual recién interrumpida anuncia que el nuevo ciclo de once
años (que debería estar comenzando ya) será extremadamente violento. Y hay
respuestas y teorías para todos los gustos.
Por un lado, algunos especialistas predicen que los próximos once años serán
«relativamente tranquilos». Aunque, según ha asegurado a la revista «New
Scientist» el «cazador de manchas» Leif Svalgaard, de la Universidad de
Standford, los expertos están esperando a ver el ritmo al que se producen las
manchas cuando éstas por fin reaparezcan. Cuanto mayor sea este ritmo, más
activo estará el Sol durante la próxima década y mayores, y más intensas,
serán las tormentas solares. «Los nuevos ciclos —ha dicho Svalgaard— empiezan
con un disparo. Un mes no hay nada, y al siguiente las manchas están por todas
partes». Y el "disparo" podría acabar de producirse con la erupción de hace
unos días.
Los que apuestan por un futuro tranquilo se basan en una teoría que sugiere
que los campos magnéticos que se hunden en el Sol cerca de sus polos viajan
relativamente rápido bajo la superficie, donde se producen las manchas. Y si
las observaciones muestran, como es el caso, poca actividad magnética, eso
significa que el siguiente ciclo solar no tendrá nada de especial. Otros, sin
embargo, creen que los campos magnéticos viajan durante décadas por el
interior del Sol antes de volver a salir a la superficie, creando las
conocidas manchas. Y estos especialistas predicen que una oleada inusualmente
fuerte de actividad está a punto de desencadenarse.
Si así fuera, sería un auténtico golpe para nuestra comprensión actual de la
mecánica solar. Además de una larga década de violentas tormentas de
partículas que pondrían en jaque el desarrollo tecnológico de nuestra
civilización. Por ahora, sólo queda seguir mirando y esperar. Sólo cuando
suceda lo que ha de suceder, sabremos a qué atenernos.
Fuente: abc.es, 8-5-09
-¿El primer
buscador inteligente?
Para que Google nos de información
concreta sobre algo tenemos que cambiar la forma en la que nos expresamos. La
sintaxis humana no es válida para el buscador; hay que obviar artículos, ir al
grano y no usar expresiones comunes ni frases hechas. Pero esta forma de buscar
en Internet podría tener los días contados; una nueva herramienta asegura ser
capaz de comprender e interpretar correctamente preguntas simples, concretas, y
hechas a la manera de las personas.
El sistema Wolfram Alpha, presentado
hace unos días en la universidad de Harvard, promete muchas cosas. Sus
inventores afirman que es capaz de interpretar preguntas como ¿Cuánta altura
tiene el monte Everest?, y dar respuestas concretas (la cantidad de metros en
este caso). Algunos medios, como el rotativo inglés
The Independent aseguran que es "el invento que cambiará Internet
para siempre".
Algunos lo llaman ya "el asesino de
goolge", otros "la nueva wikipedia"; no está todavía muy claro qué es
exactamente. Su inventor, el físico británico Stephen Wolfram, lo define como un
"motor de inteligencia computacional". No son pocos los que lo califican de
revolucionario. "¿Cuáles podrían ser las implicaciones? ¿Podría ser el comienzo
de la inteligencia artificial o un paso hacia una red auto-organizada?", ha
afirmado el experto en nuevas tecnologías Tom Simpson a The Independent.
Capaz de cruzar datos
Según sus inventores lo realmente
revolucionario de Wolfram Alpha es su capacidad para cruzar datos de forma
inteligente. Por ejemplo, el buscador podrá comparar la altura del Everest con
la longitud del acueducto de Segovia, o podrá señalar en grados centígrados cual
era la temperatura en Londres el día que asesinaron a J. F Kennedy. Sería capaz
de señalar cuándo será el próximo eclipse solar o de indicar la posición exacta
de la Estación Espacial Internacional.
Pero los escépticos ven en este nuevo
invento una posibilidad más de propaganda. "¿Si le preguntamos sobre la guerra
de Irak dirá que es 'una guerra basada en supuestos falsos que llevó a EE UU a
la bancarrota' o por el contrario 'una campaña necesaria para luchar contra el
terrorismo y construir un mundo más seguro?", se pregunta Alex Jones, de la web
política Prison Planet. Se espera que a finales de este mes, momento en el que
Wolfram Alpha estará disponible para el público, estas preguntas queden
contestadas.
Fuente:
elpais.com, 7-5-09
-Secretos del 'hobbit' de Flores, de la cabeza a los pies
Desde que se encontraran los
fósiles de un homínido enano en la isla de Flores (Indonesia), en 2004, no ha
cejado la polémica científica que rodea su existencia. Ahora, dos nuevos
trabajos científicos desvelan algunos de los misterios que más polvareda han
levantado.
Por un lado, investigadores del
Museo de Historia Natural de Londres han descubierto que el proceso de
enanismo del cerebro del 'Homo floresiensis' se ha dado en otras especies,
como los hipopótamos de Madagascar.
Y por otro, un
equipo internacional, dirigido por el antropólogo de Nueva York William
Jungers, ha revelado que el antepasado de este pequeño homínido
debía ser más primitivo que un 'Homo erectus', el único ancestro
humano encontrado en Asia hasta ahora.
Los británicos
Eleanor Weston y Adrian M. Lister se centraron en el estudio de
fósiles de extintos hipopótamos enanos de Madagascar. ¿Por qué?
Porque son un ejemplo de cómo el aislamiento afecta a una disminución en
el tamaño de una especie, como se supone que pasó con el 'hobbit' de
Flores, un homínido que tenía un cerebro de 417 centímetros cúbicos (como
un chimpancé) en un cuerpo de 30 kilos.
Los escépticos
más serios han asegurado que esa relación de volúmenes era imposible en la
escala habitual. Para ese peso, el cerebro debería de haber sido
no menor de los 1.100 centímetros cúbicos.
Weston eligió
Madagascar porque la isla se separó del continente hace millones de años.
En ese aislamiento, surgieron tres especies pigmeas de hipopótamos de un
ancestro común de la tierra continental, sobre los cuales
estudiaron la relación entre el tamaño de sus cerebros y sus cuerpos.
Querían
demostrar que el proceso de enanismo típico de las islas también afecta al
cerebro, y así lo hacen en el estudio publicado en 'Nature'. "Es un
mecanismo que da ventajas a los animales que viven aislados y, por tanto,
con recursos limitados. Y también se produce en el cerebro, que es un
órgano que quema mucha energía. Hemos visto que en los hipopótamos
extintos este cerebro era hasta un 30% más pequeño de lo que se
podía esperar de la escala, según su ancestro común continental.
Y lo mismo puede aplicarse a un 'Homo floresiensis', en relación con su
ancestro, el Homo erectus", señala Weston.
El trabajo de
Jungers se centra en un pie izquierdo y parte de un pie derecho de un
ejemplar del hobbit (el LB1) encontrado en 2004. Y descubre que
sus pies eran más largos que en los humanos modernos y el 'H. erectus',
más parecidos a los de los primitivos Australopitecus.
Pie del fósil de 'Homo floresiensis' hallado en 2004 en la
isla de Flores. /Jungers
Les permitían caminar, pero
haciendo un esfuerzo de torsión complementario, como recuerda el
paleoantropólogo Daniel E. Liberman. Por ello creen que el ancestro del 'H.
floresiensis' era una especie más primitiva que el 'H. erectus'.
Fuente: elmundo.es, 7-5-09
-El "Hubble"
se pone al día
El telescopio más famoso de la historia, el Hubble, está a punto de
ser sometido a cirugía mayor. Si todo sale bien, a finales de mes estará
renovado y en condiciones de seguir ofreciendo sus magníficas prestaciones a los
astrónomos, posiblemente durante cuatro o cinco años más. La cirugía en
órbita no es sólo de mejora, con la instalación de dos cámaras de última
generación y la reparación de dos de las existentes, sino que también es
necesaria porque el observatorio sufre averías graves. Esta será la quinta y
última visita de los astronautas al Hubble, que se desplegó en órbita el
25 de abril de 1990.
El lanzamiento del transbordador Atlantis, con los
siete astronautas encargados de poner a punto el telescopio, está programado
para el próximo lunes. La misión se inicia con varios meses de retraso
debido a una avería importante inesperada de la unidad de control del
telescopio, el pasado septiembre, cuando el Atlantis estaba a punto
de partir. La NASA decidió incorporar la reparación de este sistema en el
plan de vuelo y, como hacía falta una preparación específica, lo aplazó. En
realidad esta misión se diseñó hace años, pero se canceló cuando, tras el
accidente del transbordador Columbia, en 2003, se consideró que el
viaje al telescopio era demasiado peligroso. Finalmente, se volvió a incluir
en el calendario, tomando medidas de seguridad especiales.
El Hubble
escudriña prácticamente todo el cosmos. Ve galaxias que están a 12.000
millones de años luz de distancia, ha permitido establecer la edad del
universo en unos 13.700 millones de años, ha contribuido a descubrir la
misteriosa e inesperada energía oscura, etcétera. Su lista de logros es
inmensa, y ha marcado toda una época en la historia de la astronomía. La
NASA destaca, con orgullo, que tener el telescopio espacial mirando a un
objeto celeste lejano es como mantener un rayo láser apuntado a una moneda
situada a más de 300 kilómetros.
La verdad es que el Hubble dio un serio disgusto a los astrónomos,
a la NASA y a la Agencia Europea del Espacio (socia del programa) cuando se
descubrió que se había puesto en órbita con un espejo defectuoso. Pero desde
1993, cuando se corrigió en la primera misión de mantenimiento, ha dado una
satisfacción detrás de otra.
Miembros de la tripulación observan la
carga
para la misión en la bodega del Atlantis.-
NASA / KIM SHIFLETT
Ahora la tripulación del Atlantis tiene el objetivo y
la responsabilidad de hacer que siga siendo una máquina clave de la astronomía
mundial, dado que su utilización y los datos que obtiene son accesibles para
toda la comunidad científica internacional (aunque para obtener tiempo de
observación, por supuesto, hay que pasar una rigurosa evaluación).
Los astronautas tienen un duro plan de trabajo por delante.
En 11 días tienen que llegar al Hubble, agarrarlo y fijarlo en la bodega
del Atlantis y empezar las reparaciones. Para algunos de ellos el
telescopio es un viejo conocido, ya que han protagonizado anteriores misiones de
servicio, pero para otros será no sólo la primera vez que vean de cerca el
famoso telescopio sino que su estreno en el espacio.
Uno de los más veteranos es el comandante Scott Altman,
piloto de pruebas de la Marina, de 50 años, con tres misiones espaciales a su
espalda, incluida una al telescopio. El piloto Gregory C. Johnson, los
especialistas de misión Michael Good y Andrew Fuestel, así como la ingeniera
Megan McArthur, son todos ellos los novatos. John Grunsfeld, responsable de los
paseos espaciales y encargado él mismo de realizar tres de ellos, cumple ahora
su cuarto vuelo (dos al Hubble). Por último, Michael Massimino, también
especialista de misión, realiza su segunda misión en el transbordador.
En resumen, cuatro de ellos se encargarán de hacer los cinco
paseos espaciales, dificilísimos, peligrosos, ensayados y medidos hasta la
saciedad. El Hubble, con una masa de 11 toneladas y 13,3 metros de
longitud, está en órbita terrestre a 550 kilómetros de altura.
Cuatro días después de la partida del Atlantis,
empezarán las reparaciones. Lo primero será cambiar la actual cámara de amplio
campo del telescopio por una nueva, más moderna, la WFC-3, de 450 kilos. Además,
los astronautas instalarán un adaptador que permitirá en el futuro enganchar un
módulo robótico al Hubble capaz de impulsarlo y dirigirlo hacia su
destrucción en la atmósfera terrestre o en el océano. También habrá que cambiar
los tres pares de giróscopos que sirven para orientar el telescopio, como unas
baterías, la unidad de control averiada y unas mantas de protección térmica, así
como un sensor que sirve para determinar la posición y movimiento de los astros.
Grunsfeld y Good se encargarán, en el tercer paseo espacial,
de retirar el artilugio instalado en 1993 para corregir la óptica defectuosa y
pondrán en el hueco el segundo instrumento astronómico nuevo, el espectrógrafo
COS. Además, arreglarán el alimentador de otra de las cámaras, estropeada desde
2007. Es una de las operaciones más delicadas de la misión, porque tendrán que
quitar tornillos muy pequeños, nunca diseñados para ser manipulados en un paseo
espacial y, por tanto, difíciles de manejar con los trajes y guantes de
astronauta.
Con las nuevas cámaras y las antiguas reparadas, el Hubble
podrá ver más lejos aún en el universo profundo; observará mejor la evolución de
las galaxias y permitirá conocer las poblaciones estelares; también ayudará a
profundizar en el estudio de la materia oscura y la energía oscura. El COS está
diseñado para estudiar la estructura a gran escala del universo, y la formación
y evolución de galaxias y sistemas planetarios.
Doblete espacial
Dos
transbordadores, el Atlantis y el Endeavour, están listos en
las dos plataformas de lanzamiento de estas naves en la base espacial de
Florida. Es una situación muy rara porque los transbordadores se preparan
de uno en uno para el vuelo, pero la misión del Hubble es
excepcional. Dado que el telescopio está en una órbita distinta de la de
la Estación Espacial Internacional (ISS) y que si se produce una
emergencia los astronautas del Atlantis no podrían refugiarse en
ella, la NASA tiene listo el Endeavour, que partiría al rescate del
primero en caso de necesidad.
Es muy
improbable que vuelvan a estar dos de estas naves listas para despegue a
la vez, ya que la NASA está ultimando sus vuelos y los siete que quedan
irán a la ISS. Los transbordadores dejarán de volar a finales de 2010 y la
NASA incluso ha iniciado esta semana la reducción del personal dedicado a
ellos. Se eliminarán unos 900 puestos.
El plan es
desarrollar el nuevo sistema de transporte espacial, el Constellation,
para 2015 como pronto. El anterior director de la NASA (Obama no ha
nombrado aún al nuevo) dijo que con él se recuperaría el empleo.
Los instrumentos
- Cámara ACS.
Fue instalada en 2002 y en 2007 un fallo electrónico la dejó sin dos de
sus tres canales. Los astronautas intentarán repararlos, especialmente el
más utilizado, con el que se hizo hasta 2007 el 70% de las observaciones
científicas.
- Espectrógrafo
de imagen. Instalado en 1997, dejó de funcionar en 2004 por un fallo en la
fuente de alimentación. Puede analizar muchos puntos de un mismo objeto
simultáneamente. Se intentará su reparación.
- Cámara WFC3.
Nueva, reemplazará a la anterior de gran campo y su característica clave
es poder observar desde el ultravioleta hasta el infrarrojo cercano.
- Espectrógrafo
COS. Nuevo, está diseñado para estudiar la estructura a gran escala del
universo. Determina en cualquier objeto su temperatura, densidad,
composición química y velocidad.
Comentarios en el programa de
Onda Cero "La Rosa de los Vientos":
Fuente: elpais.com,
6-5-09
-La sonda
Messenger detecta un inmenso cráter en Mercurio
La sonda
Messenger de la
NASA
ha detectado un inmenso cráter en Mercurio que tiene un diámetro de
alrededor de 750 kilómetros. Los expertos de la agencia
espacial creen que la cuenca, bautizada con el nombre de 'Rembrandt', es
la huella dejada por el impacto de un objeto externo, probablemente un
asteroide, hace aproximadamente 4.000 millones de años.
"Este cráter se
formó durante un período de intenso bombardeo proveniente de las
entrañas del Sistema Solar", explica Thomas Watters, científico
de la Institución Smithsonian en Washington. "Pero, aunque es muy antigua,
la cuenca 'Rembrandt' es más joven que otras que se han detectado en la
superficie de Mercurio", añadió Watters.
Además, la nave
Messenger también ha desvelado una actividad atmosférica en Mercurio mayor
de lo que se creía hasta ahora. En esa actividad, existe una
interacción entre esa atmósfera y el campo magnético del planeta,
según indicó la NASA en un comunicado.
La sonda se
aproximó por segunda vez a Mercurio el 6 de octubre del año pasado y
transmitió más de 1.200 imágenes a color y en alta resolución.
Messenger también reunió información sobre una tercera parte del planeta
que hasta ahora no había sido explorada por ninguna nave.
"Esta segunda
aproximación a Mercurio realizó varios descubrimientos",
señaló Sean Solomon, científico encargado de las tareas de la cápsula en
la Institución Carnegie, en Washington.
El cráter 'Rembrandt' de Mercurio, captado por la nave
'Messenger'. | NASA
Estudio cartográfico
"Una de las mayores
sorpresas fue constatar la gran dinámica que existe en la
interacción del campo magnético y los vientos solares", agregó. La primera
aproximación de Messenger a Mercurio se realizó en enero de 2008.
La sonda también
confirmó la presencia de magnesio en la tenue atmósfera de
Mercurio. Según la NASA, ya existían indicios de ese elemento en la atmósfera
del planeta, pero no se sabía que pudiera ser un componente importante de los
materiales de su superficie.
"Este es un ejemplo
de los descubrimientos que el equipo científico tendrá que estudiar para
enseñarnos una nueva visión sobre la formación y evolución del planeta",
dijo William McClintock, autor de unos de los estudios sobre Mercurio y la
sonda Messenger publicados hoy en la revista
Science.
Para el mundo
científico cada dato sobre Mercurio es un descubrimiento
porque hasta hace poco más de un año era muy poco lo que se sabía sobre el
planeta. Pero las imágenes en alta resolución y la información transmitida por
Messenger han permitido conocer alrededor de un 90% de la superficie de
Mercurio, según los científicos.
"Después de hacer
un estudio cartográfico, vemos que aproximadamente un 40% de la superficie
consiste en llanuras, muchas de ellas de origen volcánico",
indicó Brett Denevi, científico de la Universidad estatal de Arizona.
Messenger
continuará recogiendo información sobre Mercurio cuando realice su tercera
aproximación al planeta en marzo de 2011, señaló Solomon.
Fuente: elmundo.es, 5-6-09
-En busca del cerebro artificial
Siguiendo la senda marcada por Santiago Ramón y Cajal, que
revolucionó la neurología hace más de un siglo con sus descripciones de las
neuronas y la forma en que están interconectadas, científicos de una decena de
países, entre ellos España, han decidido unir sus fuerzas para diseñar la
réplica funcional del cerebro más perfecta realizada hasta ahora. Armados con
algunos de los ordenadores más potentes del mundo, y con microscopios
electrónicos de última generación, los investigadores se han propuesto
desentrañar la inmensa complejidad del cerebro humano para contar con un
simulador que permita, dentro de una década, experimentar el efecto de nuevos
fármacos contra enfermedades como el alzhéimer, la esquizofrenia, la depresión o
incluso el tumor cerebral.
El proyecto, denominado Blue Brain [Cerebro Azul], empezó a
rodar en 2005 de la mano del Centro de Neurociencia y Tecnología de la Escuela
Politécnica de Lausana (Suiza) y la empresa informática IBM, aunque ahora
afronta su fase decisiva, que se prolongará durante la próxima década y contará
con participación internacional. España, que es es el único país aparte de Suiza
que se ha sumado a esta investigación de forma institucional, ha decidido
aportar 25 millones de euros al proyecto. En él colaboran una docena de grupos
de investigación, que trabajarán conjuntamente en una doble dirección. Un primer
brazo, dirigido por Javier de Felipe, del Instituto Cajal del CSIC, utilizará un
nuevo tipo de microscopio electrónico, hasta ahora usado sólo en nanotecnología,
para reconstruir los circuitos sinápticos (sistemas de interconexión entre
neuronas). "El problema", explica De Felipe, "es la enorme complejidad del
análisis, ya que una sinapsis tiene un diámetro de media milésima de milímetro y
una sola neurona, aunque forme pocas sinapsis, puede recibir incluso 100.000 de
estos enlaces".
"Una revolución"
Sin embargo, gracias al nuevo microscopio, llamado Cross Beam
y desarrollado por Zeiss, se puede analizar en días lo que antes costaba años.
"Ya tenemos resultados preliminares estupendos; esto va a representar una
verdadera revolución en el conocimiento de la estructura del cerebro", añade el
investigador. El microscopio puede analizar franjas de tejido neuronal de sólo
20 nanometros de grosor, permitiendo realizar reconstrucciones tridimensionales
de las neuronas y las sinapsis nunca vistas hasta ahora. Al principio los
investigadores trabajarán con tejidos de animales como ratas y ratones, para ir
pasando a especies más complejas como gatos o primates antes de investigar las
muestras humanas. El análisis se centrará en las columnas corticales, las
unidades básicas de funcionamiento de la corteza cerebral en mamíferos.
Una vez obtenidos los datos entran en juego los
integrantes del segundo eje del estudio, encabezados por José María Peña,
profesor de la Facultad de Informática de la Universidad Politécnica de
Madrid. Con ayuda del segundo ordenador más potente de España, Magerit,
capaz de hacer 16 millones de operaciones por segundo, los científicos
procesarán la ingente cantidad de datos a través de un software que
constituye el verdadero esqueleto del sistema de simulación. "El software
permite reconstruir el volumen de tejido neuronal, así como refinar y
alimentar el proceso de simulación y ver qué conexiones tienen las neuronas
y cuál es su densidad en determinado tipo de estructura", señala Peña, que
sostiene que estas herramientas permitirán una "industrialización del
proceso de toma de datos en el campo de la neurología". "Una vez que
tengamos el modelo de simulación", añade Peña, "podremos, por ejemplo, ver
qué efecto ha tenido determinado fármaco en el cerebro, qué neuronas se han
activado, con qué frecuencia y en función de qué patrones".
El superordenador suizo
Los españoles trabajarán mano a mano con sus colegas de
otros países y, sobre todo, con el equipo suizo que lidera el Blue Brain a
nivel mundial. Este grupo, encabezado por el profesor Henry Markram, que
participó ayer en Madrid en la presentación del proyecto, cuenta desde el
principio con la ayuda del ordenador de IBM Blue Gene, uno de los más
potentes del mundo, con capacidad para realizar casi 23.000 millones de
operaciones por segundo.
Sin embargo, este superordenador, que trabajará
junto con el Magerit de la Politécnica de Madrid, no será suficiente para
culminar el proyecto. "En dos o tres años habrá que cambiar de ordenador en
Lausana y saltar a la siguiente generación de Blue Gene. Creemos que antes
de concluir esta investigación harán falta dos o tres generaciones de Blue
Gene y un tercer salto a una arquitectura completamente diferente; un
ordenador que hoy aún no se ha podido desarrollar", señala Peña.
Simulador de neuronas. EPFL
El modelo Genoma Humano
Según el rector de la UPM, Javier Uceda, la participación
española en el proyecto se materializará gracias a la aportación de un fondo de
25 millones de euros por parte del Ministerio de Ciencia e Innovación. Tal como
señala Peña, se trata de un crédito sin interés que la UPM podrá devolver en
diez años gracias a la tecnología que generará el propio proyecto, de forma
similar a lo que ocurrió con el proyecto Genoma Humano. "Habrá tecnología
patentada para desarrollar investigación y ensayos clínicos, como ha ocurrido
con el proyecto Genoma y la secuenciación del ADN; llegará a ser una herramienta
clínica de uso generalizado", dijo.
Por su parte, el presidente del CSIC, Rafael Rodrigo, destacó
que el proyecto reúne todas los tópicos de la buena investigación, ya que es
ambicioso, multidisciplinar, cooperativo y tiene carácter internacional.
La reconstrucción
del universo de las neuronas
22,8 teraflops
El principal ordenador del proyecto, el Blue Gene de IBM, ubicado en Lausana
(Suiza), tiene una velocidad de procesamiento de 22,8 teraflops, lo que
equivale a 22.800 millones de operaciones por segundo. Este ordenador
trabajará de forma coordinada con Magerit, el segundo ordenador más potente de
España, que alcanza los 16 teraflops.
20 nanómetros
El grosor de las láminas de tejido que es capaz de analizar el microscopio
Cross Beam es de 20 nanómetros. De él se servirán los investigadores del Cajal
Blue Brain (la parte española del proyecto internacional) para recopilar datos
sobre las neuronas y las sinapsis.
4 milímetros
Grosor de la corteza cerebral, gracias a la cual los seres humanos desarrollan
las funciones cerebrales superiores como el aprendizaje o la memoria. Contiene
miles de millones de neuronas.
60.000 neuronas
Las neuronas de la corteza cerebral se agrupan en las llamadas columnas
corticales, unidades básicas de tejido en las que se van a centrar los
investigadores del Blue Brain. En el caso de los seres humanos, cada columna
alberga unas 60.000 neuronas.
100.000 sinapsis
Una neurona no forma muchas sinapsis (alrededor de un millar) pero puede
recibir muchas más, incluso hasta 100.000 de estos enlaces.
Fuente: publico.es, 5-5-09
-Las otras "gripes porcinas"
El año pasado, un virus arrasó las granjas de ganado porcino
en todo el mundo. El microbio enloqueció a cientos de miles de cerdos en los
cinco continentes, y muchos de ellos se lanzaron a morder a las personas de su
entorno. El virus, fuera de control, también afectaba al ser humano. Los
mordidos por los puercos comenzaron a tener náuseas y vomitar a los pocos días.
Caminaban desorientados y a menudo se derrumbaban entre convulsiones y
alucinaciones. El virus era letal para ellos. Y no existía ningún tratamiento.
Sólo en 2008, 55.000 personas, atacadas por los cerdos, murieron en todo el
planeta.
Parece un guión mediocre de una película apocalíptica, estilo
Estallido, pero esta secuencia es verídica. Y ningún periódico del
mundo la reflejó en su portada. La única mentira es que los animales asesinos no
eran cerdos, sino perros. La misteriosa enfermedad, causada por un virus mucho
más virulento que la actual gripe porcina, era la rabia.
Esta dolencia es una de las zoonosis -enfermedades de los
animales que se transmiten a los humanos- olvidadas que más preocupan a la
Organización Mundial de la Salud (OMS). Pero hay muchas más. La mera comparación
de sus consecuencias con las de las enfermedades de moda es
sorprendente. La gripe aviar, que desató la histeria en el mundo occidental en
2006, ha matado desde entonces a 120 personas en el país más afectado,
Indonesia. La cisticercosis, producida por un gusano y transmitida a los humanos
a través de la carne de cerdo, afecta a 50 millones de personas en el planeta y
cada año provoca la muerte de unas 50.000.
La enfermedad de Creutzfeldt-Jakob, la famosa variante humana
del mal de las vacas locas, ha provocado la muerte de unas 200 personas
desde su descubrimiento en Reino Unido en la década de 1980. El alarmismo
inyectado en la sociedad por los medios de comunicación provocó, sólo en España
y en 2001, unas pérdidas de 140.000 millones de pesetas para el sector ganadero.
Este exceso de información contrasta con el tratamiento que se da en la prensa a
enfermedades como la leishmaniasis, considerada todavía por muchos españoles
como un problema exclusivo de los perros. En la actualidad, 12 millones de
personas están infectadas por este protozoo parásito. Y 70.000 mueren cada año
en el mundo por la forma visceral de la enfermedad.
Todas estas pestes zoonóticas persistentes, que afectan a
millones de personas, son sepultadas cada año por supuestas pandemias de origen
animal que amenazan con acabar con el planeta. Ocurrió con la enfermedad de
Creutzfeldt-Jakob y volvió a pasar con la gripe aviar. Ahora podría estar
sucediendo lo mismo con la gripe porcina. La excusa oficial es que las zoonosis
clásicas, como la rabia, no son noticia porque se conocen desde hace siglos.
Pero la realidad es que zoonosis como la propia rabia, la cisticercosis y la
hidatidosis "están reemergiendo en algunas regiones, aunque atraigan menor
atención pública", según la OMS.
Para algunos expertos, parte de la indiferencia hacia las
zoonosis persistentes es culpa de la propia OMS. Incluso para los que están
dentro de este organismo. El coordinador del programa contra las enfermedades de
origen animal de la OMS, François Meslin, hace autocrítica. "El número de casos
es mucho mayor en estas enfermedades olvidadas que en las que salen en las
portadas", explica a Público. "El término enfermedades de moda
no es correcto del todo, pero es cierto que el peso sanitario de trastornos como
la gripe aviar es mucho más débil", añade. Para Meslin, es lógico que la OMS
preste una atención particular a patologías emergentes, como la gripe porcina,
"pero no es lógico que se haga en detrimento de otras patologías". "El dinero
que tiene la OMS es limitado. Nos interesamos por unas enfermedades y olvidamos
otras. Desafortunadamente, es así", admite.
Al biólogo Mariano Esteban, del Centro Nacional de
Biotecnología (CSIC), este vaivén de los fondos para investigación le crea
"frustración". Su equipo ha dado pasos importantes en el conocimiento de los
tejemanejes moleculares de la leishmaniasis, en busca de una vacuna para la
enfermedad. Pero no encuentra financiación con facilidad, pese a que está en
juego la salud de 12 millones de personas. "Los titulares de la prensa deciden
una parte de los fondos para investigación. Cuando hay problemas, como ahora,
los políticos pierden el trasero por buscar expertos. Y así no se hacen las
cosas", critica.
Un círculo vicioso
Frente a la improvisación, Esteban propone la creación de
áreas estratégicas en las políticas científicas, con presupuestos intocables y
garantizados a largo plazo. Sugiere, en suma, que se investigue con el criterio
de los científicos, no con el de los políticos. "Cuando hay una alarma social,
como ocurrió con la gripe aviar, o ahora con la porcina, los políticos se lanzan
a comprar millones de dosis de Tamiflu, sacando el dinero de otros programas.
Son medidas políticas, no científicas. Por eso necesitamos áreas estratégicas",
clama. El laboratorio Roche ha vendido, en los últimos cinco años, en plena
histeria por el virus de la gripe aviar, 220 millones de dosis del antiviral
Tamiflu, eficaz también contra la gripe porcina.
Para la viróloga Amelia Nieto, del Centro de Investigación en
Red de Enfermedades Respiratorias, se ha creado un círculo vicioso. "Cuando pase
la gripe porcina, como ocurrió con la aviar, nos quedaremos con un stock
enorme de antivirales. Mientras, otras enfermedades apenas tienen fondos", se
lamenta. Nieto estudia las interacciones entre el virus de la gripe y las
células infectadas, y hace el mismo trabajo con o sin pandemia. "La gripe es
igual de peligrosa ahora que antes del anterior brote. Pero incluso la UE se
rige por las modas para financiar sus proyectos", denuncia.
A juicio del catedrático de Sanidad Animal José Manuel
Sánchez-Vizcaíno, de la Universidad Complutense de Madrid, la culpa es de la
prensa. Imaginemos, dice, que los periódicos se dedicaran cada mañana a informar
en sus portadas de los 3.000 muertos que causan cada año las variantes
habituales de la gripe en España. A su juicio, con esta sobredosis de alarmismo
los españoles irían por la calle con mascarilla. Todo el año.
"Es lícitio alertar, pero no alarmar. Sin embargo, el negocio
de la prensa es vender, y sabe que el miedo vende. La prensa ha encontrado un
filón, pero acabará agotándolo", pronostica Sánchez-Vizcaíno. "Cuando de verdad
venga el lobo, no se lo creerá nadie. La gente se pregunta dónde están los miles
de muertos que se calculaban para el mal de las vacas locas, para la
gripe aviar, para la porcina. Mientras tanto, se frena el estudio de
enfermedades que están matando muchísimo", señala.
Otro ejemplo. La brucelosis, una enfermedad bacteriana
incapacitante, afecta a decenas de miles de personas en todo el mundo. En
España, se registraron 263 casos en 2007, la mayor parte por consumir queso
fresco. Sin embargo, no existe un tratamiento eficaz para esta patología. "La
brucelosis no es un problema para los países sajones, por eso se ha dejado de
lado", explica Joaquín Goyache, decano de la Facultad de Veterinaria de Madrid.
"Estamos gastando ingentes cantidades en enfermedades de moda, sin tener causas
reales de preocupación, mientras olvidamos otras que matan, pero matan donde no
nos importa".
Fuente: publico.es, 2-6-09
-El colisionador de hadrones volverá a
estar en marcha en otoño
Científicos de la Organización Europea para la
Investigación Nuclear (CERN)
han
instalado el último imán de repuesto, y número 53, del
Gran Colisionador de Hadrones (LHC). Este se ha bajado al túnel del
acelerador, marcando el final del proceso de reparación en superficie tras el
incidente de septiembre del año pasado, razón por la que se tuvo que parar la
instalación, según ha recogido el Servicio de Información y Noticias
Científicas (SINC).
Así, los imanes se conectarán entre sí bajo tierra junto
con los nuevos sistemas instalados para prevenir que incidentes similares
vuelvan a ocurrir. Según ha anunciado el CERN, está previsto que el LHC vuelva
a empezar el próximo otoño y que funcione de forma continuada hasta que se
hayan acumulado suficientes datos como para anunciar los primeros resultados.
«Este es un hito importante en el proceso de reparación.
Nos acerca a donde estábamos antes del incidente, y nos permite concentrar el
esfuerzo en la instalación de sistemas de prevención para evitar que un
incidente similar pueda ocurrir», explica el director del grupo de
aceleradores y tecnologías del CERN, Steve Myers.
El último imán, un cuádruplo diseñado para focalizar el
haz, se bajó esta tarde y comenzó su viaje hacia el Sector 3-4, la escena del
incidente de septiembre. Con todos los imanes ahora bajo tierra , el trabajo
en el túnel se centrará en la conexión de los imanes juntos y en la
instalación de los nuevos sistemas de seguridad, mientras que en la
superficie, los equipos de trabajo se concentrarán en la reposición del
suministro de imanes de recambio para el LHC.
En total, se retiraron 53 imanes del Sector 3-4. De ellos,
16 tenían daños mínimos, por lo que se repararon y se volvieron a instalar en
el túnel. Los 37 restantes fueron sustituidos por piezas de repuesto y serán a
su vez reparados para tener recambios en el futuro. El último imán
«Ahora vamos a dividir a nuestros equipos en dos partes. El
primer grupo llevará a cabo las interconexiones en el túnel, mientras que el
segundo se encargará de reconstruir nuestro almacén de imanes de recambio», ha
señalado el jefe adjunto del Departamento de Tecnologías del CERN, Lucio Rossi.
El proceso de reparación del LHC se puede explicar en tres
etapas. En primer lugar, la reparación en sí, que está a punto de concluir con
la instalación del último imán hoy. En segundo lugar, se están instalando
sistemas para vigilar de cerca el LHC y asegurarse de que incidentes similares
a los de septiembre del año pasado no vuelvan a ocurrir. Este trabajo
continuará durante el verano.
Por último, se están instalando válvulas de presión
adicionales para liberar el helio de una forma segura y controlada en caso de
que se produjeran fugas dentro del criostato del LHC a lo largo de los 15 a 20
años en los que el LHC estará funcionando.