"El fracaso no es una opción". Esta afirmación, del histórico director de
vuelo del programa espacial Apolo, Eugene
Kranz, se convirtió en una seña de identidad de la agencia espacial más famosa
del mundo. Hoy, pese los intentos propagandísticos de su director, Charles
Bolden, la imagen de la NASA queda lejos
de la de aquellos años de gloria. La incertidumbre en los programas de
exploración espacial, sin un plan claro de cara a los próximos años, también ha
alcanzado a uno de los departamentos históricos de la agencia, la división de
astrofísica, que ha sufrido un drástico recorte
presupuestario y cuyos principales proyectos no tienen claro su futuro.
A principios de este mes tuvo lugar la reunión de la comisión consultiva de
la NASA. Un panel de expertos de diversas instituciones en el que se discutieron
las estrategias a seguir dentro de la
división de ciencia. En dicha reunión, el director de la división, Jon Morse,
aseguró que la NASA seguiría "apostando fuerte por la ciencia", aunque reconoció
que se había producido un "cambio en las prioridades". Con esta afirmación,
Morse no hacía más que confirmar lo evidente, la astrofísica pasaba a un segundo
plano dentro de la agencia.
La astrofísica pierde interés
La situación en la que se encuentran los astrofísicos de la NASA queda
retratada en la propuesta de financiación
presentada ante la Administración del presidente de EEUU, Barack Obama, donde la
pérdida de peso de los proyectos relacionados con la astrofísica se ha hecho
evidente. La reducción de presupuesto de la división ha sido tal más de un 50%
con respecto a 2008 que en apenas tres años ha pasado de ser el buque insignia
de la investigación de la NASA a ser uno de los departamentos con menor
financiación. "Parece que hemos ido perdiendo
interés para los miembros de la Administración", afirmó apesadumbrado el
astrofísico del Carnegie Institution for Science, Alan Boss, que presidió la
comisión consultiva de principios de mes.
Entre los motivos que pueden haber llevado al Gobierno a disminuir la
financiación de los proyectos de astrofísica, además de los ajustes
presupuestarios debidos a la crisis económica, está el creciente interés en
otras divisiones como la de ciencias de la Tierra, que ha ganado peso en la
agencia debido a la importancia, cada vez mayor, que la Administración
estadounidense le ha dado a la investigación del cambio climático.
En contraposición a la astrofísica,
esta división verá aumentado su presupuesto en algo más de 400 millones de
dólares. La búsqueda de planetas extrasolares, dentro de la división de
ciencias planetarias, se ha convertido en un tema prioritario durante los
últimos años, aunque su presupuesto también será reducido. Para Boss, la
importancia de esta división radica en la "necesidad de encontrar planetas a
los que enviar astronautas", algo que ayudaría a recuperar la imagen de la
NASA.
El gran telescopio espacial
Aunque este importante recorte ha supuesto un duro varapalo para los
astrofísicos, lo peor es la amenaza de cancelación del que será el telescopio
espacial más grande jamás construido, el James Webb (JWST, por
sus siglas en inglés). Sin duda, hablar de astrofísica en la NASA es hablar de
este gran telescopio. El proyecto, en el que también colaboran las agencias
espaciales europea (ESA) y canadiense (CSA), ha sido designado por la Academia
Nacional de Ciencias de EEUU como la misión
espacial más importante de la década. Sin embargo, los problemas
presupuestarios, unidos a una gestión deficiente, han puesto en serias dudas la
continuidad del proyecto.
Ya en octubre de 2010 una comisión independiente criticó los excesos en el
presupuesto y la mala gestión. Los resultados presentados por el grupo de
expertos, publicados en lo que se conoce como Informe Casani, fueron
demoledores y afirmaban que el proyecto sólo podría salir adelante con una
inversión que alcanzara los 4.500 millones de euros, 1.400 más de lo
presupuestado inicialmente. Además, retrasaban una posible fecha de lanzamiento,
planificada para 2014, hasta 2018. El resultado fue el nombramiento de un nuevo
equipo directivo para el proyecto.
Con el nuevo equipo, el gobierno comenzó a plantearse
la viabilidad del proyecto. Los recortes
en el presupuesto de la agencia, unidos al excesivo coste del telescopio
espacial, dejaban a los responsables ante una decisión difícil. Abandonar el
proyecto implicaría perder los más de 2.400 millones de euros ya invertidos,
además de dejar a la agencia sin una de sus misiones estrella. Por otro lado,
continuar con el JWST podría absorber demasiados fondos y hacer
desaparecer proyectos menores por falta de presupuesto, lo que dejaría a la NASA
sin misiones de astrofísica para esta década.
Sin embargo, el Informe Casani ofrecía alternativas para el
desarrollo del JWST. Para la comisión, la importancia del proyecto,
tanto para la NASA como para sus socios internacionales, es tal que debería ser
retirado de la división de astrofísica y
llevar una línea de financiación independiente, de forma que no tenga que
competir con otros proyectos menores de la división. Matt Mountain, director del
Instituto Científico del Telescopio Espacial, centro de operaciones del
Hubble y del futuro JWST, recuerda que esta es una medida habitual
y "fue exactamente lo que sucedió con el Hubble al principio de su
desarrollo", afirma.
Sin embargo, a principios de este mismo mes, el JWST sufrió un nuevo
golpe, el más duro desde que comenzara su desarrollo. El Comité de Asignaciones
del Congreso de EEUU, en vista de los datos publicados por el Informe Casani,
propuso la cancelación total de la misión por "exceder los presupuestos
iniciales" y acusaba a los responsables del proyecto por la "pobre gestión"
realizada.
Aunque para el portavoz de la NASA Trent Perrotto "aún queda un largo camino
hasta que se aprueben definitivamente los presupuestos de 2012",
la decisión del Comité de Asignaciones
ha sido recibida con pesimismo dentro de la comunidad de astrofísicos. Según
Boss, "el mayor problema no es sólo que podamos perder el JWST, es
que se pierdan los 375 millones de dólares (260 millones de euros) anuales
destinados a su desarrollo". Si esos fondos desaparecen, prosigue Boss, "la
NASA no volverá a poner en órbita un telescopio espacial como el Hubble".
Pese a que Perrotto confía en que el proyecto saldrá adelante, reconoce que
la posible cancelación "sería un golpe durísimo para el avance de la
astrofísica". Mountain, por su parte, asegura que la cancelación de este
proyecto representaría "un gran paso atrás para la ciencia básica", pero
recuerda que "lo que está en juego va mucho más allá que un simple
sentimiento de decepción", en
referencia a los esfuerzos internacionales puestos en este proyecto. "El
JWST es la misión número uno para los astrofísicos, tanto estadounidenses
como europeos", afirma Mountain. "Si se cancela, no sólo supondrá el fin del
sueño de EEUU; el dinero invertido por los europeos también será en vano".
'Hubble' contra 'James Webb'
Curiosamente, el hecho de que la misión del telescopio espacial Hubble
siga en funcionamiento 20 años después de su lanzamiento puede jugar en contra
de los intereses de su sucesor. "Mucha gente puede pensar que, si ya tenemos
un telescopio espacial, para qué queremos otro", afirma Boss. La importancia
de este proyecto es "independiente de la actividad del Hubble",
asegura Perrotto, y destaca que "será cien veces más preciso que su predecesor
y llegará a ver lo que ningún otro telescopio espacial puede ver".
Para Boss, los dos telescopios son diferentes y compatibles: "El JWST
observará en infrarrojo, mientras que el Hubble utiliza el rango
óptico, con lo que ambos pueden realizar observaciones que el otro no podrá
hacer". Además, Boss insiste en que, aún en el caso de que se
aprueben los fondos necesarios para
reactivar el JWST, "este no se lanzará hasta 2018 como muy pronto, y
no está claro que el Hubble vaya a aguantar funcionando hasta
entonces".
En esto también coincide Mountain: "Ahora que el programa de
transbordadores ha terminado, no será posible acceder al Hubble y su
vida está limitada a no más de cinco o siete años". Mountain también destaca
que la importancia del JWST supera incluso
las fronteras de la ciencia. "Este telescopio va más allá de la
astrofísica. Al igual que el Hubble ha sido una fuente de inspiración
y de conocimiento que ha trascendido al mundo de la ciencia, el JWST
hará que se reescriban los libros de texto y pasará a formar parte de nuestra
cultura científica".
Aunque se confirmen los pronósticos más optimistas, que pasarían por el
rechazo del Senado a la cancelación del JWST, la reducción de
presupuesto de la división de astrofísica supondrá un cambio importante dentro
de la NASA. De los 12 proyectos llevados a cabo
durante la pasada década, todos activos en la actualidad, la agencia
pasará a tan sólo tres.
Los tiempos de gloria de la agencia espacial parecen haber terminado. La
NASA se enfrenta a una época en la que no será capaz de enviar seres humanos
al espacio. Por si fuera poco, los recortes presupuestarios que amenazan a su
proyecto estrella dejan a la agencia ante la posibilidad de que la división
científica más relevante de su historia quede reducida a una anécdota. Si las
cosas no cambian, la famosa frase de Eugene Kranz se convertirá en un triste
recuerdo.
Fuente: publico.es, 31-7-11
-Los seductores ratones cantarines
Imagine a una estrella de rock y traslade esa imagen al mundo de los
roedores. Un grupo de investigadores de la
Universidad de Florida (EEUU)
ha demostrado que unos ratones tropicales cantarines de la familia de los
cricétidos, también conocidos como 'Scotinomys teguina', cantan para
conquistar a las hembras.
No cabe duda de que su trino puede resultar bastante irritante, al menos
para los humanos. No obstante, para estos machos roedores, se trata de
su arma de seducción más eficaz. Esta es una de las
conclusiones a las que ha llegado este reciente estudio publicado en 'Animal
Behavior' en el que se ha estudiado a más de 100 ratones capturados en Costa
Rica.
Los investigadores quisieron averiguar si los andrógenos, las
hormonas sexuales de los machos, influyen en la calidad del canto de estos
ratones. A algunos les implantaron más hormonas masculinas,
mientras que a otros los castraron. Los machos con más hormonas cantaron con
más rapidez y utilizaron un repertorio de frecuencias más variado que el de
los machos castrados. Lo curioso es que las hembras detectaron la
diferencia.
El papel de los andrógenos
Según los expertos, es posible que los andrógenos influyan en la
musculatura de la mandíbula y en el diafragma, afectando la rapidez
del movimiento de la boca y la respiración. Bret Pasch, el investigador que
ha liderado este estudio, afirma que nunca antes se había estudiado el papel
de estas hormonas en la modulación de las canciones.
Los científicos sugieren que es posible que el canto del macho actúe como
un indicador de calidad genética para las hembras, de tal manera que
el macho cuyo trino es más sonoro indicaría que podría ser un buen padre.
En los humanos también se produce un fenómeno similar. Un estudio de la
Universidad Rutgers demostró que las mujeres asociaban los hombres con mejor
simetría corporal a estabilidad emocional. Alcanzaron esta conclusión tras
fijarse en su forma de bailar.
Bret Pasch explica que lo que define una 'gran actuación' es "con
qué rapidez los machos repiten las notas incluso manteniendo un
amplio campo de frecuencias para cada nota". Además, añade que las hembras
parecen "decantarse por el macho que mejor cante".
Trinar y aplaudir
Sin embargo, el trino de 'Scotinomys teguina' también conoce ciertas
limitaciones biomecánicas. En otras palabras, cuanto más rápido
trine, más bajo será el campo de frecuencias de cada nota. Pasch lo
compara al acto de aplaudir. Cuanto más lento lo hagas, más alto sonará cada
aplauso porque tienes tiempo para separar tus manos generando poder. Si
aplaudes más rápido, ocurrirá lo contrario.
Para concluir que las hembras prefieren a los machos cuyo canto es más
sonoro, los expertos seleccionaron una canción 'normal' de un ratón
y la manipularon electrónicamente para introducir más notas por segundo.
Así crearon una canción que, según sus hipótesis,atraería a las hembras más
que una canción normal.
A posteriori, aislaron a una hembra 'Scotinomys teguina' a la que
hicieron escuchar las grabaciones a través de unos altavoces.
Tuvieron que quedarse boquiabiertos al ver cómo se acercaba al altavoz y se
sentaba frente a él, como si de él fuese a salir un atractivo 'macho
virtual'. El experimento, por lo tanto, confirmó de manera contundente el
papel crucial de las 'serenatas' del macho en la seducción de las roedoras.
Fuente: elmundo.es, 30-7-11
-La invasión que acabó con los neandertales
Los
neandertales vivieron con éxito durante 300.000
años en los entornos subglaciales de la Europa central y occidental. Sin
embargo, hace 40.000 años, desaparecieron repentinamente, dando lugar a
uno de los mayores misterios de la evolución humana.
Entonces, fueron reemplazados por el
Homo sapiens, el hombre moderno, anatómica
y genéticamente diferente, que se estableció en el continente procedente de
África. Ahora, investigadores de la Universidad de Cambridge creen tener la
clave para explicar por qué los neandertales fueron borrados del mapa. Según
su estudio, publicado en la revista
Science,
los humanos modernos invadieron la región de forma masiva hasta alcanzar
diez veces la población de los neandertales ya establecidos.
Simplemente, los avasallaron.
Los científicos, dirigidos por Sir Paul Mellars, profesor de prehistoria y
evolución humana en Cambridge, realizaron un análisis estadístico de las
evidencias arqueológicas de la región de Périgord, en el suroeste de
Francia, que contiene la mayor concentración europea de yacimientos de
neandertales y primeros humanos modernos. De esta forma, encontraron pruebas
claras de que las primeras poblaciones humanas modernas penetraron en la
región en un número al menos diez veces mayor que las comunidades locales de
neandertales. Esto se refleja en un aumento en el número total de sitios
ocupados, con densidades mucho más altas de residuos como herramientas de
piedra o restos de animales de los que se alimentaban. Además, sus áreas de
ocupación más extensas reflejan
grupos sociales más grandes y aparentemente más integrados.
Frente a este aumento espectacular de visitantes, la capacidad de los grupos
neandertales para competir por la misma gama de lugares donde vivir y de
alimentos de origen animal (renos, caballos, bisontes y ciervos) se vio
menguada.
Los conflictos entre las dos poblaciones por ocupar las tierras más ricas
en alimentos se repetían, pero el
mayor número de individuos y su alta capacidad para coordinar actividades
garantizaban el éxito de los humanos modernos.
Más complejos y sofisticados
Los grupos de humanos modernos también poseían
tecnologías y equipos de caza superiores, como lanzas más eficaces y de
largo alcance y eran más eficientes almacenando alimentos de cara al frío
invierno glacial. Que los humanos modernos disponían de
cerebros y capacidades mentales más desarrollados respecto a los
neandertales es aún un debate abierto, pero la repentina aparición de una amplia
gama de formas de arte complejo y sofisticado como las pinturas rupestres, la
producción a gran escala de artículos de decoración (piedra perforada y cuentas
de marfil y de conchas del mar) y los sistemas simbólicos de las marcas en los
huesos y en las herramientas de marfil -todo aspectos que no se habían visto en
los neandertales-, apuntan a
sistemas más elaborados de comunicación social entre grupos de Homo
sapiens, probablemente acompañados de formas
más avanzadas y complejas de la lengua.
Todos estos nuevos patrones de comportamiento, más sofisticados, se
desarrollaron en primer lugar entre las poblaciones de Homo sapiens africanas al
menos entre 20.000 y 30.000 años antes de su dispersión desde África. «Está
claro que esta gama de innovaciones tecnológicas y de comportamiento permitió a
las poblaciones humanas modernas invadir y sobrevivir» a los neandertales,
indica Mellars. Frente a estas competencias,
a los neandertales no les quedó más remedio que retroceder a regiones marginales
y menos atractivas del continente hasta la extinción, que, según el
profesor de Cambridge, quizás pudo haberse acelerado por un deterioro repentino
del clima en todo el continente hace unos 40.000 años.
Fuente: abc.es, 29-7-11
-El Archaeopteryx ya no es el primer pájaro de la historia
El Archaeopteryx fue considerado el primer ancestro de las aves
durante 150 años, pero en realidad solo era más que un dinosaurio con aspecto de
pájaro, según un estudio que se centra ahora en el Xiaotingia zhengi, un
pariente suyo hallado recientemente en China.
El primer espécimen de Archaeopteryx fue descubierto en Baviera en
1861, dos años después de que Darwin publicase el Origen de las especies.
Tenía rasgos propios de las aves como largas patas delanteras con tres dedos,
espolón y plumaje, pero el descubrimiento en China de un nuevo fósil de esta
especie ha hecho que los paleontólogos reconsideren su teoría inicial.
Esta criatura de apenas 800 gramos ha sido bautizada como Xiaotingia
zhengi y, aunque su morfología es muy similar a la del Archaeopteryx,
forma parte de los Deinonicosaurios,una rama paralela de dinosaurios con
plumas, según
recoge la revista Nature en un estudio de Xing Xu,
paleontólogo del Instituto de Paleontología de Vertebrados y Paleoantropología
de Pekín.
Alrededor del fósil se encontraron impresiones de plumas en las rocas pero
los científicos observaron que el animal también tenía garras en los extremos de
sus patas delanteras y dientes afilados. Esto quiere decir que el Xiaotingia
zhengi tiene más similitudes con los dinosaurios Velociraptor y
Microraptor que con las aves (Avialae) y, por lo tanto, pertenece al
grupo de dinosaurios Deinonychosauria. "Quizás ha llegado la hora de
aceptar la idea de que el Archaeopteryx era sólo un pequeño dinosaurio
carnívoro con plumas como los otros, que se paseaba durante el Jurásico" entre
145 y 200 millones de años atrás, estimó Laurence Witmer, paleontólogo de la
Universidad de Ohio en Atenas.
El indicio que hizo decidirse al equipo fue la forma de la cabeza de esta
criatura. Xiaotingia y Archaeopteryx tienen hocicos superficiales
y regiones expandidas tras cuencas de los ojos como el Microraptor
mientras que los Avialae tienen cráneos muy distintos. Sin embargo, el
profesor Xu reconoce que dispone de pocos datos para apoyar su nueva hipótesis
filogenética: "No creo que esta vaya a ser la última palabra sobre el tema. Este
nuevo fósil ha hecho caerse la teoría anterior a pedazos, pero todo es muy
reciente. Lo mejor esser prudentes hasta que aparezcan más pruebas".
Fuente: elpais.com, 28-7-11
-El enigma del bosón de Higgs tendrá
solución el próximo año
Ser o no ser. Esa es la cuestión que los
científicos que trabajan en el LHC resolverán en 2012 sobre la
existencia de la ya mítica partícula de Dios. "Podemos resolver la
pregunta de Shakespeare sobre el bosón de Higgs a finales del próximo año",
afirmó ayer el director general del Laboratorio Europeo de Física de
Partículas (CERN), Rolf Heuer, en la presentación de los resultados
obtenidos durante el último año por el Gran
Colisionador de Hadrones (LHC, por sus siglas en inglés).
La presentación de sus logros, durante el congreso
internacional Europhysics que se celebra en Grenoble (Francia), se realizó
después de que el viernes los dos grupos científicos que pugnan por dar con
el bosón (ATLAS y CMS) aseguraran tener acorralada a esta partícula, tras
haber registrado "intrigantes eventos" físicos que podrían ser "rastros
de una señal del Higgs". Después de un decepcionante falso positivo
del equipo ATLAS el pasado abril, los dos grupos trataron de ser prudentes y
defendieron que harían falta todavía meses de trabajo y muchos más datos
para poder anunciar un positivo.
Ayer, el director general del CERN anunció confiado que
2012 será el año clave de la física, dado que el LHC "está
funcionando extremadamente bien": o se dará con el bosón de Higgs o
se descartará por completo su existencia. Cualquiera de los dos resultados
"sería un descubrimiento", aseguró Heuer, quien reclamó "paciencia". Y
añadió: "Lo sabemos todo sobre el bosón de Higgs, excepto si existe". Si los
investigadores dan con el bosón, quedaría probado el Modelo Estándar, un
corpus teórico que ha funcionado como piedra angular de la física de
partículas durante las últimas décadas.
El origen del universo
Por contra, si descartaran la existencia de esta partícula
los científicos que estudian los cien millones de colisiones de protones que se
producen cada segundo en el LHC, habría que replantear muchas de las teorías que
pretenden explicar la deriva que tomó el universo tras el
Big Bang. Según la formulada por Peter
Higgs hace cinco décadas, el bosón es el motivo por el que determinadas
partículas que componen el universo obtuvieron masa, permitiendo que este tenga
la apariencia y características actuales. Ningún experimento ha logrado probar
esta conjetura.
Curiosamente, dos días después de que llegara el anuncio de
los investigadores del LHC, un portavoz de su rival en EEUU, el Tevatron,
explicaba a la BBC que ellos también estaban cercando al Higgs. "Podría estar
surgiendo una imagen de entre la niebla", aseguró enigmático Stefan Söldner-Rembold,
portavoz del DZero, uno de los dos equipos que tratan de dar con el bosón en el
Tevatron. Söldner-Rembold aseguró que sus indicios estaban llegando de la misma
"zona de búsqueda" que los eventos
registrados por el LHC.
Sin embargo, la revista Nature ponía en duda ayer en
uno de sus blogs esta filtración del Tevatron, asegurando que sus trabajos
estaban lejos de esa "zona de búsqueda". Además, citaba a Rob Roser, jefe del
CDF, grupo rival del DZero, negando que sus contrincantes tuvieran nada.
El Tevatron cerrará sus puertas en septiembre
por falta de financiación, y sus investigadores aprovechan estos meses
para ofrecer resultados impactantes
Fuente: publico.es,
27-7-11
-Nuevas profesiones requieren estar
conectados 24 horas al día
De la habitación privada que pedía Virginia Woolf
se ha pasado al cuarto público de Gran Hermano. La
exhibición sin pudor de la intimidad como un espectáculo en las redes
sociales o la televisión es el mismo fenómeno. Desde el ordenador uno
se conecta al mundo y se muestra a él. Paula Sibilia cree que el abuso de
ficcionalizarlo todo ha creado una sed de veracidad. No sólo en los
documentales-ficción o en las novelas en las que aparecen personajes basados en
personas reales. "Con tanto photoshop, la gente quiere realidad y ver a las
modelos no plastificadas como en Playboy, sino con sus defectos. Cuando
se descubre la mentira de los reality, pierden su atractivo y han de
ser retirados de la programación: por eso se busca al menos una apariencia de
realidad". El capitalismo industrial, el de Tiempos modernos de
Chaplin, requería trabajadores estáticos, mecanizados. Ahora, el
capitalismo posindustrial necesita otro tipo de productores, flexibles. El
ordenador y el móvil permiten trabajar desde cualquier sitio
las 24 horas del día y estar en conexión permanente. Y muchos utilizan
Facebook para trabajar y para contar su vida privada. La fusión entre
los dos ámbitos está dada".
El filósofo José Luis Pardo cree que las fronteras entre lo
público y lo privado son móviles: el caso de Dominique Strauss-Kahn se convierte
en un asunto público y en un caso extremo, quien está más expuesto a la pérdida
de su ámbito íntimo en las sociedades actuales es, según Pardo, el homeless.
Su casa es el espacio público, expuesto a todas las miradas. El filósofo enmarca
el fenómeno de la conversión de la privacidad en una mercancía en un momento de
"decadencia de lo público, del Estado de Derecho".
Las redes sociales e Internet
en general son instrumentos liberadores y creativos, con una gran
capacidad para poner en comunicación a personas de distintos lugares del
planeta. "Las comunidades no funcionan como hace medio siglo y las redes
sociales permiten superar conflictos a personas que antes se sentían excluidas
de por vida. Muchos pueden reconstruirse gracias a lo global cuando su mundo
local no se lo permite", dice la antropóloga Mercedes Martorell. "Un niño que
haya crecido en la selva sin contacto con ningún ser humano nunca se reconocerá
como humano. Es así, en contacto con los otros, como nos constituimos como
personas y siempre nos hemos remodelado para gustar a los demás". La antropóloga
cree que también siempre hemos tenido curiosidad por saber la vida de los otros.
"Esos programas basura crean criterios: 'yo nunca haría eso', se dice. Este
vivir en público lo secreto encaja con la economía global. Mi intimidad no es
vivirla en casa con los míos, puedes vivirla globalmente, de la misma manera que
mis ahorros dependen de China".
Fuente: lavanguardia.com, 26-7-11
-Tormenta sobre Saturno
El observatorio espacial 'Herschel', de la
Agencia
Espacial Europea (ESA) ha logrado captar una gran
tormenta de vapor de agua que la luna Encélado ha descargado sobre
su planeta, Saturno. El hallazgo desvela un misterio que durante 14 años
había traído de cabeza a los astrónomos, que no sabían explicarse el origen
del agua que hay en la capa superior de la atmósfera del planeta de los
anillos.
Encélado sería, a tenor de este descubrimiento, la
única luna del Sistema Solar en la que se ha detectado que puede
influir en la composición química de su planeta, algo que,
desde luego, no ocurre con la Luna de la Tierra.
Gracias al 'Herschel' se ha detectado que expele
unos 250 kilogramos de vapor de agua por segundo, en un
gran número de chorros de propulsión que salen desde su polo sur,
una región conocida como 'Tiger Stripes', o 'las rayas del tigre',
debido a las marcas que se observan en su superficie. El agua va
formando un anillo de vapor en torno al planeta anillado. En total, la
tormenta tiene una anchura de 10 veces el radio de Saturno, aunque sólo
en el equivalente a un radio es realmente densa.
La luna Encélado, un satélite que fue
descubierto en 1789 por William Herschel, se mueve alrededor de
su planeta a una distancia de unos cuatro radios. A pesar del enorme
tamaño de la tormenta, hasta ahora había escapado a la observación de
los astrónomos porque el vapor de agua es transparente a la luz
visible y por ello han sido necesario utilizar instrumentos que
detectan longitudes de onda infrarrojas, como los que lleva a bordo 'Herschel'.
Encélado descarga vapor de agua sobre
Saturno.|ESA
Modelo informático
Aunque se sabía desde hace mucho que la atmósfera de
Saturno tiene vapor de agua en sus capas profundas, fue en 1997 cuando se
supo que también lo había en la más externa, aunque se desconocía la razón.
Gracias a modelos de ordenador se ha demostrado que entre el 3% y el
5% del agua que expele Encélado acaba sobre Saturno. "No hay
analogía a este comportamiento en la Tierra", ha asegurado Paul Hartogh, del
Instituto Max Planck de Alemania, que ha colaborado en los resultados. "No
hay cantidades importantes de agua que lleguen a nuestra atmósfera desde el
espacio", concluye el científico.
El 95% restante de ese agua se pierde en el Universo, se
congela en los anillos o cae sobre las otras lunas de Saturno. Sin embargo,
lo poco que llega es suficiente no sólo para que haya agua, sino también
otros compuestos adicionales, como el dióxido de carbono.
Además, ese agua puede llegar a los niveles inferiores de la atmosfera,
aunque se condensa allí en nubes tan pequeñas que no se pueden observar.
El 'Herschel', que fue lanzado al espacio en 2009, también fue el
observatorio que descubrió vapor de agua en la atmósfera saturnina.
Más adelante, la misión conjunta de la NASA y la ESA Cassini/Huygens
localizó los chorros de propulsión en Encélado.
Fuente: elmundo.es, 26-7-11
-Si EEUU fue en solitario a la Luna en los años 70,
podremos ir a Marte dentro de 15 años
Intentó ser astronauta aunque nunca llegó a volar al
espacio. Jean-Jacques Dordain (Francia, 1946) ha logrado, eso sí, llegar a
lo más alto en la
Agencia Espacial Europea (ESA),
organización que dirige desde julio de 2003.
El ingeniero francés, que esta semana ha visitado La
Granja (Segovia) para participar en los cursos de verano de la Universidad
Politécnica de Madrid (UPM),
conversó con ELMUNDO.es sobre los retos a los que se enfrenta el sector
espacial. Y es que los recortes presupuestarios y la reforma de la NASA, que
esta semana ha cerrado un importante capítulo de su historia al
jubilar la flota de transbordadores, han
sumido a la carrera espacial en una etapa de incertidumbre.
A pesar de ello, el director general de la ESA no tiene
dudas de que EEUU seguirá siendo el líder indiscutible en la carrera
espacial: "La mejor manera de continuar su liderazgo es seguir
invirtiendo a un nivel superior que los demás, y eso es lo que
están haciendo". "El problema actual es que cuando decidieron jubilar los
transbordadores –que en mi opinión fue una buena decisión–
estaba vigente el programa Constelación [para volver a enviar una misión
tripulada a la Luna hacia 2020]. Según este proyecto, el sucesor de los 'shuttle'
hubiera estado disponible mucho antes. Ahora habrá que esperar varios años
para tener un sustituto, pero no hay ninguna duda sobre su liderazgo".
Dordain, durante su visita a España, el
pasado martes. | Sergio González
Europa se queda sin los 'shuttle'
Respecto a las consecuencias que para Europa tendrá la
retirada de la flota de 'shuttle', Dordain afirma que va a plantear
varios problemas para la ESA, pues ya no podrá contar con ellos para
trasladar componentes e instrumentos a la Estación Espacial Internacional (ISS),
como ha hecho en más de la mitad de las 135 misiones que han llevado a cabo los
transbordadores. "Sin el 'shuttle', además, ya no podremos trasladar grandes
piezas ni traer de vuelta a la Tierra grandes componentes". En cambio,
los astronautas europeos, señala, no se verán muy perjudicados
ya que podrán seguir volando en las naves rusas Soyuz.
¿Y cuál va a ser el siguiente destino para una misión
tripulada? "Personalmente creo que la Luna es el siguiente paso. Pero si EEUU
considera que es mejor ir directamente a un asteroide o a Marte, debemos
acompañarles al destino que elijan. Los europeos no podemos ir solos a
la Luna, a Marte o a un asteroide. Necesitamos a EEUU y al resto de
socios, como Rusia, China y Japón, y por eso creo que el destino debería
ser consensuado. Así que preferiría que la NASA eligiera su objetivo
con sus socios en lugar de hacerlo en solitario e imponerlo", afirma.
Mientras tanto, la ESA colabora en la preparación de esta
gran misión con programas como
Mars500, en la que seis voluntarios (tres
rusos, dos europeos y un chino) simulan en Moscú las condiciones que se darían
en un hipotético viaje al planeta rojo: "Para mí es un proyecto fantástico.
Estamos aprendiendo mucho sobre cooperación entre personas de diferentes
nacionalidades y sobre el comportamiento humano cuando no hay
comunicación terrestre (siempre transcurren 15 minutos desde que emite la señal
en la Tierra y se recibe en Marte, y viceversa). Cuando los astronautas van a la
Luna o a la ISS pueden llamar directamente a la Tierra si surge un problema. Sin
embargo, si ocurriera una emergencia durante una misión a Marte la tripulación
deberá tomar sus propias decisiones. Y eso supone una diferencia muy
importante", explica.
Recortes presupuestarios
Dordain se muestra optimista y sí ve posible que con la
inversión actual el hombre pueda llegar a Marte hacia el año 2035, como propuso
el presidente de EEUU, Barack Obama: "En los 60, EEUU consiguió ir en solitario
a la Luna en menos de 10 años. ¿Cómo podemos decir en el siglo XXI que no
podremos ir a Marte dentro de 15 años? Yo creo que sí será posible
hacerlo, aunque el problema son las prioridades. Si lo logramos en 2040
en lugar de 2035 no cambiará la evolución de la humanidad. Marte ha estado ahí
durante 5.000 millones de años así que cinco años de retraso no supondrá una
gran diferencia", señala.
Y es que uno de los mayores obstáculos que se presentan para
llevar a cabo una futura misión a un asteroide o a Marte es precisamente la
financiación. Dordain asegura que entiende la complicada situación actual pero
subraya que "las dificultades económicas no deben conllevar una
reducción de la inversión en el espacio". De hecho, señala que "los
grandes contribuyentes, como Alemania y Francia, están dedicando más recursos
porque invertir en el espacio es invertir en el futuro".
Servicios al ciudadano
En cualquier caso, aunque Dordain cree que las misiones
tripuladas son importantes como modelo de cooperación internacional, no son el
objetivo más importante a corto plazo: "En la ESA nuestra principal prioridad
ahora es aumentar el conocimiento de la Tierra y de todos los
aspectos relacionados con el cambio climático. En segundo lugar, ofrecer a los
ciudadanos servicios para mejorar su calidad de la vida
(sistemas de navegación, meteorología, telecomunicaciones, etc.) y ayudar a la
industria espacial europea a que sea la más competitiva en el mundo".
El sistema Galileo, que dotará a Europa de un sistema de
navegación por satélite propio y evitará que dependa del estadounidense GPS,
es un buen ejemplo de los servicios que la tecnología espacial ofrecerá a
los ciudadanos. A pesar de las dificultades, Dordain afirma que la ESA
cumplirá el programa previsto y en el año 2018 Galileo funcionará a pleno
rendimiento.
Asimismo, el director de la Agencia Espacial Europea
subraya el buen funcionamiento de
EGNOS, el precursor del sistema Galileo. Se
trata del sistema de navegación por satélite para aviación de la UE,
que ya está plenamente operativo y es utilizado por varios aeropuertos
europeos para planificar trayectos más cortos. Según señala Dordain, esta
tecnología de libre acceso "está aumentando la eficacia de GPS":
"Demostramos día a día que la tecnología europea es diez veces mejor que la
estadounidense en navegación", asegura.
La ESA también quiere mejorar la comunicación a la
sociedad de los avances que se producen gracias a la investigación espacial:
"La mejor forma para convencer a la población [de la importancia del
espacio]sería apagar todos los satélites durante un día. Habría un
caos total en la Tierra. Ningún taxista de París podría llegar a su
destino porque todos usan las señales de GPS. No habría previsión
meteorológica ni sistemas de comunicación. Si ese día se celebrara la final
de la Copa del Mundo, por ejemplo, nadie podría seguir la retransmisión, y
así podríamos seguir poniendo ejemplos. Todos los ciudadanos usan el
espacio cada día, aunque no lo sepan. Para ellos trabajamos",
asegura.
Fuente: elmndo.es, 25-7´´11
-Materia extraterrestre traída a la Tierra
da pistas sobre el Sistema Solar
Unas minúsculas muestras de materia extraterrestres, átomos
solares capturados por una sonda espacial a 1,5 millones de kilómetros de la
Tierra, han mostrado que hay sutiles diferencias entre el Sol y los cuerpos como
nuestro planeta, la Luna o los meteoritos. Todos ellos "son anómalos al
compararlos con la composición de la nube de la que se formó el Sistema Solar",
señala el especialista Bernard Marty. "La comprensión de la causa de tal
heterogeneidad tendrá un impacto importante en nuestra perspectiva de la
formación del Sistema Solar".
La investigadora Judy Allton separa
las láminas de oro de un colector de partículas de viento solar de la misión
Genesis para hacer diversos análisis.-
NASA
Para hacer estas comparaciones mediante análisis en los
laboratorios había que salir al espacio a capturar muestras de átomos
extraterrestres. Ese fue el objetivo de la misión Genesis de la
NASA, cuyos resultados,
rodeados de incertidumbre por la accidentada recuperación de las muestras,
se presentan ahora en la revista Science. "El Sol tiene más del 99%
de la materia del Sistema Solar, así que es una buena idea conocer mejor de
qué esta hecho", dice el investigador principal de la misión, Don Burnett (del
Instituto Tecnológico de California). Con sus resultados, "se da
respuesta a algunas cuestiones importantes y, como en todas las misiones de
éxito, se generan muchas más", añade.
La Genesis, de 630 kilogramos, fue lanzada al
espacio en 2000 y situada en un punto de equilibro gravitatorio entre el Sol
y la Tierra denominado Lagrange 1 (L-1), a unos 1.500 millones de kilómetros
de la Tierra. Allí estuvo 886 días capturando, con unos paneles que
desplegó, átomos del viento solar, es decir, partículas cargadas eyectadas
por la atmósfera de la estrella. En L-1 la sonda estaba muy alejada de los
efectos de la atmósfera terrestre y de sus campos magnéticos. Todo fue bien
en la misión durante la fase de cosecha y regreso a casa, pero el
aterrizaje de la cápsula con las muestras, en 2004, fue demasiado brusco: no
se abrió debidamente el paracaídas que tenía que suavizar la caída de dicha
cápsula y esta se estrelló en el suelo de Utah (EEUU), donde estaba
desplegado todo el dispositivo de recuperación de las partículas del Sol. La
misión costó 150 millones de euros.
Los expertos pensaron que parte del botín podía haberse
salvado de la contaminación terrestre, pese a que casi todos los colectores de
viento solar se habían roto en el impacto en Utah. En concreto, un instrumento
diseñado por científicos del
Laboratorio Nacional de Los Álamos llevaba unos colectores especiales donde
se acumularon partículas de viento solar y se habían salvado. Los análisis de
las muestras han permitido medir los contenidos de oxígeno y de nitrógeno que
ahora se presentan.
"El colapso gravitatorio de un fragmento de una nube
molecular, hace 4.570 millones de años, formó un disco de acreación de gas y de
polvo, la nubulosa solar, a partir de la cual se formaron el Sol y los
planetas", recuerdan Kevin McKeegan (Universidad
de California, Los Ángeles) y sus colegas en Science. La composición
de la materia ese disco sería prácticamente homogénea, por lo que los
científicos se sorprenden ahora de las diferencias entre el Sol y la Tierra,
aunque ligeras, descubiertas con los análisis de la Génesis.
El oxígeno y el nitrógeno son los elementos tercero y sexto,
respectivamente, por abundancia en el Sistema Solar, recuerda en Science
Robert N. Clayton (Universidad
de Chicago). El aire en la Tierra contiene tres tipos de átomos de oxígeno,
que se diferencian por el número de neutrones que continente en su núcleo, y
aunque casi el 100% del oxígeno del Sistema Solar es O16, también hay pequeñas
cantidades de los llamados isótopos O17 y O18.
La pista de las diferencias entre el Sol y los planetas
terrestres está en la proporción de esos isótopos: los científicos que han
analizado las muestras de Genesis han descubierto que el porcentaje de
O16 en la estrella es ligeramente superior que en la Tierra, la Luna y los
meteoritos, mientras que el porcentaje de los otros isótopos O17 y O18 es
ligeramente inferior. En cuanto al nitrógeno, en el Sistema Solar casi el 100%
es N14, pero también hay pequeñas cantidades de N15 y los resultados de esta
misión espacial indican que en el Sol hay un poco más de N-14 y menos N-15 que
en la Tierra; la composición del nitrógeno en Júpiter es igual a la solar.
"La implicación de estos resultados es que nosotros no nos
formamos de los mismos materiales de la nube que dio origen al Sol, pero está
por descubrir por qué y cómo", afirma McKeegan (Universidad de California en los
Ángeles)..
"Las variaciones de las abundancias de los isótopos estables
se han estudiado en muestras del Sistema Solar (de la Tierra, de la Luna y de
meteoritos), pero la interpretación de esta información se ha visto frustrada
por la falta de conocimiento preciso acerca de las abundancias de isótopos en el
material inicial a partir del cual evolucionaron los elementos", señala Clayton.
A la vista de los nuevos resultados la conclusión de este experto es que "la
Tierra no se hizo de los materiales promedio del Sistema Solar".
Fuente:
elpais.com, 24-7-11
-
-Viaje al ecosistema de los dinosaurios
En medio de la maleza de un oscuro bosque
surge la cabeza de un dinosaurio masticando plantas y balanceándose a
ritmo de mandíbula hacia adelante y hacia atrás. Los niños se paran miedosos y,
aunque saben que los dinosaurios están extinguidos y estos son animatronics,
sienten respeto. Es uno de los tramos del recorrido por la exposición Age of
the Dinosaur (La era de los dinosaurios), que se presenta en el Museo de
Historia Natural de Londres hasta el próximo 4 de septiembre. Una excursión
veraniega para toda la familia. Y al final del viaje por los períodos Jurásico y
Cretácico, se pone a prueba el conocimiento del visitante con preguntas, cuyas
respuestas están en la exposición, sobre el medio ambiente en el que vivieron
los dinosaurios hace más de cien millones de años.
"Esta exposición no únicamente recorre el Jurásico y el Cretácico, sino que
informa de las plantas y los animales que vivieron con los dinosaurios, y
presenta a todos ellos en el medio ecológico en el que vivieron", explica
Paul Barrett, del departamento de Paleontología del museo.
Entre las piezas expuestas destacan un
coprolito (heces fosilizadas) de animal marino, una huella (de 81 por
74 centímetros) de animal prehistórico encontrada en México, una libélula
fosilizada con las alas abiertas o un pedazo de cola erizada de un
estegosaurio. En total hay unas 60 muestras fosilizadas de animales o
plantas, un número minúsculo entre los nueve millones de piezas con las que
cuenta el departamento de Paleontología. El museo contabiliza en total 70
millones de ejemplares entre plantas, animales, fósiles, minerales y
piedras.
Supervivientes o extintos
Algunas de las plantas o de los animales que convivieron con los
dinosaurios, tales como cocodrilos o tortugas, casi no han cambiado hasta
el día de hoy (la era del humanoide, según el calendario de la
exposición). En cambio, de otras especies prehistóricas nunca más se supo.
Según cuenta Barrett, "no sabemos con certeza por qué unas especies han
desaparecido y otras persisten; una explicación simple sería que unos se
adaptan mejor al medio ambiente en el que viven; otra explicación
alternativa sería que han evolucionado en especies generalistas que
aguantan los cambios del medio ambiente; hay que estudiar caso por caso
para saber por qué algunos animales permanecenpor tanto tiempo".
Dos visitantes contemplan una de las figuras animadas.NATURAL
HISTORY MUSEUM
El Museo de Historia Natural de Londres lleva 20 años animando dinosaurios,
haciéndoles moverse y rugir y así recrear sus movimientos y sus vidas
originales. Georgina Bishop, a cargo de la intrincada tarea de animar animales
extinguidos, explica: "Llevamos mucho tiempo
trabajando con una empresa de
animatronics que cada vez es más realista
en nuestros objetivos; según avanza la tecnología, avanza también la
reproducciónde los movimientos de estos animales".
Las exposiciones
de dinosaurios se han convertido en apuestas seguras para el museo londinense.
"Hacemos una exposición de dinosaurios cada varios años porque son muy
populares, pero también porque debemos mostrar al público la colección de
muestras del museo, cuyo objetivo es difundir el conocimiento de las ciencias
naturales", añade Bishop.
Fuente: publico.es, 23-7-11
-Arranca la humillante "era" Soyuz de la NASA
Tras el aterrizaje del Atlantis, la NASA se enfrenta
por primera vez en sus 53 años de historia al 'vacío' espacial,
sin un vehículo propio y dependiendo exclusivamente de su viejo
rival de la Guerra Fría, al que pagará una media de 63 millones de
dólares por cada astronauta que ponga en órbita.
"Empieza la era Soyuz de los vuelos
tripulados al espacio, la era de fiabilidad", podía leerse el
jueves en un comunicado de la agencia espacial rusa Roskosmos,
concidiendo con la jubilación del 'shuttle'.
Desde Washington, el administrador de la NASA y ex
piloto del transbordador espacial Charles Bolden intentaba combatir el
pesimismo general brindando por el futuro: "Hemos pasado la página de
una era memorable y empezamos el siguiente capítulo en la extraodinaria
historia de las exploraciones de nuestra nación (...) Hoy reiteramos
nuestro compromiso para seguir adelante con la misiones
espaciales tripuladas y dar los pasos necesarios y difíciles
para asegurar el liderazgo americano en los años venideros".
El 'autostop' espacial
Pero el gobernador de Texas, el republicano Rick
Perry, lamentó profundamente el fin de la era de los transbordadores y
criticó que la falta de liderazgo del presidente estadounidense, el
demócrata Barak Obama, no deje a los astronautas más alternativas que
ir al espacio haciendo 'autostop'.
Perry, cuyo estado acoge el Centro Espacial Johnson en
Houston, desde donde se dirigían las operaciones de los transbordadores y
donde se encuentra el centro de reclutamiento, mostró su descontento por
la falta de "planes para futuras misiones".
"Desgraciadamente, con el aterrizaje final del
transbordador Atlantis y sin señal de planes para futuras misiones (...)
esta administración ha dejado a los astronautas estadounidenses sin
otra alternativa que viajar 'a dedo' en el espacio", ironizó.
Por su parte, destacados astronautas, como Neil Armstrong
y James Lowell, han acusado a Bolden y al propio Obama de jugar a la
'ruleta rusa', no sólo por la dependencia del Soyuz, sino por su
confianza prematura en el sector privado, que aún tardará varios años en
tener a punto la tecnología para mandar naves tripuladas al espacio.
La privatización espacial
La NASA tiene momento dos contratos –de 1.900 millones de
dólares con Orbital Sciences y de 1.600 millones con Space X- para enviar
inicialmente 20 vuelos de carga a la Estación Espacial Internacional
hasta el 2015. Pese al éxito de Space X, que en diciembre puso en
órbita su cápsula Dragón impulsada por su propio cohete (el Falcon 9), lo
cierto es que el calendario sigue abierto, y más aún en el caso de Orbital
Sciences, cuyas pruebas con la nave Cygnus avanzan con ostensible retraso.
Otras compañías, de Boeing a Lockheed Martin pasando por
Sierra Nevada (el minitransbordador Dreamchaser), han logrado también
contratos privados más impulsar los vuelos orbitales tripulados, pero
el horizonte mínimo vuelve a ser el 2015.
La NASA, por su parte, anda atrapada en su propia
encrucijada. Tras decidir la suspensión total del programa Constelación (con
la misión de volver a la Luna en el 2020), la agencia espacial
vuelve a trabajar a medio gas en el diseño de una cápsula tripulada
–que ya no se llamará necesariamente Orion- y en un cohete para lanzamientos
pesados.
Recorte presupuestario
La semana pasada, mientras el Atlantis orbitaba alrededor de la Tierra,
acoplado por a la Estación Espacial Internacional, el Comité de
Apropiaciones del Congreso debatía un 'hachazo' de 1.900 millones de
dólares al presupuesto de 18.450 millones de la NASA. Charles
Bolden no se mordió la lengua a la hora de advertir lo que estaba en juego:
"Con estos recortes, el bache entre el final de la era del shuttle y la
nueva era de los vuelos tripulados aumentaría sin duda, aunque no se puede
predecir cuánto".
Bolden expuso así el dilema: o se recortan las misiones científicas, o se
recortan los planes para misiones tripuladas. La suspensión del programa del
transbordador espacial –que has costado 196.000 millones a lo largo de 40
años- dejará antes de fin de año en la calle a 10.000 trabajadores.
Los nuevos ajustes amenazan con dejar la NASA diezmada y provocar una nueva
fuga de cerebros hacia la compañías privadas, que en última instancia
dependen de los contratos multimillonarios con la agencia espacial para
salir a flote.
Fuente: elmundo.es, 22-7-11
-El litoral español cambia el ladrillo por el hormigón
A pesar de que la crisis financiera ha frenado el desarrollo de planes
urbanísticos, hoteles que se alzaban a pie de playa y residenciales en pleno
litoral, la costa española no se ha librado de la voracidad de las
excavadoras y la plaga de las hormigoneras. Ahora, según el informe
Destrucción a toda costa 2011 presentado ayer por Greenpeace, son los
puertos los que han tomado el relevo como protagonistas de la agresión a las
orillas españolas, de las cuales cubren en la actualidad 200 kilómetros.
"Hemos cambiado el ladrillazo por el hormigonazo", resumió la directora de
la organización ecologista, Miren Gutiérrez.
Puerto de Granadilla
Un desarrollo que está castigando los ecosistemas, el patrimonio
ecológico y los recursos naturales de los que podrían beneficiarse las
poblaciones locales, por lo que Greenpeace demanda una "moratoria" de todos
los desarrollos portuarios.
En total, la superficie de las instalaciones de los puertos estatales
españoles cubre, con sus dársenas, espigones, carreteras internas y
depósitos, 225.000 hectáreas, algo más del territorio ocupado por la
provincia de Vizcaya. Sin embargo, el espíritu "depredador" de los puertos
españoles que denuncia Greenpeace no acaba ahí. En la actualidad, de las 28
autoridades que se reparten la gestión de los puertos con interés general en
España, sólo dos (Motril y Gran Canaria) no están en ampliación. Al resto se
le puede considerar en período de expansión, ya sea por encontrarse en obras
en la actualidad, por tener un proyecto de ampliación encima de la mesa o
porque acaban de culminar recientemente un aumento de sus instalaciones.
Y el futuro no echará el freno a esta expansión: de aquí a 2020 se
gastarán 23.700 millones de euros en el desarrollo de instalaciones
portuarias (22.480 millones) y de sus accesos terrestres (1.220 millones).
Un dinero que pondrá el Plan Estratégico de Infraestructuras y Transporte (PEIT),
aprobado por el Ministerio de Fomento con la intención de relanzar la red de
infraestructuras del Estado y que hará crecer un 75% la superficie
portuaria.
El problema es que, si se completan todas las ampliaciones proyectadas
para esa fecha (2020) y con el crecimiento económico previsto, casi dos
tercios de las instalaciones portuarias se quedarán sin uso, según un
estudio de la Universidad de Valencia que cita Greenpeace. "La ocupación no
pasará del 38% porque no habrá tanto tráfico como necesitarían unos puertos
que ahora no están saturados", aseguró la responsable de Costas de la
organización, Pilar Marcos. "Se van a construir puertos fantasma que van a
dar servicio al Holandés errante [un buque ficticio de leyenda],
porque no va a haber más barcos", bromeó la directora de Greenpeace, quien
lamentó que se esté financiando el crecimiento voraz de los puertos "sin ton
ni son".
Según Pilar Marcos, no hay un puerto en España cuyos gestores no hayan
declarado su intención de ser el más grande de Europa. De este modo, los
distintos muelles españoles compiten entre sí por rutas y barcos, como
empresas en busca de clientes. Y se desarrollan, en consecuencia, "sin tener
en cuenta el impacto y las necesidades reales", criticó Gutiérrez.
El colmo de esta situación, según denuncia Greenpeace, es que se estén
desarrollando a la vez puertos que están ubicados a menos de 30 kilómetros
de distancia (ver gráfico) y que podrían complementarse en lugar de correr
el uno contra el otro. Esta situación de competencia entre las distintas
infraestructuras está recogida en la reciente Ley de Puertos, que incluso
obliga a competir como empresas por las rutas, según reconoce Puertos del
Estado, organismo dependiente de Fomento encargado de la coordinación y el
control de la eficiencia de las instalaciones estatales.
Eso sí, el presidente de Puertos, Fernando González Laxe, es el primero
en demandar que las infraestructuras portuarias que están instaladas en una
misma zona comercial deben integrarse. "Los puertos pequeños que compartan
área de influencia con otros mayores tendrán que diagnosticar la integración
portuaria y concentrarse", aseguró en una entrevista reciente en
Expansión. Además, el organismo que preside González Laxe desmiente que
las previsiones de ocupación portuaria deban ser tan oscuras como las pinta
Greenpeace y alegan que en la actualidad la ocupación crece a un 6% anual.
Sin embargo, la inflación portuaria continúa ganando volumen, como
demuestra el caso paradigmático del puerto de Granadilla (en la isla de
Tenerife), en el que confluyen los problemas de agresión al medio ambiente
con los de gestión poco sostenible de las infraestructuras. Allí acaban de
iniciarse las obras para construir esta nueva instalación, sólo 60
kilómetros al sur del principal puerto de la isla, en Santa Cruz de
Tenerife.
El Gobierno de Canarias se decidió a construir esta infraestructura de
1.500.000 m2 de hormigón tras aventurar en la década de los noventa que el
puerto de la capital quedaría obsoleto a medios de la pasada década. El
puerto de Santa Cruz no sólo no se ha saturado, sino que acaba de terminar
unas obras de ampliación a pesar de estar lejos del 100% de su capacidad.
Impacto en los ecosistemas
El proyecto cuenta con una importante oposición de la sociedad de la isla
debido a que su construcción acaba con 17 playas de la zona y con buena
parte de los hábitats costeros. Tanto es así, que la Comisión Europea
reconoció el importante daño ambiental que esta construcción supondría. "Es
el puerto con el mayor impacto negativo en los ecosistemas de toda España",
aseguró Marcos. Para poder tirar adelante con el proyecto, todavía pendiente
de decisiones jurídicas y administrativas, el Gobierno de Canarias eliminó
la protección legal que preservaba a numerosas especies que habitan la zona;
algunas de ellas en peligro de extinción, como la tortuga boba. "Esperamos
que no nos pase como en el caso Marín (Pontevedra), que cuando
llegó la sentencia. del Tribunal Supremo en su contra ya no se podía hacer
nada", expresó la responsable de Costas.
Greenpeace critica que la Unión Europea financie proyectos como este
(pondrá 138 millones de euros para Granadilla) y pide que se frenen todos
los proyectos que están en marcha en la actualidad, aunque se encuentren
en obras.
"Una costa sana puede dar hasta 41 euros por hectárea al año
si se la explota de modo sostenible. Es eso lo que tenemos que primar",
aseguró Marcos, quien reclamó que se ponga fin a esta "locura portuaria"
frenando su financiación y a través de una política fiscal verde que
castigue las actividades más dañinas con el medio ambiente costero.
Fuente:: publico.es, 21-7-11
-Comienza la puesta a punto de CanariCam
Durante esta semana darán comienzo los trabajos de puesta
a punto del instrumento infrarrojo CanariCam en el Gran Telescopio Canarias
(GTC), tal y como se anunció en la IX Reunión Científica de la Sociedad
Española de Astronomía (SEA), celebrada la semana pasada en Madrid.
CanariCam es un espectrógrafo con capacidad de imagen en
el infrarrojo medio capaz de obtener imágenes, hacer espectroscopía,
polarimetría y coronografía, por lo que desempeñará las funciones que en
otros telescopios realizarían al menos tres instrumentos distintos. Podrá
obtener imágenes de objetos lejanos para analizar su forma y su estructura
y, a continuación, analizar la composición del objeto: será especialmente
útil a la hora de detectar enanas marrones, planetas extrasolares a través
de observación directa, y estudiar en profundidad en el centro de nuestra
galaxia, penetrando en esta región con una gran sensibilidad y resolución.
CanariCam ha sido diseñado y construido por la Universidad de Florida con la
participación del IAC.
Fuente: IAC, 20-7-11
-Cuatro maneras de evaluar cómo funciona la
mente
A 46 estudiantes de Harvard se les sometió a dos bloques de
16 preguntas, unas fáciles y otras difíciles. Tras las respuestas, a cada grupo
se le sometió a una versión modificada de la prueba de Stroop. Esta tarea mide
el tiempo de reacción ante una tarea provocada por la interferencia semántica
entre una palabra y su significado. Por ejemplo, cuando se pregunta en qué color
(en este caso negro) está escrita la palabra blanco. En este experimento se
mostró en colores diferentes términos relacionados con la tecnología, como
Google, Yahoo o ratón, junto a otros no relacionados con internet. Los
investigadores comprobaron que los estudiantes tardaban más en decir el color de
las primeras palabras que el de las segundas, lo que indicaría que estaban
pensando en buscar las respuestas del test difícil en la red. “Parece que cuando
nos enfrentamos a un vacío en nuestro conocimiento, tendemos a acudir al
ordenador para corregir la situación”, escriben los investigadores.
Lo que se puede recuperar, se olvida
El segundo experimento contó con la participación de 60
estudiantes. Les presentaron 40 sencillos enunciados del tipo “El transbordador
espacial ‘Columbia’ se desintegró durante la reentrada sobre Texas en febrero de
2003” que tuvieron que escribir en el ordenador. Los investigadores dividieron a
los participantes en dos grupos. Mientras a unos les dijeron que la máquina
grabaría lo que habían escrito, al resto les dijeron que la información sería
borrada. Para complicar la prueba, pidieron a la mitad de cada grupo que
memorizaran lo que habían escrito. Después, solicitaron a los 40 que escribieran
los enunciados que recordaban. Aquellos que pensaban que la información no se
había grabado fueron capaces de recordar más detalles de los enunciados que los
que creían que sí se había hecho una copia. “Desde que los motores de búsqueda
están a nuestra disposición, sentimos que no necesitamos codificar la
información internamente. Cuando la necesitamos, la vamos a buscar”, concluyen.
La relativa importancia de tomar notas
A 28 estudiantes, esta vez de la Universidad de Columbia, les
presentaron 30 enunciados sencillos y se les permitió tomar notas sobre ellos en
el ordenador. También se les avisó de que, mientras que un tercio de las frases
se guardarían en el equipo, otras aparecerían con un mensaje de que serían
guardadas en una determinada carpeta mientras que el tercio restante serían
borradas. Después se les volvieron a pasar las 30 frases pero con alguna palabra
cambiada y se les preguntó si cada una mostraba lo que habían visto en el primer
test. Aunque la capacidad de recuerdo de los enunciados fue alta en todos,
recordaron mejor los enunciados que no se iban a conservar. Más sorprendente
aún: las frases que sabían que habían sido guardadas se recordaban mejor. “La
creencia de que uno no tendrá acceso a la información en el futuro mejora la
memoria de su contenido, pero saber que fue guardada refuerza la idea de que se
puede recuperar”, dice el estudio.
¿Dónde están los datos?
En una variación del tercer experimento, en el último de los
test que se realizaron, 34 alumnos de la Universidad de Columbia leyeron otros
30 enunciados, pudiendo tomar notas que guardarían en determinadas carpetas del
ordenador. Después se les dio diez minutos para escribir a mano tantas frases
como recordaran. Por último, se les fue preguntando dónde habían guardado cada
enunciado. Al comparar esto con lo que habían anotado, los investigadores
comprobaron que los participantes recordaban mejor dónde estaban los enunciados
que el contenido de los mismos. “Esta es una de las primeras evidencias de que
cuando las personas esperan que la información permanecerá accesible de forma
continua (por ejemplo, gracias a tener un acceso a internet ), son más propensas
a recordar dónde se encuentra [la información] que a recordar los detalles de la
información”, dicen.
Fuente: publico.es, 19-7-11
-¿Es bueno beber tata agua?
La recomendación de beber de seis a ocho vasos de agua al día para prevenir la
deshidratación "no sólo es una tontería, sino que es un completo disparate",
argumenta Margaret McCartney, médico de Atención Primaria de Sistema de Salud de
Escocia, en la revista British Medical Journal (BMJ).
Actualmente no hay pruebas claras del beneficio de beber una mayor cantidad de
agua, dice, sin embargo, el "mito de que no bebemos suficiente aguda es algo que
está presente y tiene defensores influyentes, como el Instituto Nacional de la
Salud de EE.UU.
En 2002, Heinz Valtin publicó una crítica de la evidencia del consumo de agua en
el American Journal of Physiology. Llegó a la conclusión de que "no sólo no hay
evidencia científica de que hay que beber mucho, sino que la recomendación
podría ser perjudicial, como en el desarrollo de la hiponatremia potencialmente
peligrosa". En 2008, un editorial en el Journal of the American Society of
Nephrology llegaba a la misma conclusión, afirmando que "no hay pruebas claras
del beneficio de beber una mayor cantidad de agua. Aunque nos gustaría poder
derribar todos los mitos que se encuentran Internet acerca de los beneficios de
la ingesta de agua, admitimos que tampoco hay una clara evidencia de la falta de
beneficio. De hecho, es simplemente una falta de pruebas en general", decía
Valtin.
Consejos sin evidencia
Las recomendaciones del Instituto Nacional de la Salud señalan que "Trate de
beber entre seis y ocho vasos de agua (u otros líquidos) al día para prevenir la
deshidratación". Y, añade McCartney, algunos colegios recomiendan a sus alumnos
que lleven una botella de agua a sus clases.
Denuncia McCartney que hay intereses creados de algunas organizaciones que
tratan de reforzar este mensaje. Por ejemplo, Hidratación para la Salud,
organización creada por el gigante francés Danone -productores de aguas
embotelladas como Volvic y Evian- recomiendan beber de 1,5 a 2 litros de agua al
día como "el consejo más simple para tener hidratación saludable". Y afirman
además que "la deshidratación leve juega un papel en el desarrollo de diversas
enfermedades".
Sin embargo, McCartney subraya que no hay pruebas publicadas que puedan apoyar
estas afirmaciones. Se refiere la experta a diversos estudios que no muestran
pruebas claras del beneficio de beber una mayor cantidad de agua y que incluso
sugieren que puede haber efectos perjudiciales no deseados relacionados con el
consumo excesivo de agua. "Parece, por tanto, que el agua no es una solución
sencilla a los múltiples problemas de salud", escribe.
Datos insuficientes
Por ejemplo, los informes de que el aumento de la ingesta de agua en los niños
puede mejorar la concentración y el rendimiento mental no han sido confirmados
por estudios científicos, mientras que los datos existentes sobre el agua y la
reducción de sobrepeso en los niños son propensos al sesgo.
Si bien hay algunas enfermedades que se benefician del consumo de agua, como es
el caso de las personas con cálculos renales recurrentes, hay pocas evidencias
en otras enfermedades, añade McCartney. "En otras palabras, esta es una
situación compleja, y no se solucione por decir a todos a que beban más agua".
En su opinión, las supuestas evidencias presentadas por Danone "son débiles" y,
como dicen ellos "necesitamos evidencias reales". Y concluye: "Hay muchas
organizaciones que tienen intereses creados que les gustaría decir a los médicos
y los pacientes qué es lo que deben hacer. Deberíamos simplemente no."
Fuente: abc.es, 18-7-11
-La
nave Dawn alcanza la órbita del asteroide Vesta
Imagen del asteroide Vesta tomada el
pasado 9 de julio. | NASA.
La nave espacial de la
NASA Dawn entró el sábado en la órbita
del asteroide Vesta situado entre las órbitas de Marte y Júpiter, tras
cuatro años de viaje. Allí permanecerá durante un año,
tomando fotografías en alta definición y recabando datos que ayudarán a
los científicos a estudiar la formación del Sistema Solar.
El director de la NASA, Charles Bolden, afirmó en un comunicado que la
hazaña es un "hito increíble en la exploración espacial",
puesto que se trata de "la primera vez que una nave espacial entra en
órbita en el principal cinturón de asteroides".
Bolden añadió que "el presidente Obama ha encargado a la NASA enviar
astronautas a un asteroide en 2025 y Dawn está recogiendo información
crucial para formar esa misión". Dawn estudiará Vesta durante un año
antes de partir hacia su segundo destino, un planeta enano llamado
Ceres, y al que pretende llegar en 2012.
Lanzada en 2007
Aunque la sonda espacial ha enviado información que confirma
que ha entrado en la órbita de Vesta, el momento preciso se
desconoce ya que depende de su masa y gravedad, algo que solo ha sido
estimado y que, gracias a su entrada en órbita, podrá conocerse con
mayor precisión.
"Hemos tardado cuatro años en llegar a este momento", afirmó Robert Mase,
jefe del proyecto Dawn en el Jet Propulsion Laboratory de Pasadena,
California.
La nave Dawn fue lanzada en septiembre de 2007. Durante estos años, los
ingenieros han ido definiendo la trayectoria de Dawn para lograr que Dawn
alcanzara la órbita de Vesta alrededor del Sol. A diferencia de otras
misiones, donde las naves son propulsadas para entrar en la órbita de un
planeta, Dawn se aproxima lentamente al asteroide cuya
gravedad la capturará y la pondrá en su órbita.
Observaciones útiles
Sus observaciones ayudarán a comprender los "primeros capítulos"
de la historia de nuestro Sistema Solar. La NASA indicó que sus
datos permitirán allanar el camino para futuros viajes tripulados, con Marte
como gran objetivo para las próximas décadas.
La misión de Dawn está dirigida desde la Universidad de
California y cuenta con la colaboración del Centro Alemán
Aeroespacial, el Instituto Max Planck para Investigación en el Sistema Solar
y la Agencia Espacial Italiana. Vesta y Ceres son dos de los cuerpos mayores
del cinturón de asteroides que rodea al Sistema Solar. En esa región se
encuentran unos cien mil asteroides, considerados los 'escombros' que
quedaron tras la formación del sistema hace 4.600 millones de años.
Fuente: 18-7-11, elmundo.es,
Los desolados paisajes de Marte van a ser el escenario de un relevo
generacional único. Un robot de exploración armado con un rayo láser y
alimentado por energía nuclear está listo para ser lanzado hacia el planeta
rojo desde Cabo Cañaveral. Se trata del Curiosity, que encarna una nueva
generación de coches marcianos más grandes, más pesados y posiblemente mucho
más duraderos que sus predecesores. La
decisión sobre su destino final se espera a finales de este mes. El
primer finalista es el cráter Gale, cuyos suelos de hace unos 3.800 millones
de años son lo más parecido a una fotografía de cuando Marte era un
jovenzuelo cubierto de océanos. El segundo es el cráter Eberswalde,
donde existe el espectacular delta de un antiguo río en cuya corriente, al
igual que en Gale, pudo haber vida. Por primera vez, un rover está equipado
para calentar muestras de roca o tierra y detectar en ellas rastros de
marcianos en forma de moléculas orgánicas complejas como el ADN.
"Si hay alguna criatura en el suelo la calentaremos y seremos capaces de
olfatear sus componentes", explica Nilton Renno, profesor de ciencias del
espacio de la Universidad de Michigan (EEUU).
-Marte: relevo generacional
El pasado jueves, Renno estaba sentado en un claustro
cercano al Monasterio de El Escorial, en Madrid, donde participó en el curso
de verano "Marte y Sociedad" sobre el futuro próximo de la constante
exploración robótica de Marte y la aún hipotética conquista humana del
planeta.
¿Cómo es de bueno el Curiosity? El profesor apuntó con el
dedo al otro extremo del jardín. "Tenemos
hasta un láser como en La Guerra de las Galaxias con el que podemos
apuntar a una roca a distancia y analizar su composición", aseguró Renno,
que forma parte del equipo español que ha diseñado el instrumento REMS con
el que el Curiosity medirá la temperatura, la humedad, el viento y la
radiación a ras de suelo y cuyo desarrollo ha dirigido Javier Gómez-Elvira,
del Centro de Astrobiología, en Madrid. "Es más sofisticado que ningún otro
artefacto que hayamos lanzado", presumió Renno.
Pero, mientras la NASA ultima los preparativos para
lanzar el Curiosity, que despegará en noviembre, la anterior generación
de robots marcianos se resiste a jubilarse. Se trata del tenaz
Opportunity, un peso pluma de 185 kilos que debía durar tres meses.
Contra todo pronóstico, lleva siete años en servicio.
"Estos vehículos están tan pasados de garantía que cada día es como un
regalo", confesó durante el encuentro Steve Squyres, investigador
jefe del Opportunity y su hermano, el Spirit.
El Opportunity está a un kilómetro y medio del filo
del cráter Endeavour. Las arenas arcillosas de este boquete de 22
kilómetros de diámetro también atesoran grandes secretos, pues su
composición parece del tipo que sólo se forma en presencia de agua
líquida. No es la primera vez que sucede algo así, ya que, desde que
aterrizaron en Marte, Spirit y Opportunity se han topado con muchos
minerales que delatan la presencia pasada de agua líquida. Aunque de ahí
a la presencia de vida hay un mundo, algunos expertos especulan que en
aquellos océanos, lagos y ríos pudo suceder un proceso similar
al que sucedió en la Tierra hace unos
3.800 millones de años
"Una de las cosas que sabemos observando la Tierra es que la vida es muy
pertinaz. Es muy difícil deshacerse de ella", señaló Squyres. "Puedes
encontrarla en ambientes muy ácidos, salados, en las profundidades de la
Tierra, lugares en los que no se esperaba que estuviese. Si la vida se
generó en Marte, es bastante razonable proponer que haya podido encontrar
nichos ecológicos en los que pueda seguir aún hoy", detalló Squyres.
Agua polar
Algunas bacterias podrían haber sobrevivido, como lo
hacen en la Tierra, en las profundidades de la corteza marciana, donde el
calor permitiría la existencia de agua. Otro posible foco de vida está donde
ningún coche ha llegado: el Ártico de Marte.
Sí fue explorado por el robot Phoenix, que, inmóvil, se clavó en Marte en
2008. Palpó el hielo marciano e incluso detectó gotas que parecían agua
líquida. Phoenix murió el año pasado, pero sus hallazgos han servido para
sustentar la hipótesis de que, bajo el hielo, puede haber pequeñas bolsas de
agua líquida, según la tesis que defiende Renno, que fue parte del equipo de
Phoenix.
Lejos de allí, Opportunity avanza 150 metros al día. A
este ritmo y sin paradas llegará a Endeavour en "un mes y medio", según
Squyres, que advierte de la incertidumbre. "Cada mañana me levanto
y voy corriendo a mi ordenador para ver si Opportunity sigue vivo".
Este año dio por perdido al Spirit, el hermano de Opportunity, atascado en
un sombrío foso sin posibilidad de captar suficiente sol en sus paneles
solares.
El Curiosity, no tendrá ese problema. En su interior,
además de sus diez instrumentos científicos, hay una diminuta central
nuclear que funciona con 4,8 kilos de plutonio. El combustible le
proporcionará calor y energía para unos dos años, según la NASA.
"Probablemente dure mucho más, unos diez años", aseguró Renno.
La misión ha pasado por importantes altibajos. Fue
retrasada por dos años en 2009 y su coste se ha inflado hasta superar los
1.600 millones de euros, el doble que Spirit y Opportunity juntos. "Solo
queda solucionar algunas cuestiones de software", aseguró Renno,
que dice que las probabilidades de
lanzamiento son "muy buenas". Si se pierde esta oportunidad, la
misión tendría que esperar hasta 2013.
Europa se queda sin su primer coche
marciano
Exomars
Europa tendrá que renunciar a fabricar y mandar al espacio su primer
robot móvil de exploración. La cancelación del proyecto, llamado ExoMars,
no se debe a problemas propios, sino ajenos. El socio de la Agencia
Espacial Europea (ESA) en esta misión es EEUU. El plan era enviar a
Marte dos coches de exploración en 2018, uno de EEUU y uno hecho
íntegramente en Europa. Pero en abril la NASA, en medio de una crisis
presupuestaria, anunció que no podía enviar dos ‘rovers’ y obligó a
adelgazar la misión.
Versión ligera
La decisión sentó muy mal en Europa, que tuvo que paralizar la
construcción de su vehículo. EEUU ha propuesto lanzar un solo ‘rover’,
de fabricación propia. A cambio, los instrumentos científicos serían
europeos. Los 18 países de la ESA se reunirán a finales de septiembre
para acordar si siguen adelante con esta opción.
Fuente: publico.es, 17-7-11
-¿Hay vida ahí fuera?
¿Qué es la vida?
Todos nos lo hemos preguntado alguna vez. No hay una respuesta clara, pero los
científicos del Centro de Astrobiología (CAB) no paran de darle vueltas al
asunto. El Centro está en la sede central del Instituto Nacional de Técnica
Aeroespacial (INTA), en Torrejón de Ardoz, un gran recinto de 400 hectáreas en
las que se diseminan, entre los árboles, unos 100 edificios dedicados a la
investigación científica y tecnológica. Una pequeña ciudad del conocimiento,
cerca de lo que era la base militar estadounidense (ahora base aérea española).
Ahí se investiga la atmósfera, se prueban cohetes y aeronaves, se controlan
satélites o se desarrolla la tecnología aeronáutica y aeroespacial.
En el CAB, formado por el INTA y el Consejo Superior de Investigaciones
Científicas (CSIC), nos recibe su director, el ingeniero aeronáutico Javier
Gómez-Elvira (Madrid, 1957). "La astrobiología es una ciencia realmente nueva",
explica, "y tiene un objetivo bastante ambicioso: estudiar el origen y evolución
de la vida en el universo. Lo que se pretende es comprobar la hipótesis de que
la vida es consecuencia de una evolución natural del universo y de que, en
términos generales, siempre que se dé esa cadena de acontecimientos, puede
aparecer la vida. No quiere decir que llegue a evolucionar a seres humanos, pero
pueden aparecer bacterias y evolucionar en otra dirección".
Se supone que hay un camino entre casi el big-bang y la vida, aventura,
"pero es un camino que hay que encontrar. Hay muchas bifurcaciones: por
ejemplo, pueden formarse sistemas planetarios en los que no surja la vida.
Hay que encontrar ese camino entre el bosque en el que te mueves". En este
centro estudian desde la formación de planetas o de moléculas complejas en
el medio interestelar hasta la bioquímica primordial o las formas de vida en
condiciones extremas, diferentes estadios de ese camino del que habla el
director.
En sus pasillos blancos, silenciosos y luminosos se mezclan las maquetas de
satélites con plantas exuberantes. Uno se imagina que en algún lugar deben
esconder el cuerpo de un alienígena cabezón, mientras los investigadores se
afanan en los laboratorios. En unos estudian la química prebiótica de la que
surgió la vida, en otros las condiciones en otros planetas, en otros
desarrollan instrumentación. Una característica de la Astrobiología es su
carácter multidisciplinar: aquí trabajan astrofísicos, químicos, biólogos,
ingenieros, matemáticos, informáticos... arrojando luz al problema central
desde diferentes perspectivas. "Este centro resulta muy excitante desde un
punto de vista intelectual: aprendes cosas de muchos campos diferentes. No
puedes profundizar en todo, claro, pero recibes muchos inputs de muchas
áreas y es muy enriquecedor", explica Gómez-Elvira.
Javier Gómez Elvira
Una cosa que han aprendido de estudiar nuestro planeta es que la vida puede
desarrollarse en entornos muy desfavorables. "Tenemos un laboratorio de
extremófilos, que viven con pH muy ácido o muy básico, o con niveles de
radiación enormes. En las centrales nucleares hay bacterias que son capaces de
sobrevivir. Hay microorganismos que logran desarrollarse a cientos de metros
bajo el suelo. Sabemos que en condiciones extremas es posible la vida. Eso
quiere decir que en otros planetas con condiciones más extremas que las nuestras
también se puede desarrollar".
Un ejemplo de extremófilos son las bacterias que sobreviven en las ácidas aguas
del río Tinto (Huelva). También estudian la vida en lagunas hipersalinas. "Hay
una luna de Júpiter, Europa, que tiene una capa de hielo en el exterior y agua
en el interior. Se cree que dentro se dan condiciones de alta salinidad. Así que
estudiamos qué organismos pueden vivir en este hábitat".
Ahora están desarrollando instrumental que viajará a Marte en las nuevas
misiones de la NASA: "En noviembre se lanzará la siguiente generación de sondas
Rover de exploración de Marte mucho más sofisticada. Nosotros en España hemos
hecho una pequeña estación meteorológica que va a medir la velocidad del viento,
la presión, la humedad, las temperaturas del suelo y del aire, la radiación
ultravioleta. Esa es nuestra aportación". Para probarla tienen una máquina, como
una enorme olla exprés llena de cables, en la que se simulan las condiciones de
la superficie marciana. El Planeta rojo es de gran interés para los científicos
porque pudo haber vida en algún momento. "Cada poco hay noticias sobre hallazgos
de agua en Marte y cosas así. Algunos artículos dicen que hay agua en el
subsuelo, y alguna misión, como Phoenix, encontró indicios de que había hielo y
se había evaporado. Esto es básico, si no hubiese restos de agua en Marte no
tendría el interés que tiene ahora. Sin agua es imposible la vida".
Hay quien pensará que todos estos esfuerzos no sirven para nada... "La inversión
en ciencia básica puede ser criticada, pero es la base de la ciencia y de la
tecnología. El problema que tiene es que cuando inviertes no sabes cuáles van a
ser los resultados futuros. Cuando se descubrieron los grafenos o los nanotubos
de carbono no se sabía para qué servían, pero ahora están apareciendo multitud
de aplicaciones sorprendentes. Todo eso sale de la ciencia básica".
Entonces ¿hay vida ahí fuera? "No hemos visto aún otra forma de vida, pero eso
no quiere decir que no exista. La probabilidad dice que tiene que existir, pero
no la hemos encontrado aún. Sería una gran casualidad que solo se diese en la
Tierra. Ese es el objetivo de la astrobiología, hallar la vida en otro sitio".
Fuente: elpais.com,
17-7-11
-La
victoria de la materia sobre la antimateria empieza a comprenderse
Durante siglos el ser humano ha dirigido su mirada hacia el
cosmos sin más opción que la de especular sobre su origen. El problema radicaba
en la imposibilidad de ver realmente qué es lo que sucedía en las entrañas del
Universo.
Hoy, los nuevos experimentos disponibles han hecho
posible la recreación, a nivel microscópico, de algunos de los procesos que
han dado origen a todo lo conocido. Esto permite a los investigadores
reconstruir la historia y resolver así algunos de los enigmas de la física.
Uno de ellos, relacionado con el enfrentamiento entre la materia y la
antimateria, puede estar cerca de ser
resuelto, según un estudio publicado en internet por los miembros del
experimento Tevatron en EEUU.
Así como los historiadores buscan pruebas para averiguar
el origen de los conflictos y entender los detalles que llevaron a uno de
los dos bandos a la derrota, los físicos de partículas intentan comprender
los procesos que llevaron a la materia al triunfo sobre la antimateria,
relegada a un lugar secundario de la historia. Ninguna de las fútiles
guerras del hombre ha tenido la repercusión y la importancia de la que
libraron partículas y antipartículas hace
más de 13.000 millones de años. Una lucha por la supervivencia cuyo
resultado determinó la evolución de todo el Universo.
Para estos historiadores del cosmos se han diseñado los
grandes experimentos de partículas, entre los que destaca el Gran Acelerador
de Hadrones (LHC, por sus siglas en inglés), un anillo de 27 kilómetros de
circunferencia construido en la frontera entre Francia y Suiza y que ha
superado en dimensiones y posibilidades al Tevatron, acelerador
estadounidense cuyo anillo apenas alcanza los seis kilómetros. Sin embargo,
ya en sus estertores, el más pequeño de los
dos aún da resultados sorprendentes.
El ojo del LHC. El LHCb es el detector
diseñado para buscar fuentes
de asimetría entre materia y
antimateria en el gran acelerador del CERN.
Los datos analizados en los últimos meses por los científicos de Tevatron,
muestran cómo en un tipo de colisión entre partículas se produce una ligera
tendencia a generar más materia que antimateria. Estos resultados, aún
preliminares, podrían ser confirmados por el LHC en los próximos meses y abrir
así un camino hacia la respuesta a una de las grandes preguntas de la física:
¿por qué y cómo venció la materia?
Para situar el problema, el profesor de investigación del CSIC y jefe de la
unidad teórica del Instituto de Física Corpuscular, José Furtado Valle, se
remonta al origen de todo, el Big Bang. Durante este periodo el Universo no era
más que una sopa de partículas que chocaban entre sí a gran temperatura y "en
este escenario inicial la creación de partículas se daba de forma democrática,
con cantidades iguales de materia y antimateria",
explica Valle. El problema es que, "si no existieran mecanismos que favorecieran
la creación de una de ellas, el Universo sería un plasma simétrico". En esta
situación, partículas y antipartículas se habrían aniquilado mutuamente, con lo
que no existirían estrellas, ni planetas, ni seres humanos. Para los físicos,
está claro que de algún modo se generó menos antimateria, por lo que "tienen que
existir mecanismos que favorezcan la creación de materia", afirma Valle.
Pero el problema no queda ahí. Si bien ya se conocían otras fuentes de
asimetría, "estas no son suficientes para
explicar la actual constitución del Universo", explica Valle. En este
escenario, queda claro que el objetivo es encontrar esas fuentes que ayuden a
generar más materia que antimateria. En este sentido, el descubrimiento de
Tevatron puede ayudar a resolver el problema. "El resultado que han obtenido
-asegura Valle- pese a no estar confirmado, es llamativo, pues es la primera vez
que se detecta una asimetría que va más allá de la teoría estándar".
No es suficiente
Aurelio Juste, investigador del Instituto de Física de Altas Energías,
trabaja en el detector de Tevatron con el que se ha hecho este descubrimiento.
"Esencialmente hemos contado la cantidad de partículas y antipartículas que se
producen después de la colisión de un protón y un antiprotón", explica Juste, "y
hemos observado que hay un exceso de las primeras". Aunque el resultado implica
una fuente de asimetría considerable, Juste reconoce que hacen falta más fuentes
para explicar el triunfo de la materia y que el efecto medido "no es suficiente"
para justificar por sí solo el estado actual del Universo.
Juste asegura que el resultado ha sido obtenido gracias a que han
"explotado unas características únicas" de su detector, "lo que hará
difícil que otros puedan reproducirla". Aún así, el investigador confía en que
la medida será confirmada y apunta al LHC. "Habrá que estar atento a lo que
obtengan", afirma, "porque ofrecerán datos complementarios que podrían confirmar
nuestro resultado".
Pese a que el gran acelerador es de mayores dimensiones que el Tevatron, no
resultará sencillo llegar a los resultados obtenidos por este último. "A pesar
de que nuestro experimento está especialmente dotado para estudiar las
desintegraciones de este tipo de partículas, hay que reconocer que la medida
presentada por Tevatron es difícil de reproducir y será un reto para nosotros
confirmarla o desmentirla", explica Bernardo Adeva, catedrático de Física de la
Universidad de Santiago de Compostela e investigador del LHC. Aún así, Adeva y
su equipo confían en que lograrán hacer medidas
similares "e incluso con mayor precisión" gracias a los datos que se
obtendrán este año, de manera que les permitan "esclarecer definitivamente este
fenómeno".
A pocos meses del apagón definitivo de Tevatron, el mundo de la física se
adentra en una época de mucho movimiento. Los datos que se obtengan del LHC se
sumarán a los de su antecesor estadounidense, con lo que estos historiadores del
cosmos tendrán la posibilidad de reconstruir, partícula a partícula, el pasado
de un Universo que casi pueden tocar con los dedos. Pese al momento en el que se
encuentran, prefieren ser discretos y aseguran que hay que ir paso a paso pues,
según afirma Aurelio Juste, "aún queda mucho por aprender".
Fuente: 16-7-11, publico.es
-EEUU presenta su cohete para ir a Marte
EEUU presentó ayer el diseño del cohete más potente jamás
construido, con el que espera enviar astronautas a un asteroide y a Marte. Se
trata del SLS, siglas en inglés de Sistema de Lanzamiento Espacial, cuyo primer
viaje de prueba sin tripulantes está previsto para finales de 2017. Tras su
nombre algo gris se esconde un gigante que superará en capacidad y potencia a
los Saturn V que protagonizaron, hace más de 40 años, la era dorada en la que la
NASA sorprendía al mundo enviando astronautas a la Luna.
Una recreación del SLS. NASA
"El presidente Obama nos retó a que fuésemos atrevidos y
que soñáramos a lo grande y eso es exactamente lo que estamos haciendo en la
NASA", dijo ayer el jefe de la agencia, Charles Bolden, durante la
presentación del nuevo cohete en el Senado de EEUU.
"Los niños de hoy pueden soñar con pisar
Marte algún día", añadió.
Pero el plan presentado ayer llega con nueve meses de
retraso y no detalla cuándo saldrán las misiones tripuladas a asteroides y
Marte. Su texto tendrá que ser aprobado en el Congreso, donde se ha llegado
a culpar al actual Gobierno de querer enterrar el proyecto.
El nuevo vehículo encarna la apuesta espacial de Barack
Obama, quien por un lado quiere que su país siga siendo el líder
indiscutible de la exploración espacial en las próximas décadas y, por otro,
necesita reducir costes de forma radical debido a la crisis económica.
La respuesta a ese dilema es el SLS, un frankenstein
que reciclará piezas y diseños de los Saturn Vy los
shuttle, los transbordadores que EEUU jubiló este año tras 30 años de
servicio y cuya desaparición deja al país
sin vehículo propio para viajar al espacio.
Mientras la NASA espera que sean empresas privadas las
que lleven a sus astronautas a la órbita baja de la Tierra, donde se
encuentra la Estación Espacial Internacional (ISS), el SLS será el encargado
de batir los récords espaciales fijados por las misiones Apolo.
El SLS tendrá dos versiones. La primera será la más ligera y
podrá llevar al espacio 70 toneladas. La carga de los actuales cohetes más
potentes, como el Delta 4 de EEUU o el Ariane 5 europeo, es inferior a las 25
toneladas. El SLS irá aumentando su potencia hasta poder transportar 130
toneladas, lo que le convertirá en el mayor cohete de la historia. Estas dos
versiones serán respectivamente "un 10% y un 20% más potentes que un Saturn V",
explicó ayer en rueda de prensa William Gerstenmaier, responsable de Exploración
Humana de la NASA. El SLS será casi dos veces más alto que los shuttle,
que tenían 56 metros. La primera de las dos etapas del cohete llevará cinco
motores similares a los que usaban los shuttle. En la segunda, la NASA
usará los J-2X, una versión renovada de los
propulsores que llevaban los Saturn.
En la punta del SLS irá la cápsula Orión, con capacidad para
seis personas. Las Orión fueron diseñadas durante el Gobierno de George Bush
para consumar su proyecto Constellation de regreso a la Luna. El
Gobierno de Obama las canceló primero, después las recuperó como un mero sistema
de escape de la ISS en caso de emergencia y, hace unos meses, las restituyó como
vehículos para llevar astronautas, esta vez a asteroides o Marte.
Tras la primera misión de prueba y sin tripulantes en 2017,
el primer cohete tripulado despegará en 2021. Más allá, no hay nada oficial.
La NASA ha señalado en varias ocasiones que su objetivo es visitar un
asteroide en 2025 y llevar astronautas a Marte en la década de 2030, pero esas
fechas u otras aproximadas no constan en ningún documento oficial.
Diseño polémico
La presentación del SLS llega tarde. En diciembre de 2010,
el Congreso dio a la NASA tres meses para presentar un nuevo cohete con el que
hacer realidad sus planes de exploración espacial más allá de la ISS. Nueve
meses después y tras encargar a una consultora privada un nuevo análisis de
los costes del proyecto, la NASA presentó ayer el proyecto que, según la
agencia, será más barato de lo que se esperaba. Según el senador demócrata
Bill Nelson, que presentó el SLS en el Senado junto a Bolden y la republicana
Kay Hutchison, el programa completo hasta 2017, incluidos el desarrollo de las
cápsulas Orión, costará 18.000 millones de dólares (13.00 millones de euros).
Nelson no aportó el coste total, que alcanzaría los 26.000 millones de euros
según fuentes de la NASA citadas por AFP. Pero, según otros informes internos
de la agencia que publicó el Wall Street Journal, el coste total de
desarrollo del cohete podría llegar a los 63.000 millones de dólares hasta
2025, lo que llevó a varios senadores a culpar a Obama de querer tumbar el
proyecto inflando su coste de forma "salvaje".
El SLS es la tercera pieza del gran puzzle de la NASA, según Hutchinson.
Las otras dos serán los taxis privados con los que EEUU y otros países irán a
la ISS en unos años y el telescopio espacial James Webb, cuyos costes
han aumentado considerablemente, lo que ha retrasado su fecha de lanzamiento.
Fuente: 15-7-11, publico.es
-El Hespérides llega de su vuelta al
mundo con trabajo científico para 30 años
La ministra Cristina Garmendia,
bajando del buque Hespérides. | Efe
Alejandro Malaspina regresó de su expedición hace más de 200 años con
un tesoro de ocho millones de pesos que en aquel momento representaba
el 20% de las reservas del Banco de San Carlos, el entonces Banco de
España. Carlos Duarte, el director científico de la expedición
Malaspina 2010 que acaba de terminar, asegura que el tesoro científico
que ellos traen no es menos valioso para España.
"La diferencia es que nosotros guardamos ese tesoro en arcones
congeladores a 80 ºC, en botecitos de muestras y en memorias
informáticas", aseguró Duarte poco después de que el Buque
Oceanográfico Hespérides atracara en el arsenal militar de Cartagena
(Murcia). "Tenemos 120.000 muestras a bordo y más de 6.000 gigabites
de datos".
El buque y su tripulación militar llega a puerto
tras una vuelta al mundo de siete meses de duración y 32.000
millas náuticas recorridas. La tripulación científica
coordinada por el CSIC, en cambio, ha ido rotando por turnos de tres
semanas a lo largo de toda la navegación.
Acto multitudinario
El acto de regreso de la expedición ha estado presidido
por la ministra de Ciencia e Innovación, Cristina Garmendia, y ha contado
con las intervenciones del presidente del CSIC, Rafael Rodrigo, el
investigador del CSIC y coordinador del proyecto, Carlos Duarte, y el
comandante del buque BIO Hespérides, Juan Antonio Aguilar.
El Hespérides, un barco de la Armada Española,
partió el 15 de diciembre de 2010 de Cádiz y en su derrota ha
realizado paradas en Río de Janeiro (Brasil) y Ciudad del Cabo
(Sudáfrica). Tras Perth (Australia), pasó por Sídney (Australia), Auckland
(Nueva Zelanda), Honolulú (Hawai), y Cartagena de Indias (Colombia). Otro
buque, el Sarmiento de Gamboa, perteneciente al CSIC, regresó en abril
procedente de Santo Domingo (República Dominicana), donde llegó tras haber
explorado el Atlántico durante casi dos meses.
"Es un orgullo para mí porque hemos demostrado que
España puede liderar a la comunidad científica internacional", dice
Duarte, cuyas investigaciones han sido posible gracias al patrocinio de la
Fundación BBVA. "Pero también me preocupa que tengamos la tentación de
relajarnos y pensar que el trabajo ya ha terminado. Nos queda
trabajo para cinco, 10 o 30 años".
Cualquiera que conozca los detalles de la expedición
original sabrá que la ruta ha sufrido variaciones. Pero
la moderna Malaspina, que conmemora el 200 aniversario de la muerte del
marino, es un homenaje del que Malaspina estaría orgulloso y que repara en
parte el daño que le hizo el gobierno de Godoy por las críticas a la
gestión de las Américas que el marino hizo a su regreso a España tras la
expedición.
Fuente: elmundo.es, 14-7-11
-El último dinosaurio
Un equipo de investigadores de la Universidad de Yale acaba de hacer
público el descubrimiento del que fue
uno de los últimos dinosaurios vivos justo antes del impacto de un gran
meteorito hace 65 millones de años. El hallazgo indica que los
dinosaurios prosperaban antes del impacto y asesta un duro golpe a la idea
de que se extinguieron gradualmente mucho tiempo antes y debido a otras
causas.
Se trata del cuerno fosilizado de un ceratopsio (un dinosaurio
parecido al famoso Triceratops) hallado en Montana hace ya un año. Pero lo
más destacado es que el fósil
ha aparecido apenas cinco milímetros por debajo del límite K-T, la
fina capa oscura de sedimentos (ricos en iridio, metal escaso en la Tierra
y muy abundante en muchos meteoritos) que marca la frontera entre los
periodos Cretácico y Terciario y que coincide con la extinción de los
dinosaurios hace 65 millones de años
De hecho, por encima del límite K-T ya no existen fósiles de dinosaurio,
lo que indica su súbita desaparición.
Desde que la teoría del impacto fue propuesta por primera vez hace ya más de
treinta años, muchos científicos, la mayoría, se han ido sumando a ella. Sin
embargo, la aparente falta de fósiles de dinosaurios no avianos (tiranosaurios,
triceratops, picos de pato, etc) en los primeros tres metros por debajo del
límite K-T ha llevado a otros paleontólogos a concluir que cuando el meteorito
cayó, los dinosaurios ya habían desaparecido.
Es decir, que se extinguieron gradualmente por otras causas y mucho antes del
impacto.
"Este descubrimiento - afirma Tyler Lyson, autor principal del estudio que se
ha publicado en Biology Letters- sugiere que esta anomalía de los tres metros
estériles no existe. El hecho de que este especimen estuviera tan cerca del
límite K-T indica que por lo menos algunas especies de dinosaurios se
encontraban bien antes de la caída del meteorito".
A pesar de que Lyson y su equipo no han podido determinar la edad exacta del
fósil,
los
datos indican que debió vivir entre algunas decenas de miles y unos
pocos miles de años antes del demoledor impacto. Lo que le convierte en
el dinosaurio más cercano que tenemos al momento en que se produjo la
catástrofe.
Al principio, los descubridores del fósil pensaban que los restos se
encontraban a cerca de un metro por debajo del límite K-T, pero pronto se
dieron cuenta de que se encontraba pegado a esa frontera (y por lo tanto al
momento de la caída del meteorito).
Fuente: 13-7-11
-Nuevo estudio sobre los riesgos para la
salud del mar
Se han difundido los resultados de un estudio según el cual
se descubrieron virus en casi el 40 % de más de 1 400 muestras de agua recogidas
en zonas de baño litorales y de interior de 9 países europeos. La investigación
es fruto del proyecto Virobathe («Métodos para la concentración y la detección
de adenovirus y norovirus en aguas de baño europeas con referencia a la revisión
de la Directiva relativa a la calidad de las aguas de baño 76/160/CE [Comisión
Europea]»), financiado conforme a la actividad transversal «Investigación en
apoyo de las políticas» del Sexto Programa Marco (6PM) de la UE con 2,25
millones de euros. Los hallazgos, publicados en la revista Water Research,
sugieren que la presencia de adenovirus y norovirus infecciosos en las muestras
de agua «podría plantear un riesgo para la salud».
Pese que las concentraciones son bajas, los investigadores consideran que es
necesario realizar controles para cerciorarse de la presencia de microorganismos
en aguas recreativas, sobre todo en épocas óptimas para su proliferación, como
sucede tras periodos de fuertes precipitaciones. A diferencia de lo que ocurre
con las bacterias, como el enterococo intestinal y Escherichia coli, para las
que la Directiva europea relativa a la calidad de las aguas de baño establece
niveles máximos, para los virus no existe ningún límite concreto. La normativa
únicamente recomienda la realización de investigaciones científicas para
determinar parámetros de referencia y métodos fiables de detección.
El proyecto Virobathe, en el que participaron 16 organizaciones de investigación
de Alemania, España, Francia, Italia, Chipre, Polonia, Portugal, Países Bajos y
Reino Unido, sirvió para evaluar la presencia de adenovirus (virus con ADN o
ácido desoxirribonucleico) y norovirus (que poseen ARN o ácido ribonucleico y
causan gastroenteritis) en 1 410 muestras de agua de baño, tanto marina como
dulce. En España, por ejemplo, científicos de la Universidad de Barcelona (UB)
examinaron las playas de Gavà.
Los resultados globales revelan que 553 muestras contenían virus (el 39,2 % del
total), sobre todo adenovirus (en el 36,4 % de los casos, frente al 9,4 % con
norovirus), y más en aguas dulces que saladas.
También se comprobó en una pequeña selección de muestras que una cuarta parte de
los microorganismos tenían capacidad de infectar. Los adenovirus están
relacionados con gastroenteritis en niños, algunas infecciones respiratorias,
otitis y conjuntivitis, aunque gran parte de la población ya ha estado en
contacto con ellos y es resistente a la infección de la mayoría de las cepas.
«En principio los adenovirus no suponen necesariamente un riesgo significativo
para la población (si son cepas comunes que ya han infectado a la mayor parte de
las personas durante la infancia y permanecen en concentraciones bajas)», señaló
Rosina Girones, directora del Laboratorio de Virus Contaminantes de Agua y
Alimentos de la UB y coautora del trabajo.
Tras lluvias intensas, indican los autores, los niveles de virus tardan más en
volver a ser aceptables que los de las bacterias. Además, muchas comunidades
víricas son más estables que las bacterianas en los tratamientos de aguas
residuales, y resisten más en el agua de mar.
En referencia a los resultados del estudio, la Dra. Girones añadió: «Muestran
que ya tenemos una técnica fiable y fácil de estandarizar (PCR cuantitativa)
para detectar y cuantificar virus en aguas de baño, lo que permite estimar la
contaminación fecal y la calidad de las aguas, además de que no existe una
correlación clara entre los niveles de los indicadores bacterianos que se citan
en la normativa y la presencia de los virus estudiados.»
Los datos obtenidos también apoyan el hecho de que la cuantificación de
adenovirus humanos, que se excretan todo el año en todas las áreas geográficas y
se encuentran en el 100 % de las muestras de agua residual, se puede utilizar
como un indicador de contaminación viral en el agua.
Fuente: CORDIS, 12-7-11
-Primeras imágenes de un pez usando herramientas para alimentarse
Pez golpeando una almeja en una roca
La revista «Science»
publica en su edición digital las que son, según asegura la publicación,
las primeras fotos de un pez usando herramientas en su hábitat natural para
alimentarse. Las instantáneas muestran al animal cogiendo una almeja con la
boca y golpeándola contra una roca para abrirla. El buzo profesional
Scott Gardner oyó un extraño sonido mientras exploraba la
Gran Barrera de Coral de Australia y nadó hacia él para averiguar de
dónde provenía.
Lo que se encontró fue un pez de manchas negras (Choerodon
schoenleinii), de la familia Labridae, que tenía en su poder una
almeja y la golpeaba con fuerza contra la superficie de un coral. Una vez
que la cáscara cedió, el pez succionó el interior del bivalvo, escupió los
fragmentos de cáscara, y se fue. Por suerte, Gardner tenía una cámara en sus
manos y pudo captar las
primeras fotos de un pez usando herramientas.
El
uso de instrumentos, una de las características distintiva de la
inteligencia humana, se ha dado en una amplia variedad de animales
recientemente. Algunos monos utilizan rocas como «martillo», de un material
y peso apropiado, para rajar semillas y frutas. Además de los primates,
muchos animales, incluyendo delfines, elefantes e incluso los pulpos, han
mostrado este tipo de comportamiento.
El pez de la imagen sabía claramente lo que hacía, ya que estos peces se
caracterizan por ser
muy «comilones» y por ser habilidosos, por lo que es sorprendente que
su comportamiento haya permanecido desconocido, hasta ahora.
Fuente: abc.es, 11-7-11
-50 años de la NASA: arte muy especial
El Museo Smithsonian del Aire y del Espacio de Washington exhibe la colección
de arte de la NASA con motivo de su 50 aniversario
Fue un pequeño paso para el arte pero un gran salto para
la NASA, podría decirse, parafraseando las
palabras del astronauta Neil Armstrong, sobre los orígenes de la
colección de arte de la agencia espacial.
Siete años antes de que Armstrong llegara a la Luna, la
Administración Nacional de Aeronáutica y del Espacio de Estados Unidos
(NASA, en sus siglas en inglés) daba sus primeros pasos en el mundo del arte
al lanzar, en 1962, un programa artístico para documentar la historia de la
agencia espacial.
El Museo Smithsonian del Aire y de Espacio de Washington
acoge hasta el próximo 9 de octubre la exposición NASA/Arte: 50 años de
exploración. La muestra cuenta, a través de 70 obras de arte, la historia de
los últimos 50 años de la agencia espacial y permite entender el impacto
que ha tenido la exploración del espacio en la imaginación de los artistas.
El administrador de la NASA, James Webb, tuvo la idea de
crear la colección de arte de la agencia espacial después de ver el retrato
que el pintor Bruce Stevenson realizó del astro-nauta Alan Shepard, mirando
al cielo, vestido con su traje espacial y con el casco bajo el brazo.
Pero el administrador de la NASA no quería una galería de
retratos. Quería ir más lejos. Quería explorar nuevos horizontes artísticos
para conmemorar acontecimientos futuros y pasados de la exploración
espacial. Consideraba que las obras que realizaran los artistas
seleccionados podrían tener un gran valor testimonial para futuras
generaciones y contribuir a la historia del
arte. En mayo de 1963, la NASA seleccionó, con la ayuda de la Galería
Nacional de Arte, a ocho artistas para documentar el último vuelo del
programa Mercury, el primer programa espacial tripulado de Estados Unidos.
Rauschenberg o Paik
En los últimos 50 años, la colección de arte de la NASA ha
ido creciendo y ahora cuenta con más de 3.000 obras de artistas como
Andy Warhol, Robert Rauschenberg, Norman
Rockwell, Nam June Paik y Annie Leibovitz, entre otros.
Bert Ulrich, comisario del programa de arte de la NASA,
explica que la agencia espacial "ha trabajo a menudo con comisarios y expertos
en arte para que le ayudaran a elegir las obras. En el nacimiento del programa",
explica, "la Galería Nacional de Arte jugó un papel decisivo en ayudar a la NASA
a seleccionar e invitar a artistas. Desde entonces", añade, "museos como el
Guggenheim o el Hirshhorn y expertos en arte han ayudado a la NASA en sus
selecciones".
Cuando se le pregunta cuál es la reacción más habitual de los
artistas a la propuesta de la agencia espacial de participar en su programa
artístico, Ulrich lo resume con una sola palabra: inspiración.
"Los artistas obtienen muy poco dinero por el
encargo (en la actualidad, unos 2.500 dólares), así que participan en el
programa de arte de la NASA porque están entusiasmados con la exploración
espacial", añade el comisario.
La NASA da a los artistas carta blanca a la hora de crear su
obra. No les impone ni el medio que tienen que utilizar, ni el tamaño de la
obra, ni el tema que deben tratar. Muchos aceptan inmediatamente el encargo.
Algunos incluso repiten, como Rauschenberg y Rockwell. Otros se lo piensan y
acaban rechazando la oferta, como Andrew Wyeth.
Y otros se niegan en redondo a participar, como Thomas Hart Benton, al
que no le inspiraba pintar "un maldito cohete".
Para realizar sus bosquejos, los artistas tienen un acceso
privilegiado a las bambalinas de la NASA antes de un lanzamiento espacial.
Pueden visitar las instalaciones del Centro Espacial Kennedy, ver a los
ingenieros y técnicos trabajar contra el reloj, retratar a los astronautas horas
antes de su vuelo espacial y asistir al lanzamiento de los transbordadores.
El ilustrador Norman Rockwell incluso convenció a los
directivos de la NASA para que le prestaran un traje espacial para pintar con el
mayor realismo posible su obra titulada Grisson y Young, en la que aparecen dos
técnicos de la NASA ajustando los trajes de los
astronautas John Young y Gus Grisson antes del primer vuelo del programa
Gemini en marzo de 1965. Rockwell también rindió homenaje a todo el equipo de
ingenieros, técnicos, científicos, personal de la NASA y funcionarios que
hicieron posible con sus esfuerzos el éxito de la misión del Apollo 11 en la
obra Behind Apollo 11.
Artistas como Paul Calle y Mitchell Jamison retrataron a los
astronautas enfundados en sus trajes espaciales, una imagen que evoca a la de
los caballeros medievales con sus armaduras. Y Annie Leibovitz fotografió a
Eileen Collins, la primera mujer piloto y la primera mujer comandante de un
transbordador espacial.
La llegada del hombre a la Luna fue el acontecimiento que más
impactó a los artistas. El momento en el que Armstrong pisó el satélite fue
inmortalizado por Andy Wahrhol, Franklin McMahon,
Paul Calle, Nam Juke Paik y Michael y Micah Dudash. Rauschenberg
participó en 1969 en el programa de arte de la NASA y lo que vio quedó plasmado
en su serie de litografías y serigrafías titulada Stoned Moon. Las lanzaderas
espaciales, los transbordadores y los cohetes muestran la magnificencia de unas
máquinas capaces de hacer realidad el sueño del hombre de explorar el universo.
Otros artistas, como James Wyeth, prefieren centrarse en los
detalles. En su obra Gemini Lauch Pad, Wyeth destaca la bicicleta que utilizaban
los técnicos de la NASA para ir hasta la lanzadera del Gemini.
La tragedia también sirve de fuente de inspiración. Greg Mort,
Zigi Ben Haim y Jason Middlebrook rindieron homenaje a los astronautas que
fallecieron en los accidentes de las misiones del Apollo 1 en 1967, del
Challenger en 1986 y del Columbia en 2003. Chakaia Booker, de hecho, utilizó el
neumático de una nave espacial para crear una
escultura en forma de estrella negra, con la que la artista afroamericana
quiso recordar a los astronautas que murieron a bordo del transbordador Columbia.
Por su parte, Chayton Pond yuxtapone la realidad y la ciencia-ficción al
provocar un encuentro intergaláctico entre el transbordador espacial Enteprise y
la nave insignia Starship Enteprise de Star Trek. Y el músico Moby explora la
posibilidad de que haya vida en otros planetas con los dibujos de unos
simpáticos marcianitos en Vida en Marte.
Mucho arte
El programa de arte de la NASA, en todo caso, se extiende más
allá de las artes plásticas: la música, la moda, las videoinstalaciones, la
prosa e incluso la poesía participan del
homenaje al espacio y los hombres y mujeres que lo han conquistado.
La NASA colaboró con el museo Guggenheim en la
videoinstalación Moon is the oldest TV (La Luna es la televisión más antigua) de
Nam June Paik. William Wegman, por su parte, realizó un tríptico con las
fotografías de sus perros Chip y Batty en trajes espaciales. El diseñador de
moda Stephen Sprouse se inspiró en la misión del Mars Pathfinder a la hora de
diseñar una línea de ropa.
En cuanto al mundo musical, la saxofonista de jazz y
compositora Ira Bloom festejó el lanzamiento del Discovery y la canción Way up
there de la cantante Patty LaBelle, nominada a los Premios Grammy, sirvió de
consuelo e inspiración para las familias y los trabajadores de la NASA
después del accidente del Columbia. Y
también hay poesías inesperadas: el escritor Ray Bradbury, autor de Fahrenheit
451 y Crónicas marcianas, compuso una oda a la agencia, en la que comienza
preguntándose "¿Por qué existe la NASA? ¿Por qué existimos nosotros?".
Mientras no pueda participar en misiones espaciales, la
visión del artista sigue siendo, sin embargo, limitada. El astronauta Michael
Collins cree el artista debería unirse al astronauta en el espacio, "mirar por
la ventana y disfrutar de la imponente vista
para ser capaz de registrar esta experiencia impresionante", según
señala en el catálogo de la exposición. Ulrich duda de que, en un futuro
cercano, los artistas que participan en el programa de arte de la NASA puedan
viajar al espacio. "Pero quizá los nuevos modos de transporte y el desarrollo
del turismo espacial permitirán a un artista participar en una misión", añade
el comisario del programa de arte de la agencia estadounidense, abriendo una
puerta al arte puramente espacial.
Fuente: publico.es, 10-11-11
-Soluciones tecnológicas contra el fuego
Con las altas temperaturas llega el
peligro de incendio a la Península y, aunque parece que cada año aumenta el
riesgo de que alguno se desencadene, también crece la tecnología aplicada a la
prevención y «a coger las cosas a tiempo»; cuando las llamas aún se hallan en
pequeñísimos focos. Es el caso de Faedo, el sistema de detección de incendios
desarrollado por Indra en su Centro de Excelencia de Seguridad de León y
cofinanciado por la Junta de Castilla y León a través de la Agencia de
Inversiones y Servicios. La diferencia con respecto a «la multitud de
herramientas utilizadas por los centros de defensa del fuego que ofrecen datos
muy valiosos es que ofrece una información integrada. Es un verdadero sistema de
apoyo a la toma de decisiones», explica Fernando Aller, responsable del
proyecto.
El
sistema, que permite ver qué ocurre en el campo tanto de día como de noche,
con niebla o humo, consta de puestos de vigilancia y un centro de control
al que llega la información a través de una red de comunicaciones.
Los
puestos aprovechan las instalaciones del terreno, si hay torres de
comunicaciones se montan sobre ellas. Para «mirar» el bosque se ubican: una
cámara térmica, que puede detectar un foco de incendio de un metro cuadrado
a cinco kilómetros de distancia y capta en blanco y negro los puntos
calientes; una o varias cámaras visibles (convencionales, pero con más
calidad) para detectar columnas de humo, con un alcance de 20 km. Las
imágenes se descomponen en los tres espectros de color para analizarlos por
separado y descartar fenómenos como nubes bajas, etc., y una estación
meteorológica para obtener datos de temperatura, velocidad y dirección del
viento.
Módulo forense
De aquí se lanza la información por la red de comunicaciones, que puede estar
integrada con alguna de emergencia ya existente o ser nueva, e independiente de
las de las compañías para que las averías o pérdidas de servicio no influyan. Un
sofisticado software analiza las imágenes en tiempo real y muestra los focos de
incipientes fuegos sobre una cartografía digital en las pantallas del centro de
control o en dispositivos móviles o, incluso, en centros de operadores remotos:
«El sistema puede incorporar un simulador capaz de predecir la evolución del
incendio. Se tienen en cuenta factores como la dirección y velocidad del viento,
la orografía (pendiente, presencia de agua), la temperatura…», afirma Aller.
Gracias al seguimiento vía satélite se pueden diseñar los itinerarios óptimos
para los bomberos y, a través de la combinación con el módulo forense, se
localiza exactamente el punto donde se declaró el incendio para determinar con
exactitud sus causas.
Una red compacta que aun así es capaz de romperse siguiendo los parámetros de la
inteligencia distribuida. Es decir, que si existe una avería en un puesto, el
resto de la red sigue funcionando. Y para quien piense en un campo lleno de
puestos de control, hay que aclarar que gracias al largo alcance de las cámaras,
en zonas de valle abiertos un único puesto de control puede supervisar miles de
hectáreas. De hecho, las primeras pruebas se están llevando a cabo con dos
puestos: uno de imagen térmica en la Fundación Santa Bárbara, en La Ribera de
Folgoso, (León), y el segundo se «está instalando en una ubicación cercana al
Puerto de El Manzanal y terminará antes del final de la campaña», termina Aller.
Fuente: larazon.es, 9-7-11
-La explosiones estelares podrían explicar
la presencia de polvo en el universo primigenio
Comprender el origen del polvo interestelar es una
cuestión clave en el estudio del Universo. Los átomos más pesados, tales
como el carbono, el silicio, el oxígeno o el hierro, no se produjeron
durante el Big Bang, por lo que su origen debe estar en algún fenómeno
posterior.
Aunque estos átomos sólo constituyen una pequeña fracción
de la masa del Universo y de nuestro Sistema Solar, son los principales
componentes de los planetas rocosos como la Tierra y de la vida en sí: gran
parte de los átomos de nuestro cuerpo fueron algún día polvo interestelar.
No obstante, todavía no se comprende con exactitud cómo
se genera este polvo, especialmente en el Universo primigenio. Los
resultados de las observaciones de Herschel podrían constituir una magnífica
pista. Las teorías actuales sugieren que gran parte del polvo
interestelar se genera por la condensación de los gases calientes que
expulsan las gigantes rojas que podemos observar en el Universo actual, de
forma similar a cómo se genera el hollín en una chimenea.
Sin embargo, este tipo de estrellas no existía en el
Universo primigenio, aunque sí había grandes cantidades de polvo.
Herschel ha demostrado que las supernovas también pueden ser una magnífica
fuente de polvo interestelar. Los granos de polvo podrían ser el resultado
de la condensación de los residuos gaseosos de la explosión, al enfriarse
durante su expansión.
La supernova 1987A
vista por Herschel y por el Hubble
En el Universo primigenio había un gran número de supernovas, por lo que esta
teoría podría ayudar a comprender las primeras etapas de la evolución del
Universo.
“Estas observaciones son la primera prueba directa de que las supernovas
pueden generar el polvo interestelar que detectamos en las galaxias más
jóvenes”, explica Göran Pilbratt, Científico del Proyecto Herschel para la ESA.
“Es un resultado muy importante, que
demuestra una vez más las ventajas de contar con una ventana abierta al
Universo”
Fuente: ESA, 8-7-11
-¿Quién tomará el
relevo del "shuttle"?
Ken Bowersox, uno de los astronautas más
experimentados de la NASA.| Isaac Hernández
Varias compañías privadas norteamericanas ambicionan con
tomar el relevo del transbordador espacial, pero la única manera de cubrir
el vacío que dejará el 'shuttle' en los próximos meses será con la nave rusa
'Soyuz', una alternativa criticada por varios astronautas como Neil
Amstrong y John Glenn por la "falta de seguridad".
"Nunca es una decisión sabia jugar a la ruleta rusa en el
espacio", asegura incluso en ex director del Centro de Naves Tripuladas de
la NASA, Christopher Kraft, en una carta dirigida al administrador de la
agencia espacial Charles Bolden.
Pese a los lamentos de última hora, la NASA ha
previsto contar con el 'alquiler' del 'Soyuz' (de 56 a 63 millones de
dólares por astronauta) mientras se ultima el desarrollo y las
pruebas de una nueva nave tripulada 'made in USA' que, en el mejor de los
casos, no estaría lista hasta el 2014.
Alternativa rusa
Hasta el 2015, la agencia espacial ha firmado
entre tanto dos contratos con SpaceX (por 1.600 millones de dólares) y con
Orbital Sciences (1.900 millones) como parte del programa de
Servicios de Transporte Comercial en Orbita (COTS), diseñado en principio
para transportar cargas sin tripulación hasta la Estación Espacial
Internacional.
Elon Musk, pionero de internet y fundador de SpaceX, confía
en poder reducir el 'pasaje' por astronauta a 20 millones de dólares, en la
versión modificada de la nave Dragon, actualmente en desarrollo en el cuartel
general de la compañía en Hawthorne (California).
La nave 'Dragon' ha superado ya su primer test y fue capaz de
completar dos órbitas completas cuando fue lanzada el pasado mes de diciembre
por el Falcon 9, el cohete 'estrella' de Space X. El 'Dragon' necesitará
sin embargo probar en un nuevo vuelo si está o no preparada para acoplarse con
la Estación Espacial Internacional (algo que ponen en duda precisamente
los cosmonautas rusos, que no acaban de ver con buenos ojos la 'privatización'
del espacio).
Plantilla experimentada
Para dar aún mayor credibilidad a su empresa –que
cuenta ya con 1.400 trabajadores- Elon Musk ha 'fichado' como vicepresidente a
uno de los astronautas más experimentados de la NASA, Ken Bowersox, que
viajó cinco veces en el 'shuttle', completó dos paseos espaciales y fue máximo
responable de seguridad tras el desastre del Columbia.
"Nosotros nos beneficiamos de la experiencia de la NASA y
ellos se benefician de la eficiencia de SpaceX", asegura Bowersox en su nuevo
cometido. "Es una relación muy provechosa y mucho más fructífera. Así podemos
realmente avanzar hacia metas concretas".
Fuente: elmundo.es, 8-11-11
-
-Descubiertas dos
nuevas lunas de Júpiter
El astrónomo Rafael Bachiller nos descubre en esta serie los fenómenos más
espectaculares del Cosmos. Temas de palpitante investigación, aventuras
astronómicas y novedades científicas sobre el Universo analizadas en
profundidad.
El hallazgo reciente de dos nuevas lunas de Júpiter eleva
a 65 el número total de satélites conocidos en torno al gigante gaseoso.
Júpiter mantiene así el récord como el planeta con el mayor número de lunas
identificadas en el sistema solar, le sigue de cerca Saturno con 62
satélites confirmados.
S/2010 J1 y S/2010 J2
Observaciones recientes han confirmado la existencia de
dos nuevas lunas en torno a Júpiter. El descubrimiento ha sido hecho público
mediante un 'telegrama' de la Unión Astronómica Internacional que puede ser
consultado aquí .
El descubrimiento se remonta al pasado 7 de spetiembre
cuando, utilizando el telescopio Hale de 5 metros en Monte Palomar
(California), los astrónomos Jacobson, Brozovic, Gladman y Alexander
realizaron unas primeras observaciones en las que aparecían
indicios de un nuevo satélite en torno a Júpiter. La noche siguiente,
Christian Veillet dirigió el espejo de 4-m del telescopio
Canadá-Francia-Hawai (CFHT) hacia el gigante gaseoso y no sólo confirmó el
hallazgo del equipo de Jacobson, sino que descubrió otra luna aún menor. Los
descubrimientos se realizaron en un momento especialmente favorable para las
observaciones, cuando Júpiter se encontraba en una oposición particularmente
cercana a la Tierra. Observaciones posteriores han permitido confirmar la
existencia de las lunas y determinar algunas de sus características.
Las dos lunas han sido designadas provisionalmente como
S/2010 J1 y S/2010 J2. Las observaciones indican que sus tamaños son de
2 km y 1 km, respectivamente, y que sus órbitas son altamente irregulares
(muy excéntricas y muy inclinadas). Ambas lunas orbitan en una zona exterior del
sistema joviano y siguen un movimiento retrógrado, esto es, el sentido de su
movimiento es contrario al del giro del planeta y al de las órbitas de los
mayores satélites interiores. En este enlace de la
NASA puede consultarse una tabla
comparativa de sus parámetros.
Todo ello indica, pues, que estos pequeños satélites son
cuerpos que quedaron atrapados en el enorme campo gravitatorio del gigante
gaseoso en un tiempo remoto, quizás poco después de la formación del propio
sistema solar, cuando el número de fragmentos sobrantes de la formación de los
planetas eran muy abundantes en el medio interplanetario.
65 lunas
Los cuatro mayores satélites de Júpiter (Ío, Europa,
Ganímedes y Calisto) fueron descubiertos por Galileo en 1610. Estos fueron los
primeros cuerpos del sistema solar que fueron observados orbitando en torno a un
cuerpo diferente del Sol y la Tierra. Júpiter con estas grandes cuatro lunas
tiene el aspecto de un sistema solar en miniatura, lo que transmitió al
astrónomo pisano una gran confianza en la teoría heliocéntrica de Copérnico.
Las cuatro lunas galileanas son muchísimo mayores que todas
las otras lunas jovianas. Entre las cuatro poseen una masa que es 300
veces mayor que la de todos los otros satélites juntos. Estos cuatro
grandes satélites son esferoidales, con órbitas regulares y aproximadamente
circulares que siguen el mismo sentido de la rotación del planeta.
Similares a los satélites de Galileo, aunque muchísimo
menores, hay otros cuatro satélites más interiores: Amaltea, Metis, Adrastea y
Tebe. Este grupo (conocido colectivamente como grupo de Amaltea) tiene pues, al
igual que el grupo galileano, un origen estrechamente ligado a la formación del
planeta.
Sin embargo, los otros 57 satélites conocidos de Júpiter
(incluyendo los dos descubiertos ahora) son pequeños cuerpos que orbitan a
distancias mucho mayores del planeta, siguiendo movimientos a menudo retrógrados
e irregulares. Se piensa que la mayor parte de estas lunas fueron asteroides que
pasaban cerca de Júpiter en los momentos iniciales de su formación y que fueron
capturados en órbitas heterogéneas.
Muchos de estos asteroides se rompieron en pedazos
menores por las tensiones originadas por la captura o mediante colisiones con
otros cuerpos. Cada una de estas fragmentaciones dio lugar a una
familia de satélites similares de las que hay identificadas varias. Scott
Sheppard, uno de los mayores especialistas del mundo en los satélites de
Júpiter, ha realizado una compilación de tales familias en
esta tabla.
Récord de satélites
Con 65 satélites conocidos, Júpiter consigue un nuevo récord
en número de lunas. Le sigue de cerca Saturno con 62 satélites identificados.
Después viene Urano con 27 y Neptuno con 13. Si añadimos los dos de Marte y la
Luna (no se conocen satélites ni de Mercurio ni de Venus), resulta que
entre los ocho planetas del sistema solar suman 170 satélites
confirmados.
Naturalmente los planetas enanos (entre los que se encuentran
Plutón y Eris) también pueden tener satélites y, de hecho, se conocen, seis
satélites de esta clase.
Se da la circunstancia de que algunos de los
satélites de los ocho grandes planetas son mayores que los planetas enanos.
De hecho, de encontrarse orbitando directamente en torno al Sol, las lunas
galileanas debieran ser clasificadas como planetas enanos.
También interesante
En la designación S/2010 J2, la letra S significa que se
trata de un satélite, la cifra 2010 es el año del descubrimiento y J2 que es
el segundo descubrimiento realizado en Júpiter en ese año. Este tipo de
designaciones son provisionales hasta que los nuevos satélites reciban un
nombre definitivo, que suele ser mitológico y relacionado con el dios Júpiter.
Además de estas dos lunas, todavía quedan por nombrar definitivamente 12 de
las lunas descubiertas en el año 2003.
El descubrimiento de los satélites de Júpiter ha
ido de la mano del desarrollo tecnológico. Desde 1610, no se
descubrió ningún satélite hasta 1892 cuando se identificó Amaltea. Hasta 1951
se descubrieron otras siete lunas y una más en 1970. Las naves Voyager,
gracias a la exploración espacial, permitieron descubrir otras tres en 1979,
pero no se produjo ningún otro descubrimiento hasta 1999 en que se identificó
otra. Entre los años 2000 y 2003, el equipo de Sheppard y Jewitt (Univ. de
Hawai) utilizando grandes telescopios en tierra logró descubrir 45 lunas
adicionales.
El diámetro de la mayor de las lunas exteriores apenas
alcanza los 9 kilómetros. No es imposible que aún queden por descubrir
numerosas lunas con tamaños menores de un kilómetro.
Fuente: elmundo.es, 7-11-11
-Los medicamentos contaminan los ríos tanto
como las industrias
El río Ebro, a su paso por Zaragoza, en una
de las zonas más afectadas
por la contaminación química-
Uly Martin
Las culpables de la contaminación del agua dulce en
Europa son ahora los residuos fármacos que desechan las ciudades. Es la
conclusión a la que han llegado los principales investigadores
internacionales en las
jornadas de conservación fluvial que se han
desarrollado esta semana en la Fundación BBVA.
Damiá Barceló, integrante del Consejo Superior de Investigaciones
Científicas y director del
Instituto Catalán de Investigaciones del Agua
(ICRA), señala que "cerca del 20% de los ciudadanos europeos todavía tira
medicamentos al inodoro, en lugar de llevarlos a las farmacias". Son
antiinflamatorios, betabloqueantes, antibióticos, ansiolíticos, entre otros.
"La contaminación industrial ha bajado mucho porque muchas empresas se han
trasladado a China y Japón o bien porque están cumpliendo con las
normativas", analiza el investigador. Sin industrias a las que culpar, los
responsables en evidencia son los ciudadanos porque, según Barceló, ha
aumentado notablemente el consumo de fármacos de uso humano y veterinario.
Se trata de los llamados contaminantes emergentes, "un tipo inesperado para
los que no existe regulación y que, en general, escapan a las depuradoras",
subraya el científico catalán. "El problema no afecta a los humanos porque
tendríamos que beber más de cien litros de agua para notar algo", aclara
Barceló. El perjuicio es indirecto. Sin fauna acuática, el río tiene menos
posibilidades de generar agua de calidad.
Los medicamentos son el nuevo problema pero no el único. Los
trasvases -el paso del agua de un río a otro-,
los embalses, la pesca excesiva, las fugas -desviar agua para el riego, por
ejemplo- y el cambio climático, que está reduciendo los caudales, empeoran mucho
la situación.
David Dudgeon, de la Universidad de Hong Kong,
advierte que "cuando se piensa en un trasvase hay que pensar en la relación
costo-beneficio porque se trasladan especies invasoras y reduces las
posibilidades de ese río de diluir contaminantes". Los invasores son el mejillón
cebra, el siluro, la gambusia, la almeja asiática y el cangrejo americano, entre
otros. "Menos del 1% del agua es dulce y la tenemos que compartir con los
animales", expone Dudgeon quien asegura que el 37% de las especies de agua dulce
en Europa están en peligro de extinción. "No es que falte agua sino que está mal
gestionada", resume Barceló.
La salud de los ríos españoles
"Hay más de medio millón de pozos ilegales que consumen tanta
agua como las ciudades españolas", sentencia el investigador catalán. Sergi
Sabater, científico del ICRA y de la Universitat de Girona, considera que "el
problema del agua en España es un problema político". La solución, para él, es
el diálogo. "Tenemos que buscar acuerdos. En California, Estados Unidos, hay
científicos independientes que intermedian entre las partes interesadas como las
autoridades políticas, agricultores y ganaderos. En Catalunya sí se ha hecho un
proceso participativo pero en el resto de las regiones falta". Sabater apunta un
dato alarmante: "En España hay 1.200 embalses de más de 15 metros de altura".
Ante este exceso, el investigador subraya que "si no es absolutamente necesario,
hay que buscar otras soluciones". Barceló remarca que "respecto a Europa, en
España está aumentando la contaminación". En el río
Ebro (de 900 kilómetros, el más largo en
territorio nacional) las zonas más contaminadas son las de Pamplona y Zaragoza.
En ambos y en los Huerva y Alba se detectaron más de 70 tipos de fármacos.
Arturo Elosegui, de la Universidad del País Vasco y Sabater coinciden en que las
regiones mediterráneas están entre las más afectadas por la sequía de verano y
sufren más inundaciones y altas temperaturas. Los expertos advierten la
importancia de la pérdida de caudal en los ríos
Tordera y Ter. El grupo de investigaciones que
lidera Barceló ha analizado el efecto de unos 40 fármacos en el Ebro y Llobregat,
rodeados ambos por tres millones de habitantes. El segundo, más corto, es el más
perjudicado porque por su tamaño, tiene un nivel mayor de concentración química.
Posibles soluciones
Para Barceló la solución es cambiar los hábitos de la población y "revisar la
tecnología de las depuradoras, hasta ahora preparadas para eliminar estos nuevos
contaminantes". Considera también que "existen numerosas medidas y soluciones
tecnológicas que no son utilizadas en España para hacer un uso más eficiente del
agua". Entre ellas, señala la reutilización del agua residual, las
desalinizadoras, la renovación de los regadíos para evitar las fugas y la
recuperación de los acuíferos. Dudgeon es más tajante: "Si no cambiamos la
conducta seremos testigos, en los próximos años, de una extinción catastrófica
de los animales de agua dulce similar a la de los dinosaurios". Y concluye con
una pregunta inquietante: "¿Quieres beber agua de un río en el que se han
extinguido los peces? Quizás no sea bueno; por algo se han muerto".
Fuente: elpais.com, 6-7-11
-Células solares plásticas para una nueva era de la energía
renovable
La mayoría de los dispositivos fotovoltaicos se fabrican a
partir de silicio y se basan en nanoestructuras intrincadas cuyo desarrollo
requiere gran cantidad de trabajo y tiempo. Ahora un equipo de científicos del
Reino Unido ha anunciado que es posible imprimir células solares para crear
láminas extremadamente delgadas que pueden «extenderse» para obtener «paneles de
energía solar ultrabaratos para uso doméstico e industrial».
En concreto, se trata de películas plásticas que pueden obtenerse por
deposición a partir de soluciones mediante el empleo de técnicas de
impresión por contacto de bajo coste. Algunos circuitos de gran tamaño que
contienen transistores de película delgada y otros dispositivos ya se sirven
de esta tecnología. No obstante, su eficiencia ha de mejorarse desde entre
un 7 % y un 8 % hasta al menos un 10 % para garantizar su viabilidad
económica.
Científicos de las Universidades de Sheffield y Cambridge estudiaron la
estructura y composición de varios polímeros mediante la fuente de neutrones
ISIS y los rayos X extremadamente brillantes de la Fuente de Luz Diamond de
Oxfordshire (Reino Unido) perteneciente al Consejo de Ciencia y Tecnología
del Reino Unido (STFC).
En el estudio, publicado en la revista Advanced Energy Materials, se explica
que al extender sobre una superficie una solución compuesta por mezclas
complejas de moléculas, del mismo modo en el que se extiende un barniz, las
diferentes moléculas se separan hacia la parte superior y la parte inferior
de la capa, lo que incrementa al máximo la eficiencia de la célula solar
resultante.
El Dr. Andrew Parnell de la Universidad de Sheffield sugirió que «en lugar de
utilizar métodos de fabricación complejos y caros para crear una nanoestructura
de semiconductor específica, se podría utilizar impresión de alto volumen para
obtener nanopelículas (60 nanómetros) de células solares mil veces más finas que
un cabello humano».
«Mediante los haces de neutrones de ISIS y los rayos X brillantes de Diamond
logramos estudiar la estructura interna y las propiedades de los materiales de
las células solares de forma no destructiva», añadió el Dr. Robert Dalgliesh de
ISIS. «Si se estudian las capas en los materiales que convierten la luz solar en
electricidad, se aprende que distintos pasos de procesamiento modifican la
eficiencia general e influyen en el rendimiento de la célula solar polimérica.»
«En los próximos cincuenta años la población mundial tendrá unas necesidades
energéticas cada vez mayores que habrá que atender sin recurrir a combustibles
fósiles, y la única fuente renovable que puede permitirlo es el Sol», comentó el
profesor Richard Jones de la Universidad de Sheffield. Confía que si se
profundiza en la investigación la nueva tecnología podría utilizarse para
disponer las células solares en configuraciones cada vez más eficientes.
«Sobre la Tierra cae en un par de horas suficiente energía del Sol como para
satisfacer las necesidades energéticas del planeta durante un año, pero hay que
aprender a dominarla a una escala mucho mayor de lo que ahora es posible. La
disponibilidad de células solares poliméricas baratas y eficientes capaces de
cubrir grandes extensiones puede contribuir a que nos adentremos en una nueva
era de la energía renovable.»
Fuente: CORDIS, 5-7-11
-Diseño de circuitos vivos utilizando bacterias con
funciones lógicas
Investigadores de la Universidad Politécnica de Madrid
utilizan la biología como tecnología para la construcción de dispositivos
biológicos sintéticos con comportamientos de máquina.
Se trata de manipular los mecanismos de comunicación
entre células para programarlas con funciones predefinidas que son clave
para el desarrollo de circuitos lógicos que usen tecnología viva el lugar de
electrónica.
El diseño de biocircuitos sintéticos que realicen
funciones predefinidas se ha convertido en un área científica que está
creciendo exponencialmente durante los últimos años. Los avances en la
secuenciación del genoma bacteriano, el conocimiento de las redes genéticas
y los estudios sobre la comunicación célula-célula (quorum
sensing) son los puntos de partida de esta investigación1.
A diferencia de la mayoría de biocircuitos, que se
construyen dentro de una sola célula, los autores de este trabajo proponen
un modelo en el que cada bacteria es considerada como una puerta lógica
independiente. La manera de controlar el flujo de la información entre ellas
es modificar las conexiones químicas que derivan en la comunicación inter-celular.
Se hace hincapié en una característica muy importante en el biocircuito: la
modularidad. El hecho de tener varias cepas modificadas genéticamente para
responder cada una a una función lógica diferente hace que podamos tener
biocircuitos distintos dependiendo de las cepas que mezclemos. Esto evita el
re-diseñar todo el circuito cada vez que busquemos una función particular.
La utilización de quorum sensing como medio de
conexión entre las puertas (bacterias) lógicas permite la utilización del
umbral en la concentración de señales químicas para reducir el ruido en el
circuito.
El biocircuito, en contraste con un circuito electrónico habitual, será
aplicable en dominios en los que la maquinaria eléctrica no puede llegar. A
medida que la biología sintética avance, se podrán ver aplicaciones
importantes -y no sólo diseños- en campos tan distintos como la ecología o
la medicina.
Propuesta
de un circuito XOR. 1) Representación esquemática de un circuito
XOR electrónico, formado por tres puertas lógicas. 2) Diseño
biológico equivalente utilizando tres cepas de bacterias.
Fuente: sinc, 4-7-12
-El mapa del universo, como un cerebro
humano
El Universo es mucho más denso de lo que parece cuando
miramos las estrellas desde la Tierra. Las constelaciones forman
filamentos que, vistas en su conjunto, recuerdan al enmarañamiento
neuronal de un cerebro humano, compuesto por cientos de miles de
millones de astros. Esta es la imagen a la que recuerda el mapa que ha
logrado realizar el equipo dirigido por el astrofísico norteamericano, y
Premio Nobel de Física en 2006, George F. Smoot.
Smoot, profesor en la Universidad de Berkeley (California) presentó
recientemente en España, dentro del Starmus Festival,
celebrado en Tenerife, los últimos resultados de una cartografía en la
que lleva trabajando muchos años y que continuamente se actualiza con
nuevos datos.
"Cuando se observa este mapa no es difícil imaginar
que pueda haber 3.000 o 4.000 millones de planetas habitables",
comentaba en un auditorio de ex astronautas de la NASA, cosmonautas,
astrónomos y biólogos de prestigio.
Satélites artificiales
Smoot, que estudio el fondo de radiación de
microondas producido tras la explosión del Big Bang, gracias al satélite
artificial COBE, demostró que poco después de esta explosión había en el
Universo unas irregularidades que fueron las semillas de la
posterior formación de las galaxias.
Buena parte de los datos recabados para este mapa fueron
conseguidos con el COBE, con su sucesor el satélite WMAP y con el Planck de
la Agencia Espacial Europea (ESA). "Cada uno de los puntos que aparece es
real, ha sido visto desde el espacio o con telescopios terrestres.
Por ello aparece como dos alas de mariposas: las zonas oscuras lo están
porque hacia allí no estamos mirando", aseguraba a preguntas de los
asistentes a su conferencia.
Sus estudios han permitido averiguar cómo se organizan
las galaxias: "Mil millones de galaxias forman un filamento
y son de diferentes colores y formas. De momento hemos conseguido
información de dos millones de galaxias, pero en 2015 quiero alcanzar los
cinco millones y hasta los 15 millones, conseguir medir más de un millón al
mes", adelantaba. Es su proyecto BIGBOSS.
El astrofísico explicaba que es la fuerza de gravedad la
que hace que pequeñas estructuras se organicen en otras cada vez más
grandes. Según sus estimaciones, el Universo podría ser 100 veces
más grande de lo que se ha conseguido ver hasta ahora.
Fuente: elmundo.es, 3-7-11
-Aerotren: el AVE del futuro
Levitación con imanes o sustentación como en los aviones. Las líneas de tren se
renuevan. El inicio, unir Londres con Singapur (10.694 km) en sólo tres días por
alta velocidad.
El final, ¿túneles al vacío por los que circular a 2.000 km/h?
Por raíles, levitando o en suspensión, los trenes pelean por competir con
los aviones y mantener su protagonismo como transporte poco contaminante,
reduciendo el consumo a través de la aerodinámica, reciclando su energía e
incorporando formas renovables de alimentación. Ya han superado el límite de
los 500 km/h, aunque la investigación científica podría permitirles llegar a
los 2.000 km en condiciones de ausencia de aire. Unas más conocidas y otros
menos realistas éstas son las alternativas:
Aerotren
Desde la Universidad japonesa de Tohoku, el equipo del profesor Yusuke
Sugahara prepara un prototipo para cubrir la ruta Tokio-Osaka (515 km) en
una hora. Su propuesta de vehículo efecto suelo, volaría sustentado por el
colchón de aire formado a sus paso. El aerotren contaría con cuatro motores
y hélices que, en lugar de las ruedas darían empuje el alimentados a través
de un complejo sistema por aerogeneradores y paneles solares. Su velocidad
máxima sería de 500km/h y el pasaje de 360 personas. Un concepto similar al
de los ekranoplanos, existentes, al menos conceptualmente, desde los años
20.
Por el momento, se ha llevado a cabo un test con el modelo ART003, dos pasajeros
y a una velocidad de 200 km/h. El equipo afirma que los datos de eficiencia
energética «son 35kcal por persona y km, la mitad que en alta velocidad y menos
del 20 por ciento del Maglev», explica Yasuaki Kohama, responsable del proyecto.
Aparte de la seguridad de no poder descarrilar, destaca que su prototipo, para
él un competidor real del Maglev, podría cubrir la línea Tokio-Osaka en 2025 «si
las inversiones son constantes».
Johannes Kluehspies, miembro del Centro de Excelencia para los Ferrocarriles de
alto rendimiento y sistemas de levitación magnética de la Universidad Técnica de
Dresden (Alemania) piensa de otra manera: «No veo futuro para el aerotren. Es
sólo una ficción, el sistema no es eficiente, sufre mucha fricción entre las
ruedas y la pista. De hecho, los japoneses están trabajando en una línea Maglev
entre Tokio y Osaka». Sin embargo, Jose Manuel Gil, ingeniero aeronáutico
matiza: «Las ruedas están ahí para el momento de estar parado, así que esos
argumentos no son válidos. Es posible que sea más ruidoso que el maglev, pero
no tanto porque sus motores son hélices entubadas».
Maglev
El tren de levitación magnética supera las limitaciones de velocidad de los
raíles,ésta aumenta simplemente porque el vehículo sólo hace frente a la
resistencia del aire, al desaparecer la fricción. sus defensores aseguran que es
imposible que descarrile. Su sistema, consistente en alojar imanes en la base
del tren y en la vía, que se atraen o se repelen según el caso, ahorra energía
ya que sólo necesita alimentación eléctrica la zona de paso y no toda la línea.
Sin embargo, como inversión resulta bastante caro.
Por ahora son sólo dos las líneas instaladas en el mundo. La primera inaugurada
en 2002 en Shanghai, une la estación de Long Yang con el aeropuerto y recorre
los 30 km de distancia en poco más de siete minutos. La segunda, Linimo, de la
ciudad japonesa de Nagoya, tiene una velocidad más reducida: 100 km/h. Se
instaló durante la Expo 2006 para cubrir 8,9 km con nueve paradas y tuvo un
coste de 381 millones de euros sólo la pista.
Nueve años después se amontonan los proyectos de Maglev preparados para su
ejecución en diversas pates del mundo, EE UU, Europa, Japón o China. Para la
Sociedad Internacional para el Transporte en Maglev el futuro de los trenes pasa
por la levitación magnética «no hay fricción ni abrasión, por tanto el consumo
de energía es relativamente pequeño. Alcanza velocidades de más de 600km/h, es
más silencioso y seguro», explica Kluehspies. Al hablar del precio argumenta:
«Los costes de línea de Maglev y de la alta velocidad son aproximadamente los
mismos en terreno plano. El km sale a 30 millones de euros. Sin embargo, en
zonas montañosas, el tren llega hasta los 50 millones por km, mientras que
Maglev no es más caro porque tiene mejor capacidad de escalar».
¿Al vacío?
Los túneles de vacío podrían ser el futuro para la levitación magnética, «el
rozamiento al que se enfrentan es sólo el del aire, pero ésta crece con el
cuadrado de la velocidad. Si de 100 se pasa a 400 km/h, la resistencia es 16
veces mayor. Pero si se construye un túnel sin aire, podría superar la velocidad
del sonido con escaso consumo», explica José Ygnacio Pastor, catedrático del
departamento de Ciencias de los Materiales de la Universidad Politécnica de
Madrid y experto en materiales superconductores. «China está trabajando en un
túnel para el Maglev. Sólo es posible un vacío del 50 al 70 por ciento pero
permitiría alcanzar los 2.000 km/h o más si el túnel es largo», detalla
Kluehspies.
Alta velocidad
Los planes más actuales sobre raíles vienen de China. Esta semana el Gobierno
anunció la inauguración de la línea más larga del mundo: Pekín a Shanghai,
1,318km), en cuatro horas, 48 minutos (hasta ahora se tardaban diez). Es parte
de un ambicioso plan quinquenal (333.000 millones de euros) que conectará las
ciudades chinas (120.000 km). De ahí unirá Londres con Pekín y Singapur (10.694
km en tres días), por el norte con Rusia y Alemania y por el sur con Malasia o
Thailandia.
Sin embargo, las autoridades han bajado la velocidad de los 350 a los 300 km/h
por razones de precio y seguridad. Antonio Berrios, director de gestión de Red e
Innovación de Adif explica los retos de la alta velocidad «desde el punto de
vista de infraestructura, la aerodinámica es determinante por la velocidad y
ligereza cada vez mayores. La interacción con la catenaria o la conexión a
líneas menos potentes con equipos que permitan compensar los desequilibrios
producidos».
Fuente: abc.es, 2-7-11
-Dinosaurios en blanco y negro
Para los paleontólogos, es un salto comparable a lo que fue
pasar de la radio a la televisión en blanco y negro. Un equipo internacional de
científicos ha demostrado que los vestigios de determinados metales presentes en
un fósil permiten saber de qué color era el animal. De momento, han conseguido
seguir el rastro del que llaman con sorna "pigmento Antonio Banderas", la
eumelanina, responsable del color negro del pelo ahora y hace más de un centenar
de millones de años.
Cada pigmento, encargado de un color, tiene una receta
química a escala molecular que incluye algunos metales. Los investigadores,
encabezados por el geoquímico Roy Wogelius, han dirigido el poderoso chorro de
rayos X del sincrotrón de la Universidad de Stanford (EEUU) a los
restos fósiles de dos aves primitivas para
buscar este DNI químico.
Examinando los restos de Confuciusornis sanctus, un ser a
medio camino entre las aves y los dinosaurios que vivió hace 120 millones de
años, y los fósiles de Gansus yumenensis, similar al somormujo actual pero con
100 millones de años y considerada el ave moderna más antigua, los
investigadores han hallado huellas del pigmento Antonio Banderas. Uno de los
principales indicios ha sido el cobre, un metal que ha aparecido exactamente
donde quedaban restos de plumas.
A por ‘Scarlett Johansson'
"Hasta ahora, para recrear cómo era un dinosaurio teníamos
que echarle mucha imaginación. Ahora podemos verlos en blanco y negro", explica
Wogelius, de la Universidad de Manchester (Reino Unido). Todas las películas de
Hollywood -empezando por Parque Jurásico-, todos los libros de texto y todos los
artículos periodísticos con imágenes de dinosaurios eran mentira. En la
actualidad, básicamente, no se sabe nada sobre
qué pinta tenían los grandes saurios.
El equipo de Wogelius está embarcado ahora en la búsqueda de
otros pigmentos, empezando por el que llaman "Scarlett Johansson", la
feomelanina, responsable del color rubio del cabello. "Es muy arriesgado hacer
predicciones, pero creo que en los próximos diez años podremos ver en color cómo
eran los dinosaurios y otras especies prehistóricas", vaticina. Su estudio se
publica hoy en la revista Science.
Hace más de un año, otro equipo de paleontólogos de Reino
Unido y China hizo un anuncio similar. Los científicos lograron identificar en
varias plumas fósiles sus melanosomas, los sacos que guardan los pigmentos
eumelanina y feomelanina en las células. Mediante la comparación con la
estructura de los melanosomas de seres vivos, los científicos hicieron
estimaciones sobre el color de los pigmentos que albergarían. Según aquellos
investigadores, el Confuciusornis mostraba un plumaje con manchas blancas,
negras y anaranjadas.
Sin embargo, para el equipo de
Wogelius, esta técnica presenta "muchas limitaciones",
ya que los melanosomas se conservan muy mal, mientras que el rastro de metales
de los pigmentos permanece durante, posiblemente, varios cientos de millones de
años.
El director de la Fundación Conjunto Paleontológico de
Teruel, Luis Alcalá, aplaude los avances en la senda hacia los dinosaurios
en tecnicolor. "Algunas aves tienen colores espectaculares y, posiblemente,
con los dinosaurios ocurría igual. Dependiendo del ecosistema tendrían una
coloración u otra, como sus análogos actuales", opina Alcalá, que no ha
participado en el nuevo estudio. El paleontólogo recuerda que reconstruir el
retrato robot de los dinosaurios es fundamental para conocer su
paleobiología: cómo se comunicaban, cómo se camuflaban y cómo buscaban una
pareja sexual.
Una cebra, pero no un caballo
El pigmento estudiado ahora, la eumelanina, es
probablemente el más importante del reino animal, según los investigadores.
Oscurece el cabello y los ojos de Antonio Banderas, la piel de las
serpientes y las plumas de las aves. También el ojo de un pez que vivió hace
50 millones de años, según han comprobado en el sincrotrón. Sin embargo, su
papel para desentrañar el color de los dinosaurios se queda cojo.
Serviría para detectar el patrón de rayas
blancas y negras de una cebra, pero no para ver la capa crema de un
caballo.
"Se podría decir que ahora vamos a ver los dinosaurios
como en un filme de 1950. En realidad, las películas no eran en blanco y
negro, sino en blanco, negro y una amplia escala de grises", matiza otro de
los autores del trabajo, el paleontólogo Phil Manning, de las universidades
de Manchester y de Pensilvania (EEUU). A su juicio, el color es un rasgo
esencial para conocer las claves del éxito evolutivo de una especie. "Seamos
honestos: cuando sales por la noche y quieres ligar, eliges con cuidado la
ropa que te vas a poner. Si el color no fuera fundamental
para los seres vivos, no existiría una
industria de la moda", aclara.
Su objetivo ahora, asegura, es buscar restos de cinc, calcio
y manganeso, síntomas de colores, en una ristra de fósiles. En el sincrotrón de
la Universidad de Stanford hay ahora decenas de dinosaurios haciendo cola para
someterse a pruebas de rayos X. "Los fósiles son como una sopa química, tenemos
que seguir empleando esta técnica para identificar más pigmentos", señala
Manning.
España también posee, en Cerdanyola del Vallès (Barcelona),
uno de estos sincrotrones, unos aparatos capaces de emitir rayos X más luminosos
que el Sol y desnudar los ingredientes atómicos de cualquier cosa, desde un
jamón serrano a un cuadro de El Greco. Son como microscopios desmesuradamente
potentes: aceleran electrones hasta que rozan la velocidad de la luz y su brillo
consigue iluminar las entrañas de la materia sin alterarla un ápice.
El físico alemán Uwe Bergmann trabaja en el sincrotrón de la
Universidad de Stanford, situado cerca de la ciudad de Menlo Park, en el estado
de California. Es uno de los responsables de iluminar con rayos X a los fósiles.
Desde su disciplina, alejada de la paleontología, se hace preguntas
sorprendentes: "El cobre es biotóxico. ¿Por qué
aparece en las plumas? Quizá el color sólo es un efecto secundario de
otro rasgo. Quizá las plumas surgieran para liberar estas toxinas. Es
absolutamente una especulación, pero habrá que estudiarlo", plantea el físico.
Bergmann subraya que la nueva técnica no sólo servirá para
desvelar la paleta de colores de los animales prehistóricos. "Gracias a los
rayos X del sincrotrón, podremos saber mucho más sobre la dieta de los
dinosaurios. Podremos ver los pigmentos de lo que comían", detalla. Los
flamencos, recuerda, nacen blancos, pero se van transformando en rosas con el
tiempo gracias a los pigmentos carotenoides que adquieren al comer crustáceos.
El ave de la cola negra
Se podría decir que el ‘Confuciusornis sanctus', que
vivió hace unos 120 millones de años, acababa de dejar de ser un dinosaurio.
Es el primer ser del registro fósil que aparece con un pico totalmente
propio de un ave actual. Su recreación, elaborada por Richard Hartley, de la
Universidad de Manchester (Reino Unido), está basada en los rastros de cobre
hallados en sus plumas fósiles. Estos vestigios del metal, asociados al
pigmento eumelanina, desvelan el estampado que habría caracterizado al ave:
zonas sombreadas que llegarían a su punto más oscuro en las plumas
timoneras, que forman la cola, y en el plumón del cuerpo. El chorro de rayos
X del sincrotrón permite hacer recreaciones completas, ya que identifica
rastros de eumelanina por todo el cuerpo fósil del animal.