Hasta noviembre, Altamont Landfill era poco más que un montón de basura. Un
enorme vertedero frente a San Francisco en el que, desde 1980, se han ido
amontonando las más de 15 millones de toneladas de desperdicios producidos por
la ciudad de la bahía. Sin embargo, hoy los cientos de camiones de basura que se
acercan a diario a sus colinas ya no van a descargar, sino a llenar el depósito.
La compañía Waste Management ha convertido Altamont Landfill en la mayor planta
de tratamiento de gas metano del mundo.
A través de más de 200 pozos hundidos en las 100 hectáreas
de esta minirrefinería, la compañía recoge este gas de efecto invernadero,
producido por la descomposición de la basura, para transformarlo en gas
natural licuado (GNL). Así se obtiene una fuente de energía con menor
impacto ambiental que cualquier combustible fósil, cuyo uso podría servir
para reducir las emisiones hasta en un 70%, y que además es entre un 30% y
un 60% más barata que la gasolina.
El uso de gas licuado reduciría las emisiones un 70%
Desde su puesta en marcha, la estación vive un trasiego inusual. A
diario, más de 500 camiones de basura, autobuses y vehículos escolares de
una veintena de localidades del norte de California se acercan allí para
llenar sus depósitos. El proceso es sencillo: después de extraer el metano,
se licúa a -161ºC. Kenneth Lewis, director de operaciones de la planta,
resume su labor: "Convertimos los basureros en centros de producción
energética". La planta puede distribuir 60.000 litros de GNL al día, lo que
significa ahorrar 11,3 millones de litros de diésel cada año y "evitar que
30.000 toneladas de CO2 lleguen a la atmósfera", asegura Lewis.
Un coche por habitante
El coste de la instalación, 12 millones de euros, ha sido subvencionado
en parte dos millones por el estado de California, el más castigado por la
contaminación del tráfico. Cerca de 32 millones de vehículos circulan por
sus carreteras, casi uno por habitante.
El gobernador Arnold Schwarzenegger pretende reducir las emisiones en
California un 25% para 2020. La nueva planta evitará que en los próximos
cuatro años lleguen a la atmósfera 1,5 millones de toneladas de CO2. La
administración ya negocia la aportación a una planta gemela a 40 kilómetros
al sur de Los Ángeles, la ciudad con la mayor flota de autobuses impulsados
por GNL del país, unos 2.700.
Carga de una
cisterna en la planta de Altamont. - LINDE
"El GNL reduce la dependencia de los combustibles fósiles y supone un enorme
beneficio ambiental para las comunidades", asegura Duane Woods, vicepresidente
de Waste Management. El giro ecológico de la compañía de Houston (Texas), que
lleva más de un siglo dedicada a la recogida de residuos, parece haber calado.
La Agencia de Protección Ambiental de EEUU estima que casi uno de cada tres
vertederos municipales del país cuenta con algún proyecto energético.
Fuente: publico.es, 28-3-10
-¿Qué es un tsunami?
Un tsunami
es una ola o serie de olas que se producen en una masa de agua al ser empujada
violentamente por una fuerza que la desplaza verticalmente. Terremotos,
volcanes, derrumbes costeros o subterráneos e incluso explosiones de gran
magnitud pueden generar este fenómeno.
El brusco movimiento del agua desde la profundidad genera
un efecto de 'latigazo' hacia la superficie que es capaz de lograr
olas de magnitud impensable. Teniendo en cuenta que la profundidad
habitual del Océano Pacífico es de unos 4.000 metros, se pueden provocar olas
que se mueven a 700 km/h. Y como las olas pierden su fuerza en relación
inversa a su tamaño, al tener 4.000 metros puede viajar a miles de kilómetros
de distancia sin perder mucha fuerza.
Sólo cuando llegan a la costa comienzan a perder
velocidad, al disminuir la profundidad del océano. La altura de las
olas, sin embargo, puede incrementarse hasta superar los 30 metros (lo
habitual es una altura de seis o siete metros).
La causa más frecuente para la formación
de olas gigantes son los terremotos ocurridos en el fondo marino. Cuando éste
se mueve violentamente en sentido vertical, el océano ve alterado su
equilibrio natural. Cuando la inmensa masa de agua trata de recuperar su
equilibrio, se generan las olas gigantescas.
Su tamaño dependerá de la magnitud del seísmo
y de la deformación vertical del fondo marino. No todos los terremotos generan
tsunamis, sino sólo aquellos de magnitud considerable, que ocurren bajo el
lecho marino y que son capaces de deformarlo.
Si bien cualquier océano puede experimentar un tsunami,
es más frecuente que ocurran en el Océano Pacífico, donde son
también más comunes los terremotos de magnitudes considerables (especialmente
las costas de Chile, Perú y Japón).
Además el tipo de falla que ocurre entre las placas de
Nazca y Sudamericana (donde se ha producido el
seísmo que ha azotado Chile), llamada de subducción -cuando una placa se
va deslizando bajo la otra- hacen más propicia la deformidad del fondo marino
y, por ende, los tsunamis u olas gigantes.
Precisamente por eso los más devastadores casos de olas gigantescas han
ocurrido en el Océano Pacífico, pero también se han registrado casos en el
Atlántico e incluso en el Mediterráneo. Un gran tsunami acompañó los
terremotos de Lisboa en 1755, el del Paso de Mona de Puerto Rico en 1918, y ee
de Grand Banks de Canadá en 1929.
“El terremoto, de un minuto de duración, pudo sentirse en la capital, que se
quedó a oscuras, según pudo constatar Efe. Además, las comunicaciones
telefónicas quedaron interrumpidas en gran parte de Santiago de Chile, según
informa Reuters.” Sin embargo,
el USGS señaló que el epicentro del temblor se localizó en el mar, en Maule,
a 59,4 kilómetros de profundidad, por lo que emitió una alerta de tsunami para
ese país y Perú, así como otra alerta “en grado de vigilancia” para Ecuador.
El Centro de Avisos del Pacífico de EE.UU. amplió hoy la alerta de tsunami en
grado de vigilancia para Colombia, Panamá, Costa Rica y la Antártida, además de
Ecuador, incluido inicialmente, tras el seísmo de 8,8 grados en la escala de
Richter registrado en Chile.”
AN EARTHQUAKE HAS OCCURRED WITH THESE PRELIMINARY PARAMETERS
ORIGIN TIME - 0834 PM HST 26 FEB 2010
COORDINATES - 36.1 SOUTH 72.6 WEST
LOCATION - NEAR COAST OF CENTRAL CHILE
MAGNITUDE - 8.8 MOMENT
MAGNITUDE - 8.4 RICHTER (MS)
MEASUREMENTS OR REPORTS OF TSUNAMI WAVE ACTIVITY
GAUGE LOCATION LAT LON TIME AMPL PER
------------------- ----- ------ ----- --------------- -----
CALDERA CL 27.1S 70.8W 0843Z 0.45M / 1.5FT 20MIN
ANTOFAGASTA CL 23.2S 70.4W 0832Z 0.40M / 1.3FT 58MIN
TALCAHUANO CL 36.7S 73.4W 0653Z 2.34M / 7.7FT 88MIN
COQUIMBO CL 30.0S 71.3W 0852Z 1.32M / 4.3FT 30MIN
CORRAL CL 39.9S 73.4W 0739Z 0.90M / 2.9FT 16MIN
SAN FELIX CL 26.3S 80.1W 0815Z 0.53M / 1.7FT 08MIN
VALPARAISO CL 33.0S 71.6W 0708Z 1.29M / 4.2FT 20MIN
LAT - LATITUDE (N-NORTH, S-SOUTH)
LON - LONGITUDE (E-EAST, W-WEST)
TIME - TIME OF THE MEASUREMENT (Z IS UTC IS GREENWICH TIME)
AMPL - TSUNAMI AMPLITUDE MEASURED RELATIVE TO NORMAL SEA LEVEL.
IT IS ...NOT... CREST-TO-TROUGH WAVE HEIGHT.
VALUES ARE GIVEN IN BOTH METERS(M) AND FEET(FT).
PER - PERIOD OF TIME IN MINUTES(MIN) FROM ONE WAVE TO THE NEXT.
EVALUATION
THE PACIFIC TSUNAMI WARNING CENTER HAS ISSUED AN EXPANDING
REGIONAL TSUNAMI WARNING AND WATCH FOR PARTS OF THE PACIFIC
LOCATED CLOSER TO THE EARTHQUAKE. AN EVALUATION OF THE PACIFIC
WIDE TSUNAMI THREAT IS UNDERWAY AND THERE IS A POSSIBILITY THAT
HAWAII COULD BE ELEVATED TO A WATCH OR WARNING STATUS."
“Según datos de la Oficina de Emergencia, que fueron citados por la emisora
Radio Cooperativa, de momento hay al menos 100 muertes como consecuencia del
terremoto. Con posterioridad se han registrado dos réplicas de menor
intensidad.”
“El servicio eléctrico y las comunicaciones están cortadas en la región
metropolitana y en la de Valparaiso y se han registrado derrumbes menores
internos en edificios.”
“En la
escala Mercalli, que mide la intensidad, el seismo ha alcanzado 8 grados en
la región metropolitana, de 5 a 6 en la región de Valparaiso, de 4 a 5 en la de
los Lagos, y de Coquimbo de 3 a 4.”
“El seísmo más grave ocurrido en Japón en años recientes
se registró en Kobe (oeste del país) el 17 de enero de 1995, con una
magnitud de 7,3 grados en la escala abierta de Richter, y causó más de 6.000
muertos.
Fuente: blog ciencia marina y otros asuntos, 27-3-10
-Hordas de estrellas alienígenas invaden nuestra galaxia
No cabe duda. Nuestra galaxia, la Vía Láctea, está
sufriendo, literalmente, la invasión de una gran oleada de...
estrellas
alienígenas. Esa es la extraordinaria conclusión a la que ha llegado un
equipo de científicos de la universidad australiana de
Swinburne.
Los astrónomos acaban de publicar
un estudio en el que concluyen que uno de cada cuatro
cúmulos de estrellas de la
Vía Láctea proceden, en realidad, de alguna parte de «fuera» de ella.
Lo cual significa un número inmensamente grande de soles
«extranjeros», del orden de
decenas de
millones de ellos. De alguna manera, esa enorme cantidad de cúmulos
estelares se formó en otras regiones del universo y después «emigró» hacia
nuestra particular isla espacial. «Se hace evidente -asegura el astrónomo
Duncan Forbes, investigador principal del estudio- que muchas de las estrellas
y cúmulos que vemos cuando observamos el cielo no son nativos, sino aliens
procedentes de otras galaxias. Y que
se han
estado dirigiendo hacia nosotros durante los últimos miles de millones de años».
Messier 80
La imagen, obtenida por el Hubble, muestra el
cúmulo globular Messier 80, un objeto formado por cientos de miles de
estrellas y que se encuentra en la dirección de la constelación del
Escorpión. Se conocen unos 160 cúmulos globulares como éste dentro
de la Vía Láctea.
Hasta ahora, los astrónomos sospechaban que algunos
de estos cúmulos (agrupaciones de estrellas que pueden contener desde
10.000 a varios millones de soles cada uno) no habían nacido aquí, sino
que venían del exterior. pero eso era algo difícil de demostrar.
Sin embargo, utilizando los registros del
Telescopio Espacial Hubble, Forbes y su colega canadiense Terry
Bridges han elaborado la mejor base de datos de cúmulos estelares que
existe sobre nuestra galaxia. En ella se recogen con detalle las
propiedades químicas, la composición y la edad de más de 150 de estas
impresionantes agrupaciones de estrellas.
Tragos de galaxias enanas
«Utilizando esa base de datos -explica Forbes- hemos sido capaces de
identificar aspectos clave en muchos de esos cúmulos que nos han revelado sus
historias y su origen externo. Y hemos determinado que estos cúmulos
globulares foráneos suponen, en la actualidad, cerca de un cuarto de todos los
que podemos ver en la Vía Láctea»
«Eso implica - continúa el astrónomo- que
decenas de
millones de estrellas individuales se han ido sumando y haciendo que
nuestra galaxia crezca». Los investigadores también sugieren que la Vía Láctea
podría haberse
«tragado»
muchas más galaxias enanas de lo que se creía hasta el momento.
A este respecto, los investigadores se han dado cuenta de
que muchos de los cúmulos estelares alienígenas formaban parte, en su origen,
de alguna de esas mini galaxias. «Nuestro trabajo muestra que hay más restos
de galaxias enanas dentro de la Vía Láctea de lo que se creía. Otros estudios
habian confirmado hasta ahora la existencia de dos de esas
galaxias enanas dentro de nuestra Vía Láctea, pero nuestra investigación
sugiere que debería de haber por lo menos otras seis que aún están por
descubrir».
«A pesar de que las galaxias enanas están rotas y sus
estrellas han sido asimiladas por la Vía Láctea, los cúmulos globulares que
alguna vez formaron parte de ellas siguen intactos y han sobrevivido al
proceso de acreción». Forbes añade que «tendremos que explorar más, pero es
una interesante perspectiva que nos ayudará a comprender mejor la historia de
nuestra propia
galaxia».
Fuente: abc.es,
26-2-10
-Identificadas unas moléculas que impiden que se desarrolle el SIDA
En España hay unas 250 personas con VIH (aproximadamente
el 0,2% de las 150.00 infectadas) que controlan el virus de manera natural,
sin necesidad de medicación. El fenómeno no es exclusivo de España, y los
científicos llevan 20 años buscando una explicación a estos casos de los
denominados "no progresores" (porque la infección no avanza y no desarrollan
sida). Una de las causas ha sido descrita por un grupo del hospital Clínic
de Barcelona, que ha visto que estos pacientes tienen una enorme capacidad
de generar unas moléculas llamadas alfa-defensinas. El estudio ha sido
publicado en la revista Plos One.
Las alfa-defensinas son unas moléculas que segregan de
manera natural varias células del organismo, entre ellas, las dendríticas,
que son cruciales en la defensa contra agentes infecciosos. Estas defensinas
son capaces de inhibir el VIH y modulan las reacciones del sistema
inmunitario para que sea más eficiente. "Funcionan como antibióticos
naturales", explicó ayer el jefe del Servicio de Infecciosas del Clínico,
Josep Maria Gatell. Lo que ha descubierto junto con Marta Rodríguez-García,
de cuya tesis doctoral parte la investigación, y Teresa Gallart es que los
seropositivos que no precisan tratamiento tienen una capacidad 10 veces
mayor de producir estas moléculas que el resto. Los controladores de élite
logran así frenar la expansión del sida.
Hay otros factores que tienen un efecto similar, explica
Gatell. Por ejemplo, "la producción de una gran cantidad de anticuerpos
neutralizantes" o "un déficit parcial o total del correceptor celular CCR5
[una de las llaves que permite que el virus entre en las células que
infecta]". También se ha visto que la población que presenta una mejor
defensa ante el virus de la hepatitis C, también la tiene en el caso del
sida.
El virus de la inmunodeficiencia humana (VIH) entra en los linfocitos y los
destruye.- AG
Los investigadores del Clínic afirman que "la producción de
alfa-defensinas se puede manipular de manera sencilla", lo que ofrece nuevas
expectativas terapéuticas. "De momento, sabemos qué defiende al paciente del
virus del sida y eso nos será muy útil para la elaboración de vacunas
terapéuticas", señalan los investigadores. La estimulación de las alfa-defensinas
podría "evitar el tratamiento a miles de personas" y sería útil también para
otras enfermedades infecciosas, afirman.
Éste sería el segundo escalón de un estudio, realizado en el
Centro Catalán de Investigación y Desarrollo de Vacunas para el Sida (Hivacat),
un consorcio público-privado con colaboración de la Generalitat de Cataluña, la
Fundación La Caixa y los laboratorios Esteve.
Fuente: elpais.com, 25-2-10
-Schank "El e-learning es la misma basura
pero en diferente sitio"
Roger Schank.- GIANLUCA BATTISTA
Roger Schank es un experto en Inteligencia Artificial que
investigaba cómo educar a los ordenadores y acabó descubriendo que a los
humanos nos educan mal. Schank fue profesor de Ciencias de la Computación y
Psicología en la universidad de Yale y, posteriormente, director del
Proyecto de Inteligencia Artificial de la misma institutión. En 1989 fue
contratado por la universidad de Northwestern para crear el Instituto de
Ciencias de la Educación. Ha sido también profesor en Standford y Carnegie
Mellon, pero ha tenido que esperar hasta los 64 años para que una
institución académica le permitiese poner en práctica sus teorías: la
Escuela de Negocios de La Salle presenta en marzo una serie de másters
en Internet basados en la revolucionaria visión educativa de Schank.
Pregunta. ¿Qué piensa del actual sistema de enseñanza virtual, el
e-learning?
Respuesta. Es la misma basura, pero en un sitio diferente. Las
escuelas cogen las nuevas tecnologías y las arruinan. Por ejemplo, cuando
salió la televisión todas pusieron una en cada aula, pero la usaban para
hacer exactamente lo mismo que antes. Igual ahora con los ordenadores: ¡Oh,
sí, tenemos e-learning! ¿Y qué significa? Pues que dan el mismo curso
terrible, pero en línea, usando los ordenadores de forma estúpida.
P. En su página web leo: "Sólo hay dos cosas que están mal en el
sistema educativo: qué enseñamos y cómo lo enseñamos". ¿Qué deberíamos
enseñar?
R. A vivir, que tiene muchos aspectos, como aprender a ser un
abuelo o una madre. Pero la escuela no nos lo enseña. Tampoco a tomar
decisiones sobre nuestra vida, aprender valores humanos o decidir qué
trabajo nos gustaría.
P. ¿Y cómo deberíamos enseñar?
R. La fórmula del profesor que da la clase magistral y los alumnos
hacen exámenes no funciona. Deberíamos aprender como cuando éramos pequeños:
nuestros padres no nos sentaron en una mesa y nos dijeron que nos iban a
enseñar a hablar, que eso era la gramática y lo otro, el vocabulario. No. El
niño habla y, cuando se equivoca, sus padres le van corrigiendo. Aprendemos
conversando con los niños, usando el lenguaje.
P. Es lo que usted llama "aprender haciendo".
R. Sí: todo lo que puedas aprender está basado en la práctica. Para
saber conducir un coche no tienes que estudiar cómo funciona el motor o por qué
se mueven las ruedas. Toda la educación debería ser así, práctica.
P. En sus libros explica que es así como aprende la mente humana.
R. Los seres humanos tienen diferentes procesos mentales que funcionan
desde que nacemos, como hacer predicciones, decidir objetivos o establecer la
causa de las cosas. Si lo haces bien, triunfas en la vida. Pero en la escuela no
lo enseñan. Como mucho te enseñarán la relación causa-efecto en física, pero no
adaptada a la vida real. Lo que necesitamos es conocimiento práctico de por qué
suceden las cosas con las que nos enfrentamos cada día de nuestras vidas.
P. ¿Pero cómo enseñar de forma práctica algo tan importante como
filosofía, literatura o historia?
R. Es que no son tan importantes. Lo son para los académicos, que
deciden qué debemos aprender. Si una parte de la población quiere, de acuerdo,
pero no deberían obligar a todos los estudiantes del mundo a aprenderlo. Y sí,
es posible estudiar historia de forma práctica, por ejemplo con una simulación
que te lleve a la Revolución Francesa.
P. ¿Cómo pueden los ordenadores ayudar al "aprender haciendo"?
R. Con simulaciones más o menos elaboradas que presenten situaciones
reales: tenemos este problema, cómo podría resolverse. Ni tan sólo necesitas un
ordenador para esto, aunque lo facilita, ya que te permite trabajar con personas
que no están en tu misma habitación. El auténtico cambio es cómo se enseña, no
los instrumentos.
P. Los mejores hackers que conozco son autodidactas, ninguno ha
aprendido en las universidades sino con sus ordenadores.
R. Exacto, han aprendido haciendo, como ir en bicicleta.
P. ¿Entonces, no necesitamos escuelas?
R. Por supuesto que no y deberían ser eliminadas. Las escuelas están
controladas por los gobiernos, que no se preocupan de que salga de ellas gente
inteligente. Todo lo contrario: quieren gente simple que no se haga muchas
preguntas ni complique las cosas.
P. ¿Cómo llegó a estas conclusiones?
R. Mi campo de estudio es la inteligencia artificial, hacer a los
ordenadores inteligentes. En los setenta trabajábamos muy seriamente sobre cómo
los ordenadores deberían aprender. En los 80, cuando ya era un experto en
educación, mis hijos entraron en la escuela. Y cuando ví lo que hacían allí me
llevé las manos a la cabeza. ¡Qué forma más estúpida de aprender!
P. ¿Por qué?
R. Un ejemplo con mi hijo: a los 6 años me llegó una nota de la
profesora que decía que no era bueno en matemáticas, cuando yo sabía que a los 4
ya hacía multiplicaciones. Fuí a verla y me explicó que aprendían a hacer
cuentas con líneas hechas con rotuladores ¡y que mi hijo no dibujaba bien las
líneas!
P. Ahora experimenta con sus nietos. Ha creado videojuegos que les
enseñan matemáticas o a leer. ¿Funciona su sistema?
R. Sí. Mi decisión más importante se refiere al mayor, que tiene 8
años. Mi hija dudaba a qué escuela llevarlo. Le propuse montar una con otros
padres y hoy son doce chicos en una habitación, con una profesora, que lo único
que hacen es lo que les gusta a esa edad: construir trenes, coches, camiones,
robots.
P. Es la misma línea que ha seguido para crear los másters de
La Salle de Barcelona, haciendo que los alumnos se enfrenten no a teorías sino a
situaciones simuladas de la vida real...
R. Va a cambiar el mundo. Es divertido, emocionante, algo muy nuevo.
Cuando me lo propusieron pensaba que bromeaban porque hablamos de una
universidad, que es parte del sistema, que me contrata para cambiar este
sistema.
Fuente: elpais.com, 25-2-10
-Los
oncólogos afirman que el abordaje del dolor es una "catástrofe"
Es un secreto a voces -o, mejor, habría que decir a gritos-:
el abordaje del dolor en muchos países europeos es una "catástrofe" sanitaria.
Esta es la conclusión de un estudio elaborado por las sociedades europeas de
Oncología y de Cuidados Paliativos, que publica Annals of Oncology.
"Muchos pacientes en Europa no reciben tratamiento adecuado
contra su dolor por un exceso de regulaciones restrictivas y por problemas de
acceso a los opioides", afirman los autores del artículo.
En esa comparación, España no sale especialmente bien parada.
En la única tabla numérica (la que mide el consumo de morfina por habitante),
ocupa el puesto 23 de 41 países, y está, con menos de seis miligramos por
cabeza, por debajo de la media mundial (5,98) y la europea (12,59). Si sólo se
miden los países de la UE, la posición española es todavía peor: 18 de los 27.
El trabajo es el primer paso para conseguir un tratamiento
del dolor "acorde con los derechos humanos", afirman los autores del trabajo,
entre los que está Josep Baselga, del Hospital Vall d'Hebrón (Barcelona).
Aparte de la cantidad de medicamento, otros problemas
encontrados son la dificultad del tratamiento en situaciones de emergencia
(cuando no está el médico presente), las trabas burocráticas, como necesidad de
permisos especiales para prescribir o recibir esos fármacos; o incluso falta de
acceso y trabas legales, establecidas para evitar que los medicamentos se
desvíen a mercados paralelos como drogas de abuso, aparte de cuestiones más
personales como el miedo a usar estos fármacos por prevención de los pacientes o
los médicos.
Fuente: elpais.com, 24-2-10
-Descubierta una nueva especie de
dinosaurio
Un equipo de paleontólogos ha
descubierto una nueva especie de dinosaurio, que han bautizado como Abydosaurio.
Este animal pertenecería al grupo de los braquiosaurios, esos enormes
ejemplares de largo cuello y de alimentación herbívora.
Lo curioso del caso es que han recuperado cuatro cabezas, dos de ellas intactas,
de una presa del Monumento Nacional de los Dinosaurios, que se encuentra al este
de Utah. Sólo se han recuperado cráneos
completos de 8 de las más de 120 especies de saurópodos conocidas. «Sus
cabezas son más ligeras que las de los mamíferos porque se encontraban en el
extremos de un largo cuello», asegura Brooks Britt, paleontólogo de la
Universidad de Brigham Young.
«En lugar de los anchos huesos ensamblados, las cabezas de estos saurópodos
están compuestas de huesos más ligeros, unidos entre sí por tejidos blandos.
Normalmente, cuando el animal muere, la cabeza solía separarse del cuerpo y
desintegrarse», añade Britt, coautor del artículo sobre el descubrimiento en la
revista «Naturwissenshaften».
Los estudiantes y paleontólogos que participaron en la excavación recurrieron a
martillos neumáticos para perforar la capa de
roca de 105 millones de años de antigüedad que contenía los huesos.
Incluso hubo que emplear explosivos para retirar la roca sobrante. Los análisis
de los huesos confirman que el pariente más cercano del Abysosaurio es el
braquisaurio, que pisaba la Tierra 45 millones de años antes que la nueva
especie descubierta. «La pieza más compleja
con la que he trabajado personalmente es una vértebra que estaba corroida antes
de sus hallazgo y resulta tan frágil que si la examinas de forma incorrecta
puede desintegrarse», asegura Kimmy Hales, otro de los geólogos que han
participado en el descubrimiento.
Dada la dificultad de encontrar cráneos en buen estado de este tipo de
dinosaurios, la información de la que se dispone suele ser «de cuello para
abajo». Sin embargo, en este caso, las cabezas aportan nueva información a los
investigadores sobre cómo se alimentaban estos descomunales ejemplares. «Ellos
no mascaban la comida, sino que la prensaban y luego la tragaban tal cual.
Hay que tener en cuenta que la cabeza sólo representa el 2 por ciento del cuerpo
del animal. Frente a la gran variedad de formas dentales de los
saurópodos en el período Jurásico, al final de esta era lo normal era que los
dientes fueran estrechos como un lápiz.
Fuente:
22-2-10
-Una imagen
violenta revela la violenta historia de una luna de Saturno
La sonda
espacial Cassini ha captado por primera vez
una imagen en 3 D de Prometeo, una de las lunas más cercanas de
Saturno. La fotografía muestra que este mundo helado tiene
una
forma alargada que los científicos asemejan a una ballena blanca y,
lo que es más importante, expone sus
irregularidades, cráteres y cicatrices. Estas imperfecciones
revelan un violento pasado: Prometeo sufrió
impactos de meteoros que desfiguraron su aspecto hasta convertirlo
en una especie de gran «patata» espacial, una descripción que utilizan los
propios científicos de la
NASA.
Prometeo es una de las lunas más cercanas a
Saturno. Orbita alrededor del gigante de gas a una distancia de
unos 140.000 kilómetros y tiene 86 kilómetros de envergadura en su punto
más ancho. Fue descubierto por el
Voyager 1 de la agencia norteamericana en 1980. En esta ocasión, la
cámara de ángulo estrecho de Cassini capturó dos imágenes en blanco y
negro de la luna el 26 de diciembre de 2009. Así, el equipo de imagen
combinó ambas para lograr este nuevo punto de vista «en estéreo».
Se ve
diferente a la imagen en forma de huevo difundida el pasado mes de enero
porque entonces se mostraba uno de los extremos más cortos de esta luna de
formas irregulares. En esta nueva imagen 3-D, el sol ilumina Prometeo en
un ángulo diferente, lo que hace visible el cuerpo alargado de la luna.
Prometeo
Fuente: abc.es,
22-2-10
-El
mayor "cazameteoritos" de España
El leonés José Vicente Casado, de 42 años, ha logrado
acumular en su vivienda y en un garaje aledaño 3.000 kilos de material
terrestre y extraterrestre: miles de fósiles, algunos de especies que no se
conocían hasta que él se topó con ellas, como un antepasado del saltamontes, y
también millares de meteoritos llegados a nuestro planeta de
los confines del Universo.
José Vicente, de una familia modesta, nunca pudo estudiar
en la universidad, pero su formación autodidacta le permite ser requerido para
dar conferencias en importantes instituciones científicas,
con las que colabora, y que sus colecciones sean visitadas por decenas
de miles de personas en toda la geografía española.
El primer meteorito con el que se tropezó en su vida fue el
que cayó en Villalbeto de la Peña (Palencia) en 2004. Desde entonces
lleva 40 hallazgos. "El primero fue muy emocionante, como
tener en las manos un trozo del cielo", recuerda.
Poco a poco, se enganchó en esta caza interminable, hasta
el punto de que se pasa la vida de aquí para allá, recorriendo desiertos,
subiendo montañas y visitando las ferias de compra-venta más concurridas del
planeta. Y asegura que no lo hace por vivir de ellos (los alquila y los vende,
pero también los dona para la ciencia), sino "para que se investiguen y se
descubra lo que se pueda sobre el origen del Universo, de nuestro planeta y de
la propia vida".
Un pedazo de 'Murchinson'
Su última adquisición, en un certamen en Tucson (Arizona)
son unos gramos del meteorito Murchison, el mismo que esta semana se ha
revelado como un tesoro de la diversidad química del Cosmos.
Unos científicos europeos han descubierto que su composición esconde más de
14.000 elementos, que podrían dar lugar a millones de moléulas diferentes.
Hoy, este es uno de sus tesoros más pequeños, pero en su
almacén, entre cajas y maquinaria, destaca una piedra negra,
reluciente, de 600 kilos. Procede de Uruguay. "Me costó 30.000 euros,
pero la forma que tiene es especial, nos explica cómo fue su trayectoria y por
ello es interesante para explicar al público su largo viaje".
Jose Vicente Casado
Entre los muchos meteoritos, fósiles y también tectitas
(arena fundida por la caída de meteoritos) también se esconden
falsficaciones. Las tiene para explicar al público las diferencias entre
un pedrusco y un auténtica roca extraterrestre. Asegura que el 90%
de lo que se vende en internet es falso.
Aunque nunca estudió geología, ni química ni física,
reconoce que su verdadera cualidad es ser capaz de discernir de un
vistazo un meteorito entre millares de piedras. Y es fruto de la
experiencia. "Pero en este país no se valora. He tenido problemas
por no tener carrera, pero estoy convencido de que se más que
muchos que van de expertor por ahí".
El lugar que más ha visitado son los desiertos del
norte de África. Están cerca, no hay vegetación que oculte los meteoritos
y, además, es un lugar que ha permanecido estable durante miles de años.
Hace un mes, en Libia, encontró cuatro. Y es encontrarlas
que no es tarea fácil. Se calcula que cada año llegan a la Tierra
entre 200 y 300 meteoritos, pero casi todos caen en el mar.
En su agenda, ya tiene para este año un nuevo viaja a
Bolivia y Chile (el desierto de Atacama), otro a Malí y un tercero a Omán,
con el norteamericano Mike Farmer, que con José Vicente forma parte del
este pequeño grupo de unos 50 ¡'cazameteoritos' que hay en el mundo.
También está escribiendo un libro de divulgación sobre
el tema en español, porque dice que no hay ninguno. "Mi sueño sería que en
España se hiciera con todo ésto un Museo del Espacio, pero no hay
interés", concluye.
Recreando seres prehistóricos
Una actividad paralela de José Vicente Casado son los
fósiles: los busca y también los reconstruye. Entre las negras rocas cósmicas,
en su almacén se pueden ver centenares de plantas fosilizadas,
trilobites, insectos en ámbar antiguo, cránesos y dinosaurios.
Su primera actividad científica fue la reconstrucción de
fósiles de cráneos de antepasados humanos y de animales prehistóricos, como
los dinosaurios y los megadolones (tiburones gigantes).
Algunos de sus ejemplares, sorprendentes recreaciones
hechas con resinas, pueden verse en
Dinópolis (Teruel) y en otros museos europeos. "Normalmente, los hago por
encargo y casi siempre fuera de España. Yo hago los moldes, las
resinas y las soldaduras, y tengo los dedos manchados pero, para
hacerlo, antes leo muchos artículos científicos. Aquí, por desgracia, la
intelectualidad se desliga de la manualidad, asi que ahora me dedico más a los
meteoritos", explica.
En estos momentos también prepara una colección de fósiles leoneses que
serán expuestos en el futuro Museo de la Minería del Bierzo, aún en
construcción.
Fuente: elmundo.es, 21-2-10
-Viajar a velocidad luz nos mataría en
pocos segundos
Malas noticias para todos los que soñábamos con recorrer
la galaxia a velocidades relativísticas. Según parece, al desplazarnos a
velocidades cercanas a la de la luz, los escasos átomos de hidrógeno que
existen en el espacio «vacío» nos golpearían tan duro como las partículas
aceleradas por el Gran Colisionador de Hadrones (LHC).
Si los científicos de la
Universidad Johns Hopkins están en lo cierto, esos pequeños átomos nos
freirían en pocos segundos.
William Edelstein, un físico de la
Universidad Johns Hopkins School of Medicine en Baltimore, Maryland,
ha hecho algunos cálculos y obtenido resultados demoledores. Asegura que
si
nos desplazásemos por el espacio a velocidades cercanas a la de la luz,
moriríamos a los pocos segundos. Y no se trata de un problema
orgánico producido por la aceleración necesaria para alcanzar esa
velocidad. Simplemente, el problema al que nos enfrentamos reside en que
lo que acostumbramos a llamar «espacio vacío», en realidad dista
bastante de ser un verdadero «espacio vacío». La atmósfera de la Tierra
posee, en cada centímetro cúbico, unos 30 millones de billones de átomos
(algo así como 1,000,000,000,000,000,000 átomos). En el espacio, con
algo de suerte, solo podemos encontrar un par de átomos de hidrógeno por
cada centímetro cúbico. Pero
esa
ridícula cantidad de materia alcanza y sobra para impedirnos viajar «a
lo Star Trek».
Spock,
«frito» en segundos
En efecto, si la
USS
Enterprise fuese de verdad, y respetase las leyes físicas que rigen
el Universo, Kirk, Spock y el resto de la tripulación morirían a los pocos
segundos de pisar el acelerador. La culpa sería de esos dos átomos de
hidrógeno por centímetro cúbico y de la
Teoría de la Relatividad de Einstein.
Esa
débil cantidad de materia se convertiría en un haz de radiación lo
suficientemente intenso como para matar a los humanos abordo en pocos
segundos, e incluso bastaría para destruir los instrumentos
electrónicos de la nave, y a la nave misma.
La Teoría de la Relatividad Especial describe cómo el
espacio y el tiempo se encuentran distorsionados para observadores que
viajan a diferentes velocidades. Para la tripulación de una nave espacial
que acelera hasta cerca de la velocidad de la luz, el espacio interestelar
parece muy comprimido, lo que aumenta el número de átomos de hidrógeno que
golpean la nave cada segundo, convirtiéndolos en
un verdadero rayo de
la muerte apuntado hacia la proa.
Desde el punto de vista de los viajeros, los átomos
mencionados son acelerados hacia ellos, por lo que su energía cinética
aumenta. Si quisiésemos viajar al centro de la Vía Láctea -distante unos
50.000 años luz de la Tierra- en un lapso de tiempo razonable -digamos unos
10 años- nuestra nave debería desplazarse a una velocidad cercana al
99,999998 por ciento de la velocidad de la luz. A estas velocidades, los
átomos de hidrógeno impactarían contra nuestro vehículo con una energía de
aproximadamente 7 TeV (Teteraelectron voltios),
el doble de la
energía que se espera alcanzar con el Gran Colisionador de Hadrones
cuando funcione a pleno rendimiento. «Para la tripulación de la nave, el
efecto de estos átomos acelerados sería el mismo que si se parasen frente al
haz del partículas del
LHC», dice Edelstein.
Sin protección
¿Estar dentro del reforzado casco de la nave hace alguna diferencia? Sí,
pero no demasiada. La estructura de la nave, de hecho, ofrece poca
protección. Edelstein calcula que un tabique construido con 10 centímetros
de aluminio lograría absorber menos del 1% de la energía que impacta contra
el vehículo espacial. Dado que los átomos de hidrógeno tiene un protón en su
núcleo, su impacto nos expone a una peligrosa radiación ionizante, capaz de
romper los enlaces químicos de nuestro ADN y dañarlo irreversiblemente. «Los
átomos de hidrógeno son como minas espaciales inevitables», afirma Edelstein,
sepultando definitivamente nuestras ganas de recorrer la galaxia a altas
velocidades.
La dosis de radiación mortal para un ser humano es de
aproximadamente 6 sievert. Los cálculos efectuados por Edelstein demuestran
que la tripulación
recibiría una dosis de radiación superior a los 10.000 sieverts cada segundo.
La radiación seria tan intensa, que incluso debilitaría la estructura de la
nave espacial y dañaría sus instrumentos electrónicos. Puesto a especular,
el científico cree que
ésta puede ser una de
las razones por las cuales las civilizaciones extraterrestres más avanzadas
aún no nos han visitado. Aunque ET haya logrado la tecnología
necesaria para construir una nave interestelar, no puede viajar a
velocidades cercanas a la de la luz sin convertirse en
un cadáver a bordo de
una debilitada nave fantasma.
Parece que el Universo se opone a que nos movamos rápido
por su interior. Esos pocos átomos dispersos en el espacio se convierten en
una verdadera barrera para nuestros desplazamientos. ¿Podríamos evitarla?
Quizás. Seguramente no con la tecnología actual, pero si fuésemos capaces de
construir un poderoso campo magnético en el frente de la nave, desviaríamos
el haz de protones antes de que nos dé de lleno. De hecho, algo así es lo
que usamos para que los protones acelerados dentro de la
«máquina de Dios» describan una curva de 27 kilómetros de diámetro por
el interior del túnel principal. ¿Qué crees?
Fuente: abc.es, 19-2-10
-Los efectos de la vacuna contra el SIDA se desvanecen en
un año
La vacuna contra el sida que
funcionó parcialmente en Tailandia, que se anunció como el principio del
fin de la epidemia -aunque luego se rebajó el entusiasmo- podría proteger a
los pacientes sólo de forma temporal porque sus efectos comienzan a
desaparecer al año de su aplicación, según han informado los investigadores.
Eso explicaría por qué los resultados de la vacuna
experimental fueron tan
difíciles de interpretar, ha explicado el doctor Nelson Michael, coronel
del Instituto de Investigación del Ejército Walter Reed Army, en Maryland, que
ayudó a conducir el ensayo.
El equipo de Michael está intentando descubrir cómo
o por qué pudo haber funcionado. En septiembre pasado los
investigadores sorprendieron al mundo cuando mostraron que la vacuna
experimental reducía el riesgo de infección en un 31%.
"Es muy probable que esta vacuna sólo funcione por un corto
período de tiempo", dijo Michael a la agencia Reuters. "Es un efecto
débil y modesto, pero es algo que podemos desarrollar", agregó.
La
vacuna -RV144- es una combinación de dos inmunizaciones, ALVAC -de Sanofi
Pasteur- y AIDSVAX -fabricada por una compañía de San Francisco llamada VaxGen-,
que ahora es propiedad de la organización sin fines de lucro Soluciones
Globales para Enfermedades Infecciosas.
Redefinir el ensayo
El investigador ha anunciado durante la Conferencia de
Retrovirus e Infecciones Oportunistas (CROI), que se está celebrando en San
Francisco, que es posible diseñar un ensayo que demuestre más fehacientemente
si la vacuna puede ayudar a las personas. Una parte del problema fue que los
16.000 voluntarios tailandeses que probaron la vacuna no estaban en un
riesgo particularmente alto de sufrir una infección por VIH, sostuvo
Michael. El especialista dijo que trabajará junto al doctor Anthony Fauci,
director del Centro Nacional de Alergias y Epidemias Infecciosas de Estados
Unidos, para diseñar ensayos en Asia y Africa.
De acuerdo con el último informe de la ONU sobre el sida,
más de 33 millones de personas están infectadas con el virus y cada año se
registran 2,7 millones de nuevas infecciones. Según el doctor Michael, hasta
una vacuna que nos proteja por un año sería útil. Si bien reconoció
que no es lo ideal, también recordó que hay vacunas como la de la
gripe que necesitan refuerzos todos los años. En las próximas semanas, Michael
dijo que los estudios comenzarán a buscar claves acerca de la sangre de los
voluntarios vacunados. "Todos quieren saber por qué esto funcionó y qué
medidas pudimos tomar en el laboratorio para predecir lo que pasó", dijo.
Fuente: elmundo.es, 19-2-10
-5000 nuevas especies en el abismo
El equipo
internacional de científicos del
«Censo
de Vida Marina» anunciaba hace unos meses el hallazgo de miles de
nuevas especies que sobreviven en el fondo de los océanos, en un mundo
obscuro entre los 200 y 5.000 metros de profundidad. Ahora, estos
especialistas han ofrecido un avance de sus investigaciones. Aseguran que este
nuevo catálogo incluye
5.000
nuevas especies en la que se incluyen criaturas extrañas y llenas de
colorido, pero la lista puede no cerrarse aquí, ya que todavía queda mucho por
estudiar.
El censo completo será hecho público el próximo mes de octubre.
Epimera, nueva especie. Tiene 25 mm
Anémona Stephanthus antarcticus
Los primeros resultados del proyecto, que ha
implicado a más de 344 científicos de 34 países, han sido dados a
conocer en la reunión anual en San Diego (EE.UU.) de la
Asociación
Americana para el Avance de la Ciencia. Entre las nuevas criaturas
hay animales tan curiosos como el cangrejo
Kiwa hirsuta, de aspecto afelpado, hallado en la isla de Pascua, tan
único que ha dado nombre a una nueva familia de cangrejos; o una nueva
especie de esponja de los cayos de Florida con una sustancia química con
propiedades anticancerígenas que está siendo investigado como potencial
terapéutico. También hay exóticos gusanos, corales y erizos de mar.
Los investigadores utilizaron cámaras de inmersión
profunda, sónares y otras tecnologías de vanguardia para observar a
estas criaturas en su medio natural, zonas marinas donde ni siquiera
llega el sol, la llamada
«zona de crepúsculo», el lugar donde la ausencia de luz impide el
proceso de fotosíntesis y, por lo tanto, la existencia de flora activa.
«Aunque el barro de los fondos profundos parecer ser
monótono y pobre en alimentos, en realidad tiene la máxima diversidad de
especies posible», señalaron en su día los científicos.
Los investigadores creen que este nuevo censo sentará las
bases científicas para que los gobiernos puedan crear políticas de proteción
para los hábitats marinos vulnerables, especialmente las delicadas barreras
de coral, tristemente dañadas por la actividad humana y la falta de
protección.
Fuente: abc.es, 21-2-10
-Pildora inteligente: chequeo y cirugía desde el interior del
organismo
Distintas compañías trabajan en el diseño de una cápsula que, además de
ofrecer imágenes del aparato digestivo, haga una análisis de los tejidos,
administre fármacos allí donde sea necesario o extirpe incluso pequeñas
lesiones. Todo ello sin cicatrices y sin las molestias de la endoscopia
tradicional.
Alguna vez habrá fantaseado con encontrar el secreto de la vida eterna.
Poder ingerir una píldora que nos cure de todos los males o que, incluso,
pueda hacernos durar 100 años. Aunque esta pastilla mágica aún pertenece al
mundo de la ciencia ficción, muchos investigadores trabajan ya en los
primeros prototipos de lo que podría ser «la píldora robótica del futuro»:
un dispositivo capaz de detectar enfermedades, tratarlas desde dentro,
recoger muestras y operar sin bisturí desde una úlcera hasta un cáncer. La
pastilla que podría impresionar al mismísimo doctor House nacerá de la
combinación entre biomedicina, tecnología y comunicación inalámbrica. Esta
nueva área del conocimiento ha surgido tras la que ya se conoce como
revolución «body 2.0», una nueva concepción de la medicina centrada en
diseñar medicamentos capaces de interactuar con el organismo. Con estos
nuevos chips, el papel del médico sería similar al de un director de
orquesta: estar atento a que nada desafine dentro del organismo.
Píldora inteligente
Para una de las mayores expertas españolas en este campo, la investigadora del
Centro de Investigación en Nanociencia y Nanotecnología (CIN2) Laura Lechuga,
la píldora multiusos del futuro «debería llevar incorporada una microcámara,
como la que ya se utiliza en muchos hospitales españoles para realizar
endoscopias, pero que permita visualizar todas las partes del cuerpo y no sólo
el tracto intestinal». «Además, tendría que incorporar –añade– un microchip que
detecte la enfermedad y emita una señal rápida para avisar al médico o al
paciente, por un sistema sin cables, de que algo no funciona». Otra alternativa,
dice la experta, sería que la propia píldora llevase almacenados medicamentos
para liberar «en el momento la dosis exacta».
Una de las aproximaciones más innovadoras al «médico encapsulado» es la que han
diseñado los expertos de Proteus Biomedical. Esta compañía americana, pionera en
el desarrollo de microchips digeribles, ha fabricado un prototipo capaz de
viajar al centro del organismo y transmitir desde allí las constantes vitales
del paciente. En tiempo real, todo lo que sucede dentro del individuo queda
registrado en el ordenador o el móvil de su médico, que podrá tomar decisiones
incluso sin ver al paciente en consulta. Esta joya de la medicina se llama «Raisin»
y la farmacéutica Novartis está probando ya su eficacia en Reino Unido. Cerca de
veinte pacientes ya han ingerido el chip dentro de sus píldoras para la
hipertensión y su satisfacción con el tratamiento ha mejorado, subiendo del 30
al 80 por ciento en los seis primeros meses de experimento.
A pesar de sus innegables ventajas, el principal obstáculo que encontrará este
dispositivo para llegar a las farmacias es su volatilidad. Puede durar en el
organismo poco más que un café de máquina, por lo que permitiría controlar al
paciente un máximo de 72 horas. Por eso, Proteus trabaja ya en «Chipskin», una
versión implantable de «Raisin» que no se desintegra tan fácilmente al contacto
con los fluidos corporales. El objetivo de la empresa es que este nuevo
dispositivo pueda mantenerse activo durante meses, quizá años, dentro del
organismo.
Mayor aprovechamiento
Otro candidato a convertirse en «píldora prodigiosa» llega desde Holanda. Su
promotor es la empresa Philips, que está intentando dar una nueva vuelta de
tuerca a la primera generación de microcápsulas inteligentes, nacidas en 2001
para jubilar a la endoscopia en la detección de trastornos del aparato digestivo
de forma menos invasiva. Están perfilando la «iPill», una pastilla que destaca
por ser capaz de servir como «medio de transporte» del fármaco hasta el foco de
la enfermedad. Esta innovadora técnica, que aún no ha sido probada en humanos,
permitiría aprovechar mejor los principios activos de los medicamentos, que se
desperdician al ingerirse por el método tradicional. El secreto está en su
microprocesador, una especie de GPS que indica en cada momento su ubicación
dentro del cuerpo a través de la medición del Ph del entorno. Esta capacidad del
dispositivo permite al médico apuntar y «disparar» el fármaco en el centro del
dolor.
El principal inconveniente de la «iPill» es que carece de cámara de video, algo
que podría subsanarse en futuras versiones. De hecho, aunque todavía es pronto
para anunciar nuevos proyectos, en esta línea podría avanzar la nueva versión de
la píldora inteligente de Philips. «Podría tener un tamaño menor que el actual
prototipo o, manteniendo sus dimensiones, contar con mayor capacidad para
almacenar medicamentos e incluir una minicámara en su interior», según reveló a
este semanario el portavoz de Philips Research en Eindhoven, Steve Klink.
Además, la nueva píldora «podría aumentar las capacidades de diagnóstico de la
actual “iPill’», focalizada por el momento en demostrar su eficacia en el
diagnóstico y tratamiento del cáncer de colon, la colitis y la Enfermedad de
Crohn. Según Klink, esta fórmula «mejorará la eficacia y reducirá los efectos
secundarios de muchas terapias que, como es el caso de los nuevos fármacos
basados en péptidos, proteínas y ADN, no pueden ser administradas de forma
efectiva a través de una simple ingestión oral». Y no es para menos: la pastilla
de Proteus fue capaz de averiguar si este antihipertensivo estaba siendo eficaz
en todo los casos, cuál era el mejor momento para tomarlo y qué dosis reportaba
a cada uno los máximos beneficios.
No obstante, la aspiración más ambiciosa para la futura «pastilla robótica» es
que sea capaz de operar al paciente desde dentro, de forma segura y sin
incisiones. Convertirla en realidad es el objetivo de un grupo de investigadores
de las más prestigiosas escuelas de Robótica de Europa, entre ellas la Escuela
Superior de Santa Ana (Italia). Su proyecto consiste en diseñar «biomicrorobots»
capaces de realizar operaciones en el intestino, gastroscopias o biopsias de
tejidos. Su introducción en el organismo se realizaría a través de la ingestión
de tres píldoras que, posteriormente, mediante electroimanes, se volverían a
reunir en el estómago del enfermo. Allí, estos tres dispositivos actuarían
juntos como en una verdadera «sala de operaciones». Otra vía de investigación
abierta por estos científicos pretende mejorar la movilidad de los chips
ainteligentes. Para ello han desarrollado un prototipo conocido como «píldora
araña». Se trata de una pastilla con cámara incorporada que se diferencia de las
anteriores por contar con ocho patas dirigidas a control remoto, lo que le da un
aspecto similar al de los inquietantes insectos de las películas de David
Cronenberg. Esta peculiaridad permite al médico variar el rumbo del aparato
dentro del intestino o el colon y utilizarlo como alternativa a la gastroscopia.
Su efectividad ha sido probada en cerdos con buenos resultados y los ensayos en
humanos podrían comenzar este mismo año.
Según Elisa Buselli, investigadora de la escuela italiana de Santa Ana, la idea
de la que nace esta píldora es intentar «imitar a un animal como la araña». «Por
eso se le dota de extremidades robóticas que permiten moverla por el intestino o
el colon, grabando imágenes y controlando, por ejemplo, el avance de un cáncer».
Un paso más en la línea de estos dispositivos-araña lo ha dado el proyecto que
han desarrollado en Israel los científicos de la Universidad de Technion. A
medio camino entre la ciencia-ficción y la realidad, en la ciudad de Haifa un
equipo de científicos ha logrado desarrollar un robot del tamaño de una pulga
capaz de recorrer el sistema circulatorio de un individuo a la asombrosa
velocidad de un centímetro por segundo. Este artilugio lleva incorporado un
complejo sistema nanoeléctrico que se sirve de los campos magnéticos y de la
inercia del propio flujo sanguíneo para avanzar por cualquier vena o arteria de
nuestro organismo a excepción de los capilares, demasiado estrechos para su
envergadura.
La novedosa tecnología utilizada en este proyecto –bautizada como MEMS, por sus
siglas en inglés– ha permitido a los científicos israelíes reducir a la mínima
expresión a este Livingstone de la robótica. La clave es que prescinde de las
aparatosas baterías con las que tienen que cargar los dispositivos dotados de
cámara. Una vez dentro del cuerpo, la principal tarea de este microrrobot es
«patrullar» por el sistema circulatorio.
El objetivo es localizar obstrucciones y potenciales trombos que puedan derivar
en paros cardiacos e infartos cerebrales. A la espera de que su prototipo sea
probado en humanos, en la Universidad de Techion trabajan ya en un nuevo
proyecto que incorporará a este robot una cámara para detectar tumores.
Cada una de estas píldoras tiene una o varias de las características de la
futura pastilla perfecta, un invento que, sin duda, mejoraría la vida de los
pacientes crónicos y ahorraría mucho dinero en bajas laborales y camas de
hospital. Sin embargo, muchos pacientes podrían vivir este avance como una
verdadera historia de terror, pues la futura pastilla ofrecería, por primera
vez en la historia, la posibilidad de implantar un dispositivo electrónico para
controlar las constantes vitales.
Fuente: larazon.es, 19-2-10
-"Las
matemáticas dan una cosilla... como un subidón"
"Es como si
estuvieras en tu equipillo y de repente fueras llamada a la selección... No te
esperas tanta repercusión". Isabel Fernández (Linares, 1979) saltó de alegría
hace un año, cuando la invitaron a la reina de las cumbres matemáticas. Será la
primera española que acuda al International Congress of Mathematicians (ICM)
gracias a su investigación sobre la geometría de las pompas de jabón. Suena
cómico y enigmático, pero ella corrige: "Apasionante". La cita: el próximo
agosto en Hyderabad (India).
Isabel Fernández analiza pompas de jabón.-
PÉREZ CABO
Fernández ha escogido hoy el céntrico restaurante
Contenedor de Sevilla. Ha llegado al almuerzo en bicicleta desde la
universidad, donde trabaja como profesora. "Conozco su delicioso arroz con
pato, pero pídelo tú y yo pruebo otra especialidad", aconseja. Durante la
comida, Fernández es una ametralladora que dispara ideas complejas adobadas
con sonrisas que hacen terrenal su inteligencia. Cuando su entusiasmo se lo
permite, ataca la ensalada de salmón.
Tras descartar el sueño de arqueóloga a lo Indiana Jones,
Fernández se decantó "a lo kamikaze" por lo que mejor se le daba. Las
mates impregnaron su vida y las tangentes se mezclaron con las curvas
planas con sabor infantil a jabón. "Pero que conste, no mortifico a mi novio
y no le cuento cada vez que alcanzo un lema [previo a los teoremas]. Me
gusta lanzar catenoides. Tienes cierto control sobre las propiedades de las
superficies y las pones a prueba", cuenta resuelta.
El próximo verano explicará ante la élite matemática sus
avances en la geometría de las pompas de jabón, junto a su compañero Pablo
Soto. Didáctica y siempre con la sonrisa en la recámara, Fernández define
sus investigaciones, pero apenas ha tocado la ensalada que el camarero trajo
hace ya 15 minutos: "Estudiamos superficies agradables como las pompas, con
el menor esfuerzo. Pero no he hecho una pompa en mi vida", avisa. ¿Nunca?
"Jamás". Sorprendente que esta joven no se haya lanzado a una bañera Mistol
y alambre en mano para poner en práctica las formas y dulzura que adaptan
las pompas. Todo son fórmulas y más fórmulas que escribe en el folio en
blanco para luego contrastar con su colega Soto por skype. Con ella,
la teoría no baja a la práctica. "En clase puedo llenar pizarras y pizarras
de fórmulas, no me canso", avisa. ¿Y canta eureka? "Pues la verdad, soy más
del 'sí, sí" [cierra el puño con fuerza]. A continuación, recuerda que la
maravilla de las cualidades de las pompas, avanzadas por el belga Joseph
Plateau, está aplicada con éxito, como en el estadio olímpico de Múnich.
Fernández rompe el tópico del matemático despistado y en
las nubes, y no hay dudas de su pasión por la investigación: "Hay cosas que
te emocionan, y esa idea de que las matemáticas son aburridas... luego te da
una cosilla... como un subidón". Pasados 40 minutos, el zumo de tomate sigue
a medias mientras se pisa las frases, pero al menos ya saborea el bacalao
acompañado de una "excelente" crema de boniato. Con la boca pequeña confiesa
que las clases en la facultad le sirven "para recuperar la autoestima y
resolver problemas que sabes". Antes de irse, bromea sobre su conferencia en
la India: "Me temblarán las piernas, pero intentaré que no se note mucho".
Fuente:
elpais.com, 19-2-10
-¿Es esta la primera partícula de la
materia oscura?
De confirmarse, podríamos encontrarnos ante el mayor
descubrimiento en muchos años en el mundo de la Física, un hallazgo que daría
la vuelta por completo a los parámetros científicos que manejamos ahora. Un
equipo de científicos, entre los que se encuentran investigadores de la
Universidad de Florida (EE.UU.), ha encontrado la que puede ser la primera
partícula de materia oscura. Las pruebas aún no son concluyentes, pero sí muy
esperanzadoras. No se trata de rumores. El estudio ha sido publicado en la
edición online de la prestigiosa revista Science.
La materia «ordinaria», la que conocemos, da forma a
todo lo que podemos ver, desde un pequeño insecto a una galaxia, pero los
científicos creen que sólo suma el 4% del Universo. El resto, un inmenso
96%, está compuesto por materia y energía que no conocemos, razón por la
que las hemos llamado «oscuras». La materia oscura daría cuenta, según los
investigadores, de otro 20% de la masa total del universo (el restante 77%
estaría hecho de energía oscura, un concepto aún más extraño y
desconocido). Por eso, encontrar una partícula tan especial supondría un
magnífico acontecimiento. Tras nueve años de búsqueda, quizás hayamos dado
el primer paso. El detector
CDMS (Cryogenic Dark Matter Search), construido en las profundidades
de la
mina Soudan, una antigua explotación de hierro en Minnesota,
ha
captado dos posibles partículas de este tipo, también conocidas como WIMPS.
Entre sus características conocidas, se encuentran que sólo reaccionan
ante dos de las cuatro fuerzas de la naturaleza (la gravedad y la fuerza
nuclear débil, responsable de la radiación). Pero no todo está ganado.
Según los expertos de la Universidad de Florida, hay una oportunidad entre
cuatro de que estas partículas sean simplemente «ruido de fondo». «Es algo
complicado, los números son demasiado pequeños», admite Tarek Saab, uno de
los físicos que participa en el experimento junto a docenas de colegas.
La materia oscura, tal y como los científicos creen que se
distribuyen en el Universo / ABC
En cinco
años
Los científicos reconocieron hace décadas que la velocidad
de rotación de las galaxias y el comportamiento de los cúmulos de galaxias no
podían explicarse por las fuerzas tradicionales de la gravedad. Otra cosa
-algo invisible, imperceptible pero muy potente- tenía que ejercer la fuerza
necesaria para que la galaxias rotasen a más velocidad de la esperada y otras
anomalías similares. A esto se ha llamado materia oscura -oscura porque no
refleja ni absorbe la luz de ninguna forma-, que, a pesar de su innegable
influencia, nunca ha podido ser observada directamente.
El nuevo hallazgo, aunque aún no puede confirmarse, ayuda a
eliminar algunas teorías más o menos vigentes sobre la materia oscura,
delimita el perfil de los WIMPS y puede acelerar la carrera para detectarlos.
«Mucha gente cree que estamos extraordinarmente cerca, no sólo nosotros»,
afirma Saab. No falta mucho. «Ciertamente, en los próximos cinco años, alguien
verá una señal clara».
Fuente: abc.es, 18-2-10
-"Encaramos el gran reto de la ingeniería"
Sergio Idelsohn, especialista en mecánica de fluidos, acaba
de obtener una beca de tres millones de euros del Consejo Europeo de
Investigación (ERC) para desarrollar sistemas de simulación informática que
puedan realizar cálculos en tiempo real. Este investigador ICREA en el Centro
Internacional de Métodos Numéricos en la Ingeniería (CIMNE) de la UPC en
Barcelona, de origen argentino, maneja técnicas que sirven para comprobar cómo
se comporta un avión en vuelo o cómo navega un petrolero. La Armada de Estados
Unidos utiliza sus técnicas en uno de sus proyectos.
Sergio Idelsohn muestra una de sus simulaciones en el Centro Internacional de
Métodos
Numéricos en la Ingeniería (UPC).-
CARMEN SECANELLA
A los 62 años, Idelsohn nunca deja de pensar. Llega a la
entrevista con una hoja rebosante de ecuaciones, fruto de la consulta de su
jefe, Eugenio Oñate, con la almohada. Revisará el trabajo mientras pasea, su
gran espacio de inspiración.
Pregunta. ¿En qué han cambiado los métodos numéricos
desde que comenzó a investigar, hace 40 años?
Respuesta. Son métodos matemáticos utilizados para
resolver problemas de ingeniería o física. En los años cincuenta y sesenta
estos problemas se resolvían a mano. Desde los años setenta, lo hacen los
ordenadores, pero fue necesario adaptar los métodos.Una ecuación que rige el
movimiento de los líquidos, por ejemplo, se escribe en dos líneas de una
pizarra. Pero saber la velocidad que rige esa ecuación es algo muy difícil y
hasta la aparición de los computadores se realizaba en papel. Entonces, un
sistema de 20 ecuaciones con 20 incógnitas podía requerir un par de días; hoy
en día se pueden resolver entre cuatro y cinco millones de ecuaciones en
minutos.
P. ¿Qué aplicaciones tiene?
R. Hay casos en que no es posible realizar ensayos
reales. Un problema típico de la siderurgia es calcular la altura desde la que
se puede volcar un material en una vasija de metal fundido para mezclarlo sin
salpicar el trabajador, pero hay otros: ¿Cuánto tiempo tardará la impureza del
metal fundido en subir a la superficie? ¿Cómo mezclo azufre con el metal a
1.500 grados y cuánto tiempo tarda en mezclarse?
P. ¿Cuál es su mayor reto?
R. Realizar cálculos numéricos de problemas de
ingeniería en tiempo real es un gran reto, siempre nos hemos estado peleando
con el tiempo de cálculo. Muchas veces no se pueden realizar aplicaciones
prácticas porque no funciona el método para resolver el problema en tiempo
real.
P. ¿Qué representa el nuevo método que ha
desarrollado y por qué dicen que es revolucionario?
R. Es el método de Elementos Finitos de Partículas,
que realmente ha traído un cambio importante en muchas de las ecuaciones que
resolvemos. Por ejemplo, en los problemas de superficies libres (una
superficie que separa un líquido del aire o de otro líquido), también llamadas
interfases. Hasta ahora, se podía simular cómo avanza una ola, pero no cuando
ésta rompe contra un rompeolas. Cuando aparecen muchas partículas, las gotas
se convierten en muchas superficies libres. El método de partículas permite
prevenir los efectos de un tsunami en una ciudad costera.
P. ¿Se utiliza esta técnica en la práctica?
R. Los vulcanólogos nos han pedido que simulemos la
interacción de los fluidos en la cámara magmática de los volcanes, que
normalmente se encuentra en situación estacionaria. Suponen que las erupciones
empiezan cuando, por algún motivo, entra en esa cámara un líquido más
caliente, se produce una reacción térmica y aumenta la presión hasta
producirse la erupción. Quieren comparar los resultados con el material
despedido por los volcanes.
P. ¿Cuál es la idea del proyecto seleccionado por el
ERC?
R. La Unión Europea quiere competir científicamente
con EE UU y Japón, y los proyectos ERC deben ser de alto riesgo para que los
que obtengan resultados sean de primera línea. En nuestro caso, queremos
resolver problemas que utilicen los cálculos numéricos en tiempo real. Sería
impensable un GPS que ofreciera al conductor de un coche una dirección al cabo
de tres minutos, en vez de tres segundos. Por ejemplo: ¿Qué pasaría si durante
un incendio forestal cambia de repente el viento? ¿Habrá que desalojar las
viviendas cercanas? Los bomberos podrían ir con ordenadores de bolsillo y
conocer mejor la evolución del incendio. Lo mismo serviría para tsunamis.
P. ¿Cómo funcionará un sistema de cálculo en tiempo
real?
R. Vamos a utilizar la tecnología de videoconsolas,
que cuentan con tarjetas gráficas de altas prestaciones y de propósito general
(GPUGP), más potentes que muchos ordenadores personales. El problema de los
videojuegos, sin embargo, es la falta de precisión, algo fundamental en la
industria. Esta precisión es importante, por ejemplo, durante una intervención
quirúrgica: es necesario calcular en tiempo real la tensión que soporta la
sangre (para evitar que se rompa, que cambien sus propiedades físicas)
cuando el cirujano introduce un corazón artificial o una válvula.
P. ¿Y dónde venden su idea?
R. Nos ha costado muchos años, pero hemos conseguido
entrar en un mercado tan difícil como Estados Unidos. Por ejemplo, la Agencia
Nacional de Estandarización Técnica (NIST) nos ha pedido que simulemos la
propagación de incendios en el mobiliario doméstico. También trabajamos para
la Office for Naval Research en la nueva generación de barcos rápidos sobre
colchón de aire, para conocer cómo se deforma su estructura con fuertes
oleajes y cómo navegan en aguas poco profundas. La Armada estadounidense
también nos ha encargado estudiar el efecto de la implosión en el fondo
marino. Igualmente vamos a coordinar proyectos para evaluar cómo pueden
afectar huracanes y terremotos a las construcciones e infraestructuras
viarias, que es de interés del Banco Interamericano de Desarrollo y el Banco
Mundial. Y en Europa tenemos actualmente 30 proyectos; por ejemplo, cómo
reforzar los polímeros con nanopartículas, algo interesante para crear
textiles de alta resistencia con los cuales poder construir puentes con vigas
llenas de aire o hangares portátiles que llevaría la propia avioneta. En el
terreno de la seguridad, en colaboración con la empresa Dragados, hemos creado
un sistema para evaluar la seguridad de la construcción del puerto de
Langosteira en A Coruña, debido a que sólo es posible trabajar un número
limitado de días al año por causa del mal tiempo.
Fuente: elpais.com, 17-2-10
-Buscando el
origen de "Fobos"
La sonda 'Mars Express' de la ESA ha modificado su ruta
investigadora para poner el telescopio en marcha sobre 'Fobos', la luna más
grande de Marte, con el objetivo de desentrañar el origen y el proceso de
formación del satélite, según informó este martes la
Agencia
Espacial Europea (ESA).
Para ello, la ESA ha planificado una serie de sobrevuelos
alrededor del cuerpo, de forma que el próximo 3 de marzo la investigación
alcanzará su "punto culminante", cuando se sitúe a "tan sólo" 50 kilómetros
de la superficie de 'Fobos', la distancia más cercana a la que ha estado un
aparato de la luna marciana.
Recreación de Fobos
Así, la campaña de sobrevuelos ha comenzado el martes
a las 07.52 (hora española) a 991 kilómetros del satélite. Además, estos
continuarán a diferentes altitudes hasta el 26 de marzo, momento en el
que 'Fobos' modifique su rango.
"'Mars Express' se encuentra en una órbita elíptica y
polar con una distancia máxima de Marte de cerca de 10.000 kilómetros y
pasa regularmente por 'Fobos'. Esto representa una excelente oportunidad
para llevar a cabo ciencia extra", dijo el científico del proyecto
Olivier Witasse.
En 2009, el equipo de la misión decidió ajustar de
nuevo la órbita de la sonda espacial, desde el Centro Europeo de
Operaciones Espaciales en Darmstadt (Alemania), a 50 kilómetros por
encima de 'Fobos'. "Es lo más cercano que nos dejaron volar sobre el
satélite", afirmó Witasse.
El origen de 'Fobos' es un misterio para los
expertos. En este sentido, contemplan tres posibles escenarios:
que la luna es un asteroide capturado; la segunda es que se formó 'in
situ' al mismo tiempo que Marte; y la tercera, que 'Fobos' se formó a
partir de restos de escombros de Marte después de que un meteorito
chocara contra el planeta rojo.
Fuente: elmundo.es, 18-2-10
-Las claves genéticas de la "cuna" de la humanidad
Durante años las investigaciones de genética humana han
provocado un enorme sesgo en las bases de datos a favor de las poblaciones
de origen europeo. De todos los genomas completos que se han publicado
hasta la fecha sólo uno de ellos es de África, el lugar
donde habitaba el ancestro común y desde el que el ser humano colonizó el
resto del planeta. Ahora, una investigación dirigida por científicos de la
Universidad de Penn State (EEUU) ha demostrado hasta qué punto estaba
equivocado el camino científico seguido por los estudios genéticos.
El estudio ha analizado la secuencia de ADN de cuatro
bosquimanos de la etnia Khoisán y un miembro de los Bantú, para lo que
se ha prestado voluntario el arzobispo y Premio Nobel de la Paz
Desmond Tutu. Los investigadores han identificado 1,3 millones de
variantes genéticas desconocidas hasta la fecha. Con la secuenciación de
los dos europeos, tres asiáticos y un africano secuenciados hasta ahora
sólo se habían documentado entre 3 y 4 millones de variantes.
"La variación genética humana es vital para
determinar el riesgo de padecer una enfermedad que tiene un
individuo o la capacidad que tiene para responder a un determinado
fármaco", explica la coautora del trabajo Vanessa M. Hayes, de la
Universidad de New South Wales en Australia.
Un grupo de bosquimanos camina por un sendero de Namibia. |
Stephan C. Schuster
"Hay que recordar que la genómica humana está llegando a
ser una fuente de conocimiento médico real y muy poderosa que podría alcanzar
su punto álgido en 2010", asegura el autor principal del trabajo, Stephan C.
Schuster, científico de Penn State y líder del grupo que
descifró el genoma del mamut
hace algunos meses.
Los últimos cazadores-recolectores
Schuster seleccionó a cuatro representantes de la etnia
Khoisán, una población de bosquimanos que habita en Namibia, por ser el único
grupo que aún mantiene el tipo de vida cazador-recolector que tenían los
primeros seres humanos.
Además, ha evolucionado sin interrupción desde la
separación del ancestro, algo que no han hecho las poblaciones europeas o
asiáticas que pasaron por un cuello de botella genético cuando unos pocos
individuos se expandieron por el hemisferio norte. "Hay más
diferencias genéticas entre dos bosquimanos que entre un europeo y un
asiático", compara Hayes.
"Estas características permiten a los científicos estudiar
no sólo las aplicaciones médicas sino también las adaptaciones al modo de
vida", explica Tomás Marqués Bonet, investigador del Departamento de Ciencias
Genómicas de la Universidad de Washington y del Instituto Médico Howard Hughes.
La investigación detalla un perfecto ejemplo de este tipo
de mutaciones relacionadas con el modo de vida. Los individuos
analizados no poseen el gen que permite fabricar la enzima que digiere la
lactosa. Como es lógico los cazadores-recolectores no consumían
leche, porque no explotaban ganado. Algo que sí comenzaron a hacer los humanos
con el inicio de la agricultura y la ganadería. Por ello ese gen y la
capacidad de digerir la leche sí se encuentra en las poblaciones europeas o
asiáticas.
Fuente: elmundo.es, 17-2-10
-La falta de reconocimiento aleja a los
científicos de la divulgación
En los últimos años, la presencia de la ciencia en los
medios de comunicación, ya sea en forma de divulgación o de debate político,
ha aumentado considerablemente, pero aún está lejos de alcanzar el peso que se
le concede habitualmente en nuestras vidas, en la transformación de la
sociedad y la economía.
«No sólo hay que contar que se ha descubierto algo,
sino también explicar por qué es importante, a dónde te lleva ese
conocimiento», aclara el antropólogo, quien no cree tanto en la idea de
divulgación -por ser «banal»- como en la necesidad de integrar el concepto
de ciencia en el sustrato mismo de la sociedad. «Cuando rompamos la
barrera entre conocimiento y pensamiento, la ciencia será como el fútbol,
formará parte de nuestra cultura», añade.
Javier Armentia, astrofísico y director del Planetario
de Pamplona, explica que «el reto está en pasar de la información a la
reflexión». Pero, ¿por qué es tan difícil dar este paso? «La información
económica requiere mucho más esfuerzo, y los toros también tienen su
propio lenguaje», comenta Armentia. «El problema es que se ha claudicado,
se dejado la ciencia como algo que hacen los científicos».
Lo curioso es que, en contra del mito del científico en
su torre de marfil, muchos jóvenes investigadores no se sienten cómodos
con este estatus. «La gente es consciente de la importancia de la ciencia,
incluso la admira, pero pone una distancia», lamenta Santiago Rello
Varona, del Instituto Gustave Roussy, en Francia.
El mencionado estudio europeo, publicado en diciembre
de 2007, también señalaba una diferencia fundamental entre los
investigadores más veteranos y los más jóvenes, éstos últimos mucho más
acostumbrados, y también más proclives, a relacionarse con los medios.
Pero el esfuerzo por comunicar no siempre se ve recompensado: escribir un
ensayo divulgativo, mantener un 'blog' o colaborar con la prensa no puntúa
oficialmente en la carrera del investigador. Y, aunque se quiera hacer, no
siempre es fácil saber qué palos se han de tocar.
«La falta de una financiación específica para
comunicación, la falta de tiempo y las dificultades de encontrar un
lenguaje sencillo para comunicar clara y efectivamente a audiencias más
amplias son subrayados como los mayores obstáculos desde la comunidad
científica», concluía el estudio de la Comisión Europea.
«Hay científicos que no tienen interés en comunicar
porque piensan que a la sociedad no le interesa, y hay otros que no
encuentran la manera de realizar esa comunicación», resume Carbonell.
Además, la vorágine de publicaciones, tareas de
docencia y obligaciones burocráticas varias no deja mucho tiempo para una
actividad considerada secundaria. Todo lo cual redunda en que la sociedad
perciba el saber científico como una serie de nociones más o menos
lustrosas, y no como el modo de discurrir y asomarse al mundo en el que
quieren verse reflejados los científicos. «En nuestro país, parece que el
documental es sinónimo de ñúes cruzando el río para llegar a las llanuras
bajo el acecho de lobos y cocodrilos», ironiza Rello Varona.
En todo caso, la divulgación no es sólo una obligación
del científico hacia la sociedad; aprender a comunicar es también, en
cierto modo, aprender a organizar las propias ideas, lo cual conecta con
un concepto fundamental para Carbonell: «Los científicos 'senior', que
llevamos toda la vida investigando, tenemos que hacer este aprendizaje,
debemos convertir en pensamiento lo que nuestra experiencia ha acumulado
como conocimiento».
La brecha que separa a los investigadores del público sigue abierta, y
hay quien opina que lo estará hasta que se pueda hablar de ciencia como se
habla de otras áreas que también requieren de un conocimiento muy
específico, como son el deporte, la economía o el arte moderno. Quizás el
problema estribe en que la ciencia no es sólo un lenguaje, sino también -y
sobre todo- una forma de ver el mundo.
Un estudio de la Comisión Europea, en el que participaron
investigadores de todas las edades y casi todas las nacionalidades del
continente, reveló que todos los profesionales de la ciencia se muestran
unánimes en que sería deseable «una relación continua y más profunda con los
medios, para que el público se dé cuenta de que la ciencia se basa en adquirir
nuevos conocimientos y satisfacer la curiosidad, no sólo de invenciones y
nuevos productos».
«Una cosa es el conocimiento científico y otra cosa es el
pensamiento científico», indica Eudald Carbonell, profesor de la Universidad
Rovira i Virgili y codirector del yacimiento de Atapuerca.
Otra de las tesis que reflejaba el citado estudio es que en
los nuevos países miembros ('UE 12)', la desconfianza de los científicos hacia
los medios, por miedo a que se politicen o banalicen los temas, es mayor que
en la Europa de los 15; lo cual da una idea de que, cuanto más importante es
la ciencia en un país, mejor se comunica y menor es la brecha entre sociedad y
laboratorio.
En España, tal y como recordaba hace unos días la ministra
de Ciencia e Innovación, Cristina Garmendia, hemos experimentado en los
últimos años el segundo crecimiento más rápido del mundo, sólo por detrás de
China, y ya somos la novena potencia científica mundial. Sin embargo, es
evidente que aún hay desajustes, como muestra el hecho de que nuestras
universidades están muy lejos de ocupar esas posiciones. En comunicación de la
ciencia, como en todo lo demás, ocurre que hemos mejorado muy deprisa pero aún
nos queda mucho por aprender.
«Muchos científicos miraban a los que sí divulgaban como
una especie de 'vedettes' que sólo querían lucirse», comenta Armentia, quien
reconoce, sin embargo, que «las nuevas generaciones, tanto de comunicadores
como de investigadores, creen que divulgar la ciencia es parte de su trabajo».
Sin embargo, aún se acusa en nuestro país cierta
dependencia del mundo anglosajón en la elección de informaciones científicas,
lo cual no sería tan problemático si no fuera porque se pierden algunos
fundamentos básicos de la comunicación: «Una mayor presencia española daría
una sensación de cercanía, se podría enmarcar la divulgación en un contexto
humano», señala Armentia. Esta lejanía se acentúa, a menudo, en el caso de la
investigación universitaria: «Es más pausada, menos espectacular y más
analítica, y por eso le cuesta más llegar al gran público», argumenta Rello
Varona.
El conocimiento científico es un ingrediente esencial de la
sociedad. Ser partícipe del saber es un derecho elemental de todo ciudadano y,
por tanto, el proporcionar tal conocimiento, de manera accesible, es un deber
de los investigadores. Pero, más aún, la divulgación científica no puede ser
meramente informativa y unidireccional (del científico hacia el ciudadano),
sino que la percepción que el ciudadano obtiene de la ciencia debe ser
transmitida de nuevo hacia los científicos. Este f'eedback' debe permitir al
científico saber cuáles son los elementos más apreciados de su actividad y
cuáles los que mejor contribuyen al bienestar social.
El problema obvio para la socialización del conocimiento es
que la ciencia es 'difícil'. Obtener una cultura científica requiere un
esfuerzo intelectual que el ciudadano no siempre puede realizar. Y, por otra
parte, nuestros científicos, completamente embelesados por su intenso trabajo
y desbordados por la creciente burocracia de las publicaciones, las
solicitudes de subvenciones y los informes de actividad, no siempre pueden
hacer ese sacrificio por explicarle a su abuela (que diría Einstein) el
resultado de sus investigaciones.
Pero hay que salvar esas barreras, y la astronomía
proporciona ejemplos muy provechosos sobre cómo hacerlo. Los científicos
podríamos seguir el maravilloso modelo de un Carl Sagan que no sólo produjo
resultados científicos de primer nivel, sino que fue capaz de fascinar a
varias generaciones con el fruto de la ciencia. Y las instituciones podrían
inspirarse en la excelente labor de divulgación que despliegan las agencias
espaciales ESA y NASA.
De manera análoga a cuando se dice que la guerra es
demasiado importante para dejársela sólo a los militares, no cabe ninguna duda
de que la ciencia tampoco puede ser dejada solamente en manos de los
científicos. Pero el conocimiento es a menudo demasiado complejo como para ser
dejado sólo en manos de los periodistas o de los comunicadores. Popper decía
que «es imposible hablar de tal manera que no se pueda ser malinterpretado».
Para, en la medida de lo posible, evitar interpretaciones erróneas de la
ciencia, para evitar banalizaciones y excesos de superficialidad, es
indispensable que el científico y el comunicador trabajen en estrecha
colaboración. Y es indispensable que nuestras autoridades sean conscientes de
que la integración de la ciencia en la cultura es ya inaplazable.
Fuente: elmundo.es, 17-2-10
-Olas lejanas que
rompen en el Atlántico
Las enormes olas
procedentes del Pacífico que chocan contra las costas de América, a miles de
kilómetros de la Antártida, pueden estar influyendo en el deshielo y
provocando que enormes trozos se separen de las plataformas de hielo que
bordean el continente blanco.
Un estudio de Peter Bromirski del Instituto Scripps de
Oceanografía (Universidad de California-San Diego) plantea la relación
causa-efecto entre ambos fenómenos. El trabajo ha sido publicado por la
revista Geophysical Research Letters y describe cómo las tormentas que
se producen en el océano Pacífico Norte provocan un oleaje que transfiere una
energía suficiente para desestabilizar las plataformas de hielo antártico.
Borde de la plataforma Wilkins en la Antártida, a punto de
fracturarse en enero de 2009.-
REUTERS
Pero la cuestión no es tan simple. Las olas que
alcanzan la costa oeste de América producen además al romper una vibración
de la tierra sólida costera que se manifiesta en forma de zumbido sonoro
subsónico, inaudible para el oído humano. En el mar esta energía se
transmitiría hacia el sur generando las llamadas ondas u olas "infragravitatorias",
de periodo muy largo, hasta llegar al continente helado.
"Esto nos da una indicación de la cantidad de energía
de las olas que están impactando contra las costas. Es posible que cuando
se entienda mejor este proceso se pueda aplicar a la investigación de la
estructura del manto superior y la corteza terrestres", según Bromirski.
Existen sismogramas archivados durante décadas que
conforman un historial de microseísmos generados por las olas a lo largo
de la costa oeste americana. El registro de la energía de estas olas sirve
como un indicador retrospectivo del cambio climático y la aparición de
tormentas violentas desde 1930.
En el estudio publicado por Bromirski y sus colaboradores
(Olga Sergienko de la Universidad de Princeton y Douglas MacAyeal de la
Universidad de Chicago) se propone que "el viaje al sur de las ondas
infragravitatorias puede ser un agente mecánico clave que contribuye a la
producción y/o ampliación de las zonas de grietas en las plataformas de hielo
antárticas", y que las ondas infragravitatorias también pueden producir el
impacto necesario para iniciar por sí mismas el proceso de desprendimiento de
grandes pedazos de hielo de las plataformas.
Los investigadores utilizaron datos sísmicos recogidos en
la plataforma de hielo de Ross para identificar las señales generadas por las
ondas infragravitatorias que se originaron a lo largo de las costas del norte
de California y de Columbia Británica, y analizaron el modelo de la cantidad
de estrés que sufrió la plataforma de hielo de Ross como respuesta a estos
impactos.
Bromirski afirma que es muy reciente la tecnología que se
está usando y que es necesario desplegar sismómetros en el hielo durante
largos períodos de tiempo para capturar estas señales y sacar conclusiones
fiables.
Sin embargo, el estudio también determinó que cada uno de
los desprendimientos producidos en la plataforma de Wilkins en 2008 coincidió
con estimaciones de la llegada de las ondas infragravitatorias. Por ello los
autores señalan que esas ondas pueden afectar a la estabilidad de la
plataforma de hielo provocando la aparición de grietas, la reducción de la
integridad de hielo a través de fracturas y el inicio de un colapso de
desprendimiento, todo ello favorecido por el fuerte derretimiento de la
superficie ".
De acuerdo con esta teoría, si se incrementasen tanto la
frecuencia como la energía de estas ondas infragravitatorias debido a un
aumento en la intensidad de las tormentas de origen climático, esto podría
contribuir o favorecer el colapso de la plataforma de hielo en la Antártida.
Sin embargo, ésta es una cuestión que todavía no está lo
suficientemente contrastada y para hacerlo se necesitarían más datos
instrumentales. Según esta teoría, al aumentar la frecuencia de onda de las
ondas infragravitatorias y, por tanto, su energía inducida, debido a la mayor
intensidad de las tormentas asociadas al cambio climático, ésto contribuiría a
desencadenar el colapso de la plataforma de hielo. Pero esta posibilidad debe
comprobarse más. Según Bromirski, "es necesario obtener más datos de la
Antártida para hacer esa conexión con seguridad
Fuente: elpais.com, 16-2-10
-La diversidad química del cosmos en un meteorito
El famoso meteorito de Murchison, encontrado hace 40 años
en Australia, contiene un impresionante arsenal de millones de
componentes orgánicos, muchos más de los que se habían identificado
hasta ahora, según han demostrado los últimos análisis de un grupo de
químicos europeos.
Fragmento del
meteorito Murchison. | Carl Henderson
El hallazgo pone de manifiesto que el Sistema Solar
que acoge nuestro planeta contiene una variedad de química orgánica que
sobrepasa la diversidad molecular que se encuentra en la Tierra. En
concreto, se han localizado más de 14.000 diferentes elementos
en la composición de la roca espacial.
El meteorito Murchison es uno de los tres más famosos
localizados hasta ahora (los otros son el Allende, que cayó en México, y
el Orgueil, en Francia) debido a su riqueza química. Cayó cerca
de una localidad australiana, a la que debe su nombre, un
28 de septiembre de 1969. "Estos meteoritos son
fundamentales para investigar la Tierra primitiva y entender las
interacciones químicas y mineralógicas primigenias que contribuyeron al
origen de la vida", explica el investigador del Centro de Astrobiología
del CSIC-INTA Jesús Martínez Frías.
Los estudios que a lo largo de los años han hecho los
investigadores en esta condrita (roca)carbonácea demostraron que
contenía muchos aminoácidos fundamentales para la vida, si bien
también dieron lugar a un intenso debate entre quienes defendían que se
trataba de contaminación de origen terrestre y quienes aseguraban que
habían venido del espacio exterior.
Posible contaminación
En este nuevo trabajo, publicado en Proceedings of
National Academy of Science (PNAS), los autores, dirigidos por Philipe
Schmitt-Kopplin, del Instituto alemán de Química Ecológica, han
estudiado tres fragmentos del Murchison obtenidos en tres
colecciones para diferenciar la posible contaminación del contenido original
(estaban en Alaska, Japón y Luxemburgo).
Para analizarlos, utilizaron un espectrómetro de masa muy
sofisticado que identificó 14.197 elementos en su composición, que podrían
dar lugar a varios millones de estructuras moleculares. "Esta complejidad
sugiere que la diversidad química extraterrestre es muy alta
cuando se la compara con la bioquímica terrestre", aseguran los
investigadores.
Además, han logrado determinar las interacciones que se han producido en
el meteorito entre compuestos orgánicos (carbono, oxígeno, hidrógeno y
nitrógeno) e inorgánicos (sulfuro de hierro y níquel).
Para Martínez Frías este hallazgo es especialmente importante porque "relaciona
los meteoritos con las komatiitas, que son las lavas primitivas de
la Tierra, las rocas más antiguas, y que también se han encontrado asociadas
a sulfuros de hierro, lo que confirmaría su relación con los meteoritos que
formaron nuestro planeta y que dieron lugar a la vida".
Se cree que el Murchison se formó en los primeros días del
Sistema Solar, quizás antes que el Sol, y que atravesó las nubes de
ese primitivo sistema recogiendo elementos orgánicos. Por ello, los autores
sugieren que trazando la secuencia de las moléculas orgánicas se puede
conocer la cronología de la formación y alteración de esas moléculas. En
definitiva, un viaje al pasado para entender qué ocurrió.
Fuente: elmundo.es, 16-2-10
-Tutankamon y su extraña familia
Aunque a todos nos gusta pensar que los sucesos más
dramáticos de la historia se producen a causa de conspiraciones, cuanto
más rocambolescas mejor, o de accidentes muy espectaculares, la verdad es
tozuda y se empeña en contradecirnos. Así le acaba de ocurrir a Tutankamón,
el joven faraón cuya muerte prematura estaba envuelta en numerosos
misterios. Entre esas hipótesis se contaba la del asesinato, pues en la
momia se apreciaba una fractura en la nuca, aunque quizá ésta fue producto
de las manipulaciones de Howard Carter y sus arqueólogos en 1922, cuando
le arrancaron la máscara de oro que estaba pegada al cadáver con cuchillos
calientes... o el envenenamiento. Pero también se especulaba con una caída
brutal cuando corría en un carro, pues los restos también presentaban una
fractura de fémur... Pues bien, ninguna de ellas va a resultar cierta.
El «Journal of the American Medical Association» ha
publicado un estudio encargado por Zahi Hawass, director del Consejo
Supremo de Antigüedades de Egipto, y que a partir de biopsias, análisis
radiológicos y de ADN de 10 momias relacionadas con el faraón —que murió
siendo un adolescente de 19 años cerca del 1324 a. de C. durante la XVIII
Dinastía del Nuevo Reino, tras casi una década de reinado— no sólo han
permitido conocer qué pudo haberle causado la muerte, sino además diversas
enfermedades que afectaban a su familia, así como también cuál era su
filiación, al identificar a su padre y a su madre, entre otros parientes.
Empecemos por
señalar qué enfermedades no padecía Tutankamón. En primer
lugar, los investigadores descartan que sufriera el Síndrome de Marfan,
una patología que se apreciaba en otros miembros de su familia. Este mal
afecta al tejido conectivo y se caracteriza por un excesivo crecimiento de
los miembros. En segundo lugar, también se ha descartado que sufriera
ginecomastia, que es un desarrollo anormal de los pechos en los varones y
que puede deberse a una desequilibrio hormonal. Los científicos tampoco
han advertido en el joven faraón signos que apunten a ninguna patología
que produzca feminización a pesar de que las representaciones artísticas
que de él se tienen lo muestren con rasgos andróginos o feminoides. Esto
puede deberse a que las figuraciones que se realizaban de los faraones y
de los miembros de la familia real no eran reales sino idealizaciones, y
éstas, durante ese periodo —el de Amarna— así los mostraban, quizá debido
a las reformas religiosas impuestas por Akenatón.
La muerte de Tutankamón más más bien pudo deberse a
otras patologías.
La
principal sería la malaria. Los análisis genéticos han identificado
varios genes: Stevor, AMA1 y MSP1, que son específicos del Plasmodium
falciparum, parásito que causa la malaria, lo mismo en el faraón que en
tres miembros de la familia. La malaria asociada con una necrosis
avascular de los huesos (falta de vascularización que provoca la muerte de
los osteocitos) sería probablemente lo que finalmente le causó la muerte.
Por último, Tutankamón
también padecía la enfermedad de Kohler II, una falta temporal de
vascularización que deforma el segundo metatarsiano del pie, provocando su
achatamiento y que se da durante la adolescencia. Esta patología, también
conocida como enfermedad de Freiburg, luego mejora, aunque puede tener
como consecuencia la cojera. Es necesario diferenciarla de la enfermedad
de Kohler I, la escafoiditis tarsiana —según explica a ABC el Dr.Mariano
de Prado— pues ésta afecta al escafoides, y que según algunas
informaciones nunca constrastadas ha padecido el tenista Rafael Nadal.
El gran misterio: era nieto de Tiye e hijo de Akenatón
El gran reto de la arqueología era saber de quién era
hijo el faraón más famoso del Antiguo Egipto. Los investigadores realizaron
análisis de entre 2 y 4 muestras del ADN de cada una de las diez momias
vinculadas a él, así como de otras cinco pertenecientes al Nuevo Reino que
se utilizaron como grupo de control. La identidad de tres de ellas ha
quedado determinada. La conocida como KV35EL corresponde a Tiye, que era
abuela de Tutankamón. La KV55 es con toda probabilidad la de su hijo
Akenatón quien, a su vez sería el padre del joven faraón. Además de otras
características morfológicas, padre e hijo compartían el mismo grupo
sanguíneo. Por último, la momia KV35YL correspondería a su madre, aún sin
nombre (¿Kiya, Nefertiti?)
Debido a la actual polémica en torno al Panel
Intergubernamental sobre Cambio Climático de la ONU (IPCC),
la revista Nature recogió recientemente en un artículo la opinión de
cinco expertos que valoran el futuro de la organización. Los autores
recomiendan cambios en el IPCC para recuperar su credibilidad perdida.
Esta creciente falta de confianza se debe a los errores detectados en el
último informe del organismo, así como al escándalo de los correos
electrónicos de científicos que fueron publicados y usados en contra de
los propios expertos.
Recientemente se
publicaban datos acerca del posible impacto del incremento de la
temperatura en más de tres grados centígrados para mediados de siglo
que podría producir la disminución de la capacidad productiva de la
tierras cultivables que podría ocasionar una catástrofe alimentaria entre
las más de 3.000 millones personas que vivirán en las cercanías del
ecuador del planeta, según la información recogida en un especial de la
revista Science (12 de febrero de 2010). Aún sin contar con los posibles
efectos adversos de un clima más cálido, el crecimiento de la población
mundial en más del 30% antes de 2050 representa un notable desafío que
obligaría a duplicar la producción de grano.
Sin embargo, el presente invierno se está mostrando
especialmente crudo en gran parte del hemisferio norte y especialmente en
Europa, pero, aunque esto nos lleva dudarlo, el calentamiento sigue
avanzando a escala planetaria.
Un nuevo análisis de la temperatura global en superficie
realizado por científicos de la NASA ha encontrado que el pasado año 2009 ha
empatado con otros como el segundo más cálido desde 1880, algo más de un
siglo. En el caso del hemisferio sur, ha sido el más cálido desde que existen
registros.
El
período enero de 2000 a diciembre de 2009 fue la década más cálida nunca
registrada. Mirando hasta 1880, cuando la instrumentación científica moderna
comenzó a utilizarse, una clara tendencia al calentamiento está presente,
aunque se produjo una cierta nivelación entre los décadas de 1940 y 1970. Pero
en las tres últimas décadas, los registros de temperaturas tomadas por el GISS
muestra una tendencia al incremento de 0, 2 grados centígrados por década. En
total, el promedio de temperatura global ha subido en 1,5 grados desde 1880.
Es obvio que
el hombre usa al planeta en su beneficio (algunos más que otros) pero
deberíamos plantearnos cuanto puede durar esta manera de usarlo y si hay forma
de cambiar nuestra actitud.
Fuente: Blog ciencia marina y otros asuntos, 15-2-10
-Crean en el laboratorio las condiciones posteriores del
Bing-Bang
Físicos del Laboratorio Nacional de Energía de Brookhaven
Nueva York han conseguido crear una especie de
«sopa» de materia
250.000 veces más caliente que el centro de nuestro Sol y que
reúne condiciones similares a las que se produjeron justo después del Big
Bang, la gran explosión que dio origen al Universo. En 2005, los científicos
sospechaban que habían alcanzado este estado de la materia, pero es la
primera vez que pueden confirmar estas temperaturas infernales.
Experimento producido en el Relativistic Heavy Ion Collider (RHIC)
«Es la
materia más caliente nunca creada en laboratorio», ha asegurado
Steven Vigdor, director del laboratorio asociado de física nuclear y de
partículas en el Departamento de Energía de EE.UU. La temperatura es tan
caliente que
puede
«derretir los protones y los neutrones». El experimento se logró
haciendo chocar el núcleo de partículas de oro a velocidades super rápidas,
de forma que se derretían los protones. Dos chorros de núcleos de oro se
aceleraron en direcciones opuestas a lo largo de la pista circular de un
acelerador de partículas llamado
Relativistic Heavy Ion Collider (RHIC), un hermano pequeño del europeo LHC.
A lo largo de los 3,9 kilómetros del circuito, los
núcleos de oro alcanzaron una velocidad cercana a la de la luz. Cuando dos
de esas partículas chocan, sus colisiones producen tanta cantidad de energía
que la
materia se calienta a 4 billones de grados Celsius. Estas condiciones
son suficientes para para derretir los protones y neutrones hasta que
sólo
quedan partículas elementales llamadas
quarks y
gluones, según ha explicado el investigador Steven Vigdor, en una
conferencia impartida en la
Sociedad Americana de Física, en Washington. Los científicos creen que
esta sopa de quarks y gluones llenó el Universo unos microsegundos después
del Big Bang, hace casi 14.000 millones de años. Después, la materia se
enfrió y condensó, formando los protones y neutrones que la forman hoy día.
Unos
milisegundos
Esta sopa de partículas fundamentales
duró tan
sólo unos milisegundos. Ni un suspiro. Pero el tiempo fue suficiente
para que los físicos pudieron medir sus propiedades y temperatura. De forma
sorprendiente, descubrieron que este estado primitivo de la materia
se
comporta como un líquido, aunque los expertos esperaban encontrarse
con un gas.
Los físicos tendrán la oportunidad de estudiar un estado
aún más caliente de la materia cuando el
Gran Colisionador de Hadrones de Ginebra, que se pondrá
en funcionamiento de nuevo a finales de mes, consiga funcionar a gran
velocidad. La «máquina de Dios» producirá temperaturas dos o tres veces más
calientes que las conseguidas por el Relativistic Heavy. Los físicos quieren
entender por qué la materia se formó en sus primeros estadio. También
esperan encontrar aplicaciones prácticas, como los spintronics, que tienen
el objetivo de hacer más rápidos, pequeños y poderosos los dispositivos
electrónicos.
Fuente: abc.es, 15-2-10
-Así actúa
un agujero negro
Los agujeros negros se han convertido en una verdadera
obsesión para muchos físicos y astrónomos. En realidad, conocer cómo
funcionan y de qué son capaces estas verdaderas fieras devoradoras de
energía no es algo sencillo, pero se trata de un problema abordable. Los
astrónomos Thomas Müller y Daniel Weiskopf han creado un software que
utiliza los datos de
más de 100.000 estrellas reales para simular el comportamiento de estos
objetos.
Un agujero negro es una región del espacio que
contiene tanta materia concentrada en un sitio (relativamente) tan
pequeño, que su enorme gravedad ni siquiera permite que la luz escape.
Aunque para un observador pueda parecer un verdadero agujero, no está
vacío, sino todo lo contrario. La gran concentración de masa superdensa
que existen en su interior crea fuerzas gravitatorias tan intensas que
ninguna partícula material -ni siquiera los fotones que componen la luz-
puede escapar. Estas características tan atípicas los han convertido en
un objeto sumamente atractivo para los científicos, quienes se dedican a
observar el espacio buscando indicios de su existencia. En efecto, dada
su naturaleza resultan imposibles de observar directamente, pero pueden
detectase por el efecto que causan en los cuerpos que lo rodean. Una
nota aparecida en el
American Journal of Physics da cuenta de que dos astrónomos han
creado un
software gratuito que, a partir de los datos astronómicos de
estrellas reales, puede simular los efectos que causa sobre ellas un
agujero negro.
Thomas Müller y Daniel Weiskopf, junto a un grupo de
ingenieros de la
Universidad de Stuttgart, en Alemania, han creado
un software que puede simular agujeros negros. Para realizar su trabajo,
el programa utiliza
datos reales de las estrellas de nuestra galaxia para mostrar en alta
resolución una simulación de muy buena calidad. Los astrónomos han utilizado
la posición y masa de 118.000 estrellas conocidas, y una vez que el usuario
elige el sitio donde va a estar emplazado y datos iniciales del agujero
negro que quiere simular, el software se encarga de mostrarnos cómo cambian
de lugar, la distorsión que causa la lente gravitacional que crea el objeto
súper masivo, e incluso la
Difracción de Fraunhofer asociada. La Difracción de Fraunhofer, a veces
llamada «difracción del campo lejano» es un patrón de difracción de una onda
electromagnética, y no es más que un caso particular de la difracción de
Fresnel que explica la forma en que las ondas electromagnéticas se comportan
en determinadas circunstancias. Todo esto les ha permitido a Müller y
Weiskopf crear un producto con el aspecto más realista posible.
Un
tiovivo infernal
La simulación, que puede descargarse como
una aplicación para
Linux o Windows, tiene dos modos diferentes de visualización.
En el primero de
ellos el espectador se encuentra girando alrededor del agujero negro, como
si se encontrase montado en una suerte de tiovivo infernal. En el
otro, el punto de vista corresponde a alguien que está siendo atraído
lentamente hacia el agujero negro, mientras que ve cómo las estrellas que lo
rodean comienzan a ser arrastradas hacia la singularidad. Ambos modelos son
lo suficientemente realistas como para mostrar la manera en que las
estrellas que resultan afectadas por el campo gravitatorio del agujero negro
(y aceleradas a velocidades cercanas a la de la luz) cambian de color debido
al efecto Doppler.
Obviamente, el programa no se convertirá en una
herramienta de investigación a la que recurran los físicos que estudian el
comportamiento de estos objetos, ya que ellos cuentan con superordenadores
valuados en decenas de millones euros que pueden hacer aun un mejor trabajo.
Pero este programa puede convertirse en una excelente herramienta para el
aficionado, el curioso o los estudiantes que no tienen acceso a ordenadores
tan potentes. Si quiere ver que se siente al caer hacia un agujero negro,
utiliza el link de descarga que corresponda a tu sistema operativo
en la página de los autores.
Fuente: abc.es, 15-2-10
-Descubren el "arma
secreta" de las células cancerígenas contra la quimioterapia
Un equipo de científicos británicos ha identificado el "arma secreta"
que utilizan las células cancerígenas para combatir y sobrevivir a
los tratamientos con quimioterapia.
El hallazgo realizado por expertos de Cancer Research UK, una organización no
gubernamental (ONG) dedicada a la investigación de esta enfermedad, tiene que
ver con la estructura de una proteína que se encuentra en el corazón del
sistema de defensa de los tumores cancerígenos.
Identificada como FANCL, esta proteína ayuda a las células malignas a
reparar el daño que sufre su ADN a consecuencia del tratamiento del
enfermo con quimioterapia. "Hemos averiguado la estructura del motor
del sistema de funcionamiento de la célula", dijo la máxima responsable del
estudio, Helen Walden, quien explicó que "si conseguimos detenerlo
conseguiríamos células mucho más receptivas a la quimioterapia".
"Hemos logrado la primera fotografía atómica
completa de una proteína implicada en el sendero de la reparación de una
célula, justo en el mismo corazón de la ruta por la cual la células
cancerígenas se defienden de tratamientos que tienen como objetivo
destruirlas", señaló esta experta.
Walden añadió que "bloqueando este interruptor de ignición de la
reparación de la célula, es posible mejorar los tratamientos
tradicionales" y subrayó que este hallazgo puede convertirse en una línea
investigadora para la creación de un fármaco específico.
Nuevos fármacos
La conclusión principal de este estudio, que se publica en la revista
Nature Structural and Molecular Biology es que un acertado tratamiento
contra la FANCL puede ayudar a combatir el cáncer. La doctora Lesley Walker,
del Cancer Research UK, subrayó que se trata "de una investigación muy
importante", porque "llega hasta el corazón de la táctica
tras la que se protegen las células del cáncer frente al tratamiento de
quimioterapia".
"Este hallazgo nos da un objetivo prometedor para potenciales
fármacos que ayuden a debilitar la resistencia de las células
cancerígenas mientras se administra la quimioterapia, para hacer que este
tratamiento sea lo más eficaz posible", manifestó.
Fuente: 20 minutos.es,
14-2-1
-Matemáticos y periodistas
El libro de John Allen Paulos, Un matemático lee el
periódico (Tusquet, Colección METATEMAS MT 44, 1996, ISBN:
978-84-7223-970-8), ha conocido gran popularidad en todo el mundo; en este
libro, el autor muestra como la inocencia de unos números en un artículo
periodístico puede ocultar graves falacias si no conocemos las matemáticas que
hay detrás (ya saben, ¡Las matemáticas os harán libres!). Todo ello con grandes
dosis de la ironía y la acidez ya habituales en Paulos. En esta entrada haremos
una breve reflexión sobre las relaciones entre matemáticos y periodistas.
Apreciación pública de las matemáticas
Este tema entronca con uno de gran calado: ¿cómo conseguir
una mayor apreciación pública de las matemáticas en la sociedad? No cabe duda de
que una buena cobertura mediática en la que las noticias sobre la disciplina
reciban un adecuado tratamiento, que muestre como las matemáticas son
imprescindibles para el bienestar tecnológico en el que vivimos, y que no se
reduzca a los habituales comentarios sobre su dificultad y contribución al
fracaso escolar, redundarían sin duda en este objetivo.
Las acciones para conseguir deben dirigirse en varias
direcciones:
Por una parte, los periodistas que informan de noticias
matemáticas o científicas (que siempre conllevan matemáticas) deberían tener
una formación mínima en Matemáticas. A este respecto, nos hacemos eco de
iniciativas internacionales como el programa “Math for Journalists: Help With
Numbers” elaborado por Poynter´s News University, y que cubre una serie de
temas esenciales como el cálculo con fracciones, porcentajes, medias, modas,
etc.
Por otra, los matemáticos debemos mostrarnos más activos en
las tareas de divulgación, y quizás deberíamos tener un contacto más habitual
con los medios de comunicación.
Pudiera pensarse que en nuestro país no se hace lo suficiente
en ambas direcciones; nada más lejos de la realidad. Un ejemplo es el Máster
en Periodismo y Comunicación de la Ciencia, la Tecnología y el Medio Ambiente,
organizado por la Universidad Carlos III de Madrid (y en el que el autor de esta
entrada ha tenido la oportunidad de participar en alguna ocasión). Insistir en
este tipo de actividades e incrementar la presencia de las matemáticas en las
mismas va en la buena dirección.
Los matemáticos iniciamos en 1999 una aproximación a los
medios como conseuencia de la celebración del Año Internacional de las
Matemáticas en 2000, entre cuyos objetivos principales estaba la divulgación
de las matemáticas para el aumento de su aprecio público. Así se hizo, y la
experiencia sirvió para que el tratamiento mediático del mayor
acontecimiento matemático celebrado en nuestro país hasta ahora, el Congreso
Internacional de Matemáticos de Madrid en 2006, se convirtiera en un modelo
a seguir. El Comité Organizador contrato a la empresa DIVULGA SL con la que
se comenzó a trabajar con mucha antelación, diseñando una estrategia que dio
sus frutos. La colaboración no terminó con el evento, sino que ha continuado
a través del proyecto Consolider i-MATH. La conclusión es que los resultados
son buenos cuando se produce esa necesaria interacción entre matemáticos y
periodistas. Un matemático no tiene por qué ser un periodista, y viceversa;
pero si ambos actúan coordinadamente, cada uno proporcionando su saber y su
experiencia profesional, los resultados suelen ser extraordinarios.
Una página web donde los medios pudieran encontrar no
solo material útil para su trabajo sino también un directorio organizado en
el que un periodista interesado en escribir sobre modelos climáticos, por
ejemplo, encontrara el matemático adecuado (con sus datos de contacto) para
asesorarlo y comentar esa noticia. Tenemos en España que luchar con la
habitual timidez de nuestros colegas, pero estamos seguros que algún día se
conseguirá.
En estos momentos de crisis económica, en los que la cuerda
se rompe siempre por lo menos valorado, como ocurre con la investigación, es
cuando los matemáticos (y científicos en general) debemos ser más conscientes de
la importancia de que la sociedad nos perciba como indispensables para
garantizar a medio y largo plazo el trabajo y el bienestar para todos.
El modelo americano
Hace años, cuando era miembro de la ejecutiva de la Real
Sociedad Matemática Española, intenté (debo reconocer que sin éxito) una
iniciativa similar a la que estaba entonces creando la American Mathematical
Society,
http://www.ams.org/ams/info-for-journalists.html
Una página web donde los medios pudieran encontrar no solo
material útil para su trabajo sino también un directorio organizado en el que un
periodista interesado en escribir sobre modelos climáticos, por ejemplo,
encontrara el matemático adecuado (con sus datos de contacto) para asesorarlo y
comentar esa noticia. Tenemos en España que luchar con la habitual timidez de
nuestros colegas, pero estamos seguros que algún día se conseguirá.
En estos momentos de crisis económica, en los que la cuerda
se rompe siempre por lo menos valorado, como ocurre con la investigación, es
cuando los matemáticos (y científicos en general) debemos ser más conscientes de
la importancia de que la sociedad nos perciba como indispensables para
garantizar a medio y largo plazo el trabajo y el bienestar para todos.
Fuente: Blog matemáticas y sus fronteras, 14-2-10
-El
nivel del mar puede aumentar dos metros por siglo
El hielo del planeta se puede formar y fundir mucho más
rápido de lo que se ha considerado hasta ahora, por lo que el nivel del mar
también puede variar enormemente en muy poco tiempo: unos 2 metros por
siglo. Así lo concluye un nuevo estudio que publica este viernes Science.
Según el estudio, hace 81.000 años, el nivel del mar
del planeta estaba sólo un metro por encima del actual. Esto implica
que había incluso menos hielo que ahora, con temperaturas probablemente algo más
elevadas que las actuales, y que gran parte de la masa helada acumulada desde
hace 115.000 años, al inicio de la glaciación, se había fundido por entonces.
Más concretamente, los testigos geológicos indican que el hielo que todavía era
abundante hace 85.000 años se derritió en gran parte durante el milenio
siguiente, elevando 20 metros el nivel del mar en un solo milenio.
"La cantidad de hielo que se derritió [en aquel episodio] fue
tan grande que habría que debatir si realmente fue un periodo cálido dentro de
una misma glaciación, o si marcó una interrupción y fue el inicio de un nuevo
periodo interglacial", explica a ELMUNDO.es Jeffrey Dorale, de la Universidad de
Iowa, principal autor del estudio. "Nuestro estudio sugiere que pudo tratarse de
una verdadera interrupción, lo cual es sorprendente", añade, porque normalmente
los periodos glaciales se consideran mucho más largos.
A diferencia de la mayoría de las investigaciones anteriores,
basadas en el análisis de corales para medir las subidas y bajadas del mar en el
pasado, en este estudio Dorale y sus colegas analizaron unas incrustaciones de
espeleotemas de una cueva de Mallorca, la de Vallgomera. La
formación geológica mallorquina es extraordinariamente valiosa para hacer este
tipo de mediciones, ya que durante cientos de miles de años estuvo sumergida de
manera intermitente en el Mar Mediterráneo, atestiguando los cambios en el nivel
del agua, generalizables a todo el globo.
Los científicos llevan tiempo intentando describir un paisaje
preciso de cómo era el planeta en el pasado, y un aspecto importante es conocer
el nivel eustático de los océanos (la altura del agua respecto a los
continentes). El nivel del mar varía con la formación del hielo y su
fusión, por lo que a partir de ahí se puede deducir también la
temperatura global aproximada en tiempos remotos.
"Nuestro estudio no altera el conocimiento actual
sobre el calentamiento global, sino que lo confirma. No sólo eso:
mostramos que las caídas y subidas en el nivel del mar pueden ocurrir en apenas
mil años a índices muy elevados de unos 2 metros por siglo", dice Bogdan Onac,
de la Universidad de Florida del Sur y segundo autor del estudio.
La expansión del hielo durante una glaciación es irregular,
con breves periodos cálidos intercalados en los que el hielo se funde a pesar de
una tendencia general de enfriamiento a largo plazo. Sin embargo, "es la primera
vez que se tienen datos tan robustos sobre cambios tan bruscos en el nivel del
mar [y por lo tanto en la fusión del hielo] en tan poco tiempo. Nuestros datos
muestran que la cantidad de hielo que se fundió hace 84.000 años fue enorme",
añade Dorale.
"Creemos que esos cambios tan drásticos del nivel del mar en
periodos de tiempo tan cortos eran más comunes de lo que parece. De hecho, si
ocurriera en los próximos siglos, el resultado sería devastador
para todas nuestras ciudades costeras", opina el investigador.
Este hallazgo choca con la teoría tradicional de las
glaciaciones, según la cual, en un ciclo de unos 100.000 años, el hielo se va
acumulando gradualmente para fundirse, al final, más rápidamente. Con esta nueva
aproximación, en cambio, la expansión del hielo puede ser tan veloz como
su retroceso y ocurrir en periodos muy cortos, lo que puede hacer
variar el nivel del mar considerablemente en poco tiempo.
Fuente: elmundo.es, 14-2-10
-Viaje a las auroras de Saturno
Un nuevo y espectacular vídeo del telescopio espacial
Hubble recorre internet. En enero y marzo de 2009, los astrónomos
aprovecharon la poco frecuente oportunidad de grabar a
Saturno mientras sus anillos estaban en perpendicular a la Tierra, lo que
permitió
ver los dos polos del planeta al mismo tiempo. Pero no fue eso todo. El
gigante anillado pareció querer celebrar la ocasión ofreciendo a los ávidos
observadores un espectáculo único e increíble: y mostró al telescopio
sus
espectaculares auroras, en el polo norte y en el sur a la vez. Saturno
se encuentra en esa particular posición con respecto a nosotros sólo una vez
cada quince años. Por lo que
es muy
probable que tengan que pasar muchas décadas para poder disfrutar de nuevo de
una visión como ésta.
En efecto, Saturno tarda treinta años en realizar una
órbita completa alrededor del sol, por lo que desde la Tierra sólo es posible
ver sus dos polos al mismo tiempo sólo dos veces durante todo ese periodo.
Desde que fue lanzado en 1990, el Hubble ha fotografiado Saturno desde todos
los ángulos posibles, pero no fue hasta 2009 cuando pudo obtener por primera
vez fotografías que mostraran los dos polos de manera simultánea y sin que
ninguno de ellos quedara oculto por los anillos. Además, al estar en aquél
momento Saturno cerca de su equinoccio, ambos polos estaban iluminados
directamente por la luz del sol.
Sutiles
diferencias
Este extraordinario cúmulo de circunstancias favorables han
permitido a los astrónomos obtener una serie de imágenes en las que poder
estudiar, de un solo vistazo, el comportamiento de ambos polos durante un
periodo de tiempo determinado. El vídeo que encabeza estas líneas fue
elaborado a partir de los datos y las imágenes recogidas por el telescopio
espacial durante varios días de enero y marzo del año pasado.
A primera vista, las auroras del norte y del sur parecen
ser simétricas. Pero un análisis más detallado de los datos permitió a los
investigadores descubrir una serie desutiles
diferencias entre ellas, que revelan a su vez una información
muy concreta y relevante sobre el campo magnético del planeta anillado.
La aurora
del polo norte es algo más pequeña e intensa que la del polo sur, lo
que implica que el campo magnético (del cual las auroras dependen) no se
distribuye de forma regular por todo el planeta. Algo que confirma, por otro
lado, los resultados obtenidos por la sonda
Cassini, que lleva estudiando Saturno desde el año 2004.
Resultados científicos aparte, quedémonos con el espectáculo, que es digno de
ver. El tamaño de cada aurora es enorme, mucho mayor que el diámetro de la
Tierra. Y es la primera vez que los seres humanos podemos contemplar las dos
al mismo tiempo.
Fuente: abc.es, 12-2-10
-Primeras imágenes de una "estrella
vampiro" en acción
El momento se acerca. A 25.000 años luz de distancia, una
«estrella vampiro» está absorbiendo a toda velocidad la masa de su compañera
en el sistema binario conocido como V445, en la constelación de Puppis. Es tal
la voracidad de la estrella que, muy cerca de sus propios límites de
resistencia física,
podría
estallar en cualquier momento a causa del monumental «atracón». Cuando
lo haga, los astrónomos esperan que sea en forma de supernova la, una de las
formas de «muerte estelar» más interesantes para la ciencia. El
Very Large Telescope (VLT) del Observatorio Europeo del Sur (ESO) en
Chile, está siguiendo muy de cerca los acontecimientos y
ha
conseguido, por primera vez, capturar imágenes de este proceso de vampirismo
cósmico. Imágenes que ha montado después en un vídeo que
muestra la
evolución del sistema a lo largo de más de dos años.
En concreto, el vídeo (a la izquierda) muestra cómo la
«estrella vampiro» se desprende de sus capas exteriores, un síntoma muy claro
de que
está rozando los límites que le permiten seguir permaneciendo estable.
La insaciable estrella forma parte de un sistema doble, V445, que los
astrónomos consideran desde hace tiempo como
una
auténtica bomba de relojería. De hecho, este sistema binario es el
principal candidato de que disponemos a convertirse en una
supernova del tipo la, una clase especialmente adecuada para
estudiar
cómo la energía oscura está acelerando la expansión del universo.
Océanos
de magma
Como Corot 7-b es un planeta, lógicamente recibe calor de
su estrella no sólo por su atracción. Su órbita le lleva
a apenas
2,5 millones de kilómetros de distancia de ella, cuando la Tierra, por
ejemplo, orbita a cerca de 150 millones de kilómetros del Sol. Es decir, que
está extraordinariamente cerca.
Observaciones anteriores registran temperaturas de mil grados centígrados
sobre su superficie. Esto es los
suficientemente caliente «para que haya estanques e incluso océanos de magma»,
afirma Barnes. El infierno es aún mayor en la cara del planeta que siempre
mira su estrella (de la misma forma que la Luna, atrapada por el campo de
gravedad de la Tierra, nos da siempre la misma cara). Los científicos creen
que en esa cara existen mares de lava fundida, y en la otra, la oculta,
una gran
actividad volcánica que puede causar estragos.
Stan Peale, profesor emérito en la Universidad de
California en Santa Bárbara y uno de los científicos que había previsto el
vulcanismo en la luna Io antes de ser detectado por la sonda Voyager, cree que
las conclusiones de Barnes son «viables». Sin embargo,
«si Corot-7b
tiene realmente vulcanismo activo va a ser muy difícil de probar en estos
momentos». Barnes apunta que quizás el telescopio espacial
Spitzer sea capaz de ver los gases procedentes de Corot-7b, aunque es una
tarea complicada «porque el planeta está muy lejos».
Fuente: abc.es, 9-2-10
-En busca de organismos sintéticos
inmortales
DARPA, la agencia del Pentágono a la que con frecuencia
se la apoda «el brazo loco de la ciencia», ha encarado un proyecto que
podría culminar con la creación de «organismos sintéticos inmortales». La
agencia busca
reescribir las leyes de evolución en beneficio de las fuerzas militares,
creando organismos capaces de vivir para siempre. Los investigadores
a cargo dicen que estos seres podrían ser eliminados simplemente accionando
un interruptor molecular.
La
Defense Advanced Research Projects Agency
(DARPA, o Agencia de
Proyectos de Investigación Avanzada de la Defensa) siempre se ha
caracterizado por encarar los proyectos más extraños que puedan
concebirse. El último del que se tiene noticia ha sido
dotado con 6 millones dólares y busca crear un biodiseño que sea
capaz de eliminar «la aleatoriedad de avance evolutivo natural», según
publica
Wired. El plan es relativamente simple de explicar, pero
seguramente muy difícil de lograr: se trata de emplear la
biotecnología para crear criaturas modificadas genéticamente que
posean células «reforzadas» capaces de vivir indefinidamente.
Los científicos han logrado algunos avances que
podrían realmente llevar a la creación de una criatura así. O al
menos, de células que sean capaces de vivir prácticamente para
siempre. Sinceramente, es muy dificil lograr un organismo superior
complejo -como un insecto o un mamífero- que sea inmortal, pero es
posible que puedan conseguir «algo» compuesto por un puñado de células
que no muera nunca.
Por supuesto, la sola idea de que algo así este dando
vueltas por ahí basta para intranquilizar hasta el más confiado, por lo que
en DARPA han pensado en poner algún tipo de límite a su creación:
una
«fecha de caducidad» o «mecanismo de autodestrucción» que en determinadas
circunstancias puedan matar al monstruo. Además, cada uno tendría una
especie de
«número
de serie único» a nivel de su ADN, que serviría para identificarlo,
mas o menos de la misma manera que el numero de serie grabado en una pistola
permite saber quien es su dueño.
¿Suena descabellado? Lo es. Muchos de los proyectos de
DARPA tienen cierto grado de locura implícita. Pero no hay que engañarse: un
buen numero de ellos terminan convirtiéndose en realidad. En este caso, el
proyecto forma parte de
un nuevo programa de biología sintética que ya ha recibido una financiación
global de 20 millones de dólares que debería, entre otras cosas,
«adelantar varias décadas la velocidad con la que podemos secuenciar,
analizar y editar el genoma celular». Lograr «adelantarse» a los procesos
evolutivos normales no es imposible. De hecho, cientos de organismos
genéticamente modificados producen alimentos y medicinas cada día. Sin
embargo, la creación de organismos nuevos e inmortales es ir un poco más
allá. ¿Que ocurriría si por algún error estos seres «evolucionan» quitándose
de encima su «fecha de caducidad»?
Fuente: abc.es, 8-2-10
-Un extraño pez gigante filmado por
primera vez en su entorno natural
Un grupo de científicos ha avistado por primera vez en su entorno natural una
Regalecidae o pez remo, un extraordinario y escurridizo pez que
puede
llegar a medir 17 metros -es uno de los más largos del mundo-, dotado
con una prominente aleta dorsal que le da una
inusual
forma de serpiente. El equipo, en el que participan investigadores de
la Universidad de Lousiana (Baton Rouge, EE.UU.) logró filmar al animal en
aguas del Golfo de México cuando exploraba las profundidades marinas.
Las
Regalecidaes o peces remo (glesne Regalecus) son tremendamente largas y su
aspecto, tan parecido al de una serpiente,
pudo haber
originado los mitos de monstruos marinos que los antiguos marineros se
encargaron de dispersar por todo el mundo. Cuando los investigadoers
descubrieron un especimen en el Golfo de México casi no podían creerlo. En un
principio, confundieron al pez con un tubo de perforación. «Vimos un objeto
luminoso y brillante, parecía una tubería enorme, pero pronto nos dimos cuenta
de que se trataba de un pez», explica el profesor Mark Benfield a la
BBC. La sorpresa del investigador es comprensible, especialmente si se
tiene en cuenta de que
ejemplares
de esta especie sólo se habían visto con anterioridad en contadas ocasiones, y
siempre agonizando en la superficie del mar o y ya muertos y arrojados por las
olas a la costa.
El equipo siguió al pez durante cinco minutos antes de que se rompiera el
contacto. La Regalecidae nada a una gran velocidad de forma ondulante gracias
al impulso de su aleta dorsal.
Fuente: abc.es, 8-2-10
-Resaca por la pandemia de la gripe A
La
primera pandemia del siglo XXI ha superado su fase crítica con menos coste
humano del previsto, y no son pocas las voces que acusan a la OMS de venderse
a los laboratorios.
México hizo saltar las alarmas el pasado 13 abril cuando
confirmó la primera muerte de una persona a consecuencia de un nuevo virus
gripal, el H1N1, de origen porcino. Los infectados se extendieron por todo el
mundo como la pólvora y, en apenas cuatro semanas, la Organización Mundial de
la Salud (OMS) declaró la primera pandemia del siglo XXI. El tiempo ha puesto
al virus en su sitio y, de momento, no ha resultado tan peligroso como se
temía.
Pero si el coste humano ha sido menor del esperado, no ha
sucedido lo mismo con la factura económica que han tenido que pagar los
gobiernos y la misma OMS por los medicamentos y vacunas para prevenir y tratar
la nueva gripe. Buena parte de la opinión pública internacional sospecha que
la gestión de la OMS puede responder a intereses de las compañías
farmacéuticas, un juicio que no comparten las autoridades sanitarias de España
y México.
“Creo que la OMS actuó correctamente y gracias a la alerta
la pandemia se ha contenido”, afirmó ayer la ministra de Sanidad española,
Trinidad Jiménez. “Las cosas se fueron haciendo con suma prudencia. Si el daño
no fue tan grande, fue porque estábamos preparados”, corroboró el secretario
de Salud de México, José Ángel Córdova.
Con estas afirmaciones, ambos políticos cerraron filas
entorno a la máxima autoridad sanitaria mundial. Córdova también excusó a la
industria de haber presionado a los gobiernos: “Había que preparar una vacuna
rápidamente, y además de calidad sin dejar a un lado la inmunización frente a
la gripe estacional. Había que negociar, y no creo que se haya buscado el
beneficio de la empresa”.
La cuestión es que ahora, cuando la actividad del virus H1N1 es muy baja,
muchos gobiernos se han encontrado con un excedente de vacunas cuyo destino no
está claro. Córdova indicó que México dispone de 30 millones de vacunas –“los
primeros cinco millones nos los prestó Canadá”, recordó–, y muchas se
administrarán en embarazadas. España compró 37 millones de dosis, con un coste
de 270 millones de euros.
Finalmente, el pedido ha quedado reducido a 13 millones y sólo se han
vacunado tres millones de personas de los 10 millones estimados. “Las vacunas
son el gran descubrimiento del siglo XX y ponerlas en cuestión es
irresponsable. Los informes de farmacovigilancia no han detectado más
reacciones con la vacuna de la gripe A que con la de gripe estacional”,
subrayó la ministra.
Miedo a la vacuna
Jiménez explicó que las reticencias de los europeos frente a la vacuna de la
gripe A contrastan con la actitud de los estadounidenses, quienes “siguen
acudiendo a los centros a que les vacunen. Además, las farmacias ofertan la
vacuna a un precio de 18 dólares. Son comportamientos de mundos diferentes”.
En cualquier caso, ambos responsables insistieron en el interés de sus
respectivos países en la fabricación de vacunas. México cuenta con una planta
en la que se producen vacunas frente a la polio, la rabia y la gripe y “en
2012 estaremos en condiciones de comercializar grandes cantidades”, dijo el
secretario de Salud. Trinidad Jiménez aseguró que “sigue en pie el compromiso
para crear una planta de producción de vacunas en Granada. La compañía Rovi
nos ha confirmado que el acuerdo sigue vigente, aun está buscando un socio”.
Pero si un país ha resultado especialmente perjudicado por la pandemia ha
sido México. José Ángel Córdova cifró en el 0,7% el PIB el impacto negativo de
la gripe A. “El turismo y el comercio se han visto muy perjudicados por el
mero hecho de cumplir con el reglamento internacional y comunicar la situación
en las primeras horas. Otros países tenían unas circunstancias similares, pero
el impacto no fue el mismo”. Por ello, apuntó la posibilidad de que México
pudiera recibir algún tipo de compensación de la comunidad internacional.
En España, el virus H1N1 tuvo su pico máximo en septiembre y octubre. Hasta
comienzos de año, habían fallecido 271 personas. Ahora, la enfermedad está por
debajo del nivel epidémico, pero las autoridades sanitarias se resisten a
bajar la guardia.
Fuente: Expansion.com. 8-2-10
-Identificadas
las primeras variantes genéticas relacionadas con el envejecimiento
Una persona puede tener 70 años pero un organismo y unas células propias de
alguien de 50, o viceversa. La primera es la edad cronológica, la que figura
en el DNI y se celebra con tartas y velas. La segunda es la edad biológica y
viene marcada por el envejecimiento celular. Ahora, un grupo de científicos
acaba de identificar, por primera vez, unas variantes genéticas relacionadas
con esta última edad de los humanos, un descubrimiento que abre nuevas vías
para investigar algunas enfermedades relacionadas con la vejez.
El equipo de investigadores, dirigidos por el profesor
Nilesh Samani, del departamento de Ciencias Cardiovasculares de la Universidad
de Leicester (Reino Unido), llevó a cabo un análisis de más de 500.000
variaciones genéticas del genoma humano en dos cohortes europeas con
2.917 participantes y luego comprobaron sus hallazgos en otros 9.492
participantes.
Lo que han descubierto, según cuentan en la revista
'Nature Genetics',
son unas variantes, localizadas todas cerca del mismo gen -el
TERC-, que hacen que las personas que las portan tengan los telómeros más
cortos. Los telómeros son parte de los cromosomas y su longitud se considera
un marcador de la edad biológica. Cuanto más cortos sean, más 'ancianos' hacen
a nuestro organismo.
Según los autores, los telómeros tienen una fuerte
determinación genética -entre un 40% y un 80%- y aunque todos nacemos con una
longitud determinada de estas estructuras, luego va variando a medida que
cumplimos años y las células se van dividiendo. "Lo que hemos hecho es
identificar unas variantes genéticas que acortan los telómeros y los hacen
biológicamente más viejos", explica Samani.
"Dada la asociación que la ciencia ha establecido entre el
acortamiento de los telómeros y el riesgo de sufrir ciertas
enfermedades, como las coronarias o algunos tumores, nuestro estudio
lanza la cuestión de si los individuos que portan esta variante también tienen
más posibilidades de enfermar", añade.
"El trabajo sugiere que algunas personas están
genéticamente programadas para envejecer más rápido. En concreto, la
menor longitud de sus telómeros equivalen a tres o cuatro años de edad
biológica", señala Tim Spector, del King's College London, que también ha
participado en la investigación. No obstante, también recuerda que además de
la genética, en el envejecimiento celular influyen otros factores como "el
tabaco, la obesidad o el estilo de vida sedentario".
Fuente: elmundo.es, 7-2-10
- ¿Fue
Brahe asesinado?
Tycho Brahe
Los restos del astrónomo renacentista danés Tycho Brahe,
que está enterrado en Praga desde su muerte en 1601,
serán exhumados para tratar de averiguar la verdadera causa de su muerte,
según informó este viernes la prensa local. El ayuntamiento de la capital
checa y el arzobispado de Praga han dado el visto bueno a una
petición cursada por el arqueólogo danés Jens Vellev, de la
Universidad de Aarhus, señala el diario 'Pravo'.
Veller y un equipo de especialistas checos
exhumarán el próximo otoño los restos del científico danés , que
se encuentran enterrados en la iglesia de Nuestra Señora de Tyn de Praga.
Brahe (1546-1601) fue uno de los astrónomos más renombrados del comienzo
de la Edad Moderna, junto con
Galileo Galilei y Johannes Kepler, y contribuyó con ellos a validar la
Teoría Heliocéntrica.
Misteriosa muerte
Sus
observaciones sobre de la órbita de Marte, realizadas en la corte
praguense del Emperador Rodolfo II de Habsburgo, fueron más adelante
utilizadas por Kepler para descubrir las dos primeras leyes que llevan su
nombre. La repentina muerte de Brahe el 24 de octubre de 1601 está
envuelta hasta hoy en el misterio. Primero se dijo que había
muerto por problemas urinarios pero la primera exhumación de su
cuerpo, realizada en 1901, reveló un alto contenido de mercurio en su
bigote, atribuido a la experimentación de Brahe con nuevos elixires y que
le podría haber causado una intoxicación. Pero según el reciente trabajo
de un historiador danés, se baraja ahora la tesis de que un lejano
familiar de astrónomo, el noble Erik Brahe, lo asesinara por orden del rey
Kristian IV.
Fuente: elmundo.es, 7-2-10
-Aprender con YouTube
El portal de vídeos más famoso de la red no
es sólo una plataforma de diversión | En YouTube es posible aprender de todo:
desde trucos de pequeño bricolaje hasta clases de física | La enseñanza
virtual ya compite con la tradicional
No es un profesor a la
antigua, de los que entran en el aula a primera hora de la mañana con el
maletín de cuero y se sientan a dar una charla con traje y corbata. El maestro
del que vamos a hablar ahora es un poco más moderno: habla a través de la
pantalla del ordenador, tiene varias identidades y sabe un poco de todo. Se
llama YouTube.
Muchos usuarios consideran esta página
web como un mero espacio de entretenimiento, donde se pueden ver vídeos
divertidos o curiosos de aquellos personajes que tengan ganas de exhibirse,
para reír o compartir. Pero YouTube en la actualidad es mucho más que eso. A
través de sus contenidos es posible aprender cosas sencillas y muy útiles,
como hacerse el nudo de la corbata, cocinar una tortilla de patatas, recogerse
el pelo en un moño para salir de fiesta. Y no sólo: los más exigentes
encontrarán ahí también los entresijos más complejos del saber: clases
magistrales de universidad y cursos de idiomas o para tocar instrumentos.
YouTube ya es uno de los tres sitios con más tráfico
en el mundo. Desde su nacimiento, su evolución ha sido exponencial. En el 2006
servía unos 100 millones de vídeos al día. En la actualidad ofrece
1.000 millones diarios. Se han visto más de 100.000 años de vídeo
desde su nacimiento, con lo que hay que saber buscar, porque su oferta es casi
ilimitada. Su popularidad no para de crecer. Se suben 13 horas nuevas de vídeo
cada minuto: esto supone 18.000 horas de contenido extra que se generan cada
día. "En YouTube se puede aprender de todo. Desde descubrir cuál es la mejor
manera de maquillarse hasta escuchar una conferencia de un prestigioso
profesor de una reputada universidad extranjera", hace notar María Ferreras,
responsable en España de YouTube. Ante tanta oferta, es casi
imposible hacer un listado de los cursos más populares. Por lo general, los
conocimientos muy específicos o de nicho son los que reciben más visitas. Por
poner un ejemplo, según explicaba Ferreras, en España arrasa El cocinero fiel:
en un vídeo casero, un chico explica de forma concisa y eficaz cómo preparar
platos de toda la vida. Asimismo, las lecciones del ingeniero Leopoldo
Abadía sobre la crisis económica están muy cotizadas. Ferreras
también señala una conferencia de un profesor de la Universidad de Navarra de
48 minutos que ha recibido 30.000 visitas. Nada mal si se compara con el
número de asistentes de un auditorio convencional. "Muchos científicos usan
YouTube para poner a prueba sus investigaciones a otros colegas y así
enriquecer el debate. Es como si se llevara a cabo un trabajo de equipo para
avanzar en la investigación", afirma. En su opinión, YouTube "es ideal para
consultas concretas, consejos, trucos para autodidactas, pero también es un
método complementario para los cursos de mayor calado".
¿Quiénes son los fanáticos de YouTube? Según el estudio ¿Quiénes son los
youtubers? llevado a cabo por la consultora TNS, la edad media de los usuarios
es de 25 a 49 años. Se trata de un público de mediana edad, con inquietudes e
interés por aprender. El resultado desmonta el estereotipo según el cual
internet es una herramienta exclusiva del mundo juvenil. La responsable de
ventas de YouTube, Nathalie Picquot, destacaba que "mucha gente piensa que
nuestro usuario es más joven, pero no es así. Los youtubers son muy
interactivos, pinchan mucho en la pantalla. Van a esta página a entretenerse y
les encanta sorprenderse". Quien acude a YouTube casi siempre ve más de un
vídeo y hace caso de los enlaces relacionados. "Se trata de gente muy curiosa.
Muchos van a visitar una web de algo que han visto en un vídeo", dice Ferreras.
Hecha esta premisa, no es de sorprender el auge que están teniendo estos
vídeos de carácter educativo u orientado al aprendizaje. Tanto es así , que
este año YouTube ha lanzado un nuevo apartado, llamado YouTube/edu.
Allí los alumnos y estudiantes autodidactas pueden conectar con profesores de
reputación mundial, independientemente de su localización geográfica o del
centro universitario al que pertenezcan, fomentando el intercambio de ideas,
como si estuvieran en un aula global. En la página es posible encontrar
conferencias académicas que hace años eran inaccesibles para la mayoría. A su
vez, los centros de enseñanza adquieren a través de esta plataforma
visibilidad y repercusión a escala mundial. "Uno de los valores añadidos que
vemos en YouTube es la posibilidad de extender nuestros contenidos a millones
de personas a diario", explicaba a The Wall Street Journal Ben
Hubbard, de la Universidad de California.
Al margen de Youtube, las universidades han olfateado el potencial de la red.
De hecho, muchas de ellas han desarrollado su propio canal de vídeo en
internet, donde salen sus profesores dando clases y hasta corrigiendo
exámenes, con lo que el usuario puede valorar sus habilidades. ¿Qué es lo más
visto de estos cursos académicos? Según los rankings, tiene mucho éxito entre
los internautas un vídeo de la Universidad de Minnesota sobre
los avances científicos que salen en la película Watchmen, seguido
por las últimas novedades en las investigaciones sobre el sida. Como se ve,
hay mucho donde elegir. En la Universidad Berkeley hay más de 300 horas
disponibles en internet. La Universidad de Washington ofrece clases de
mitología griega o de la revolución Americana. La de Nebraska, de economía...
Según la web Academicearth.org, estos autodidactas virtuales
tienen intereses muy diversificados: en el área más humanista, cursos sobre
justicia, muerte y guerra civil; en ciencias sociales, los conflictos de
pareja y psicología, y en ciencia, la rama de ordenadores y programación. Noes
necesario saber inglés: en páginas como Ted.com se distribuyen conferencias de
prestigiosos oradores con traducción y subtítulos.
Aprender a través del vídeo en internet presenta indudables ventajas. Según el
estudio de hábitos de internet realizada por Red de Blogs, Ocio Networks, el
85% de los encuestados aseguraba sobre internet: "Me ayuda a formarme". Las
nuevas generaciones no sólo observan y aprenden, sino que participan,
comparten, interactúan y la red, en este sentido, es la herramienta idónea. En
YouTube el nivel de atención es muy elevado, porque se sigue el vídeo minuto a
minuto. Debido a la naturaleza del formato, el vídeo puede llegar a ser más
atractivo que el libro. Como recordaba el filósofo Umberto Galimberti, "mirar
es más fácil que leer". No sólo: gracias a la multimedialidad de la red, se
oye el sonido de un instrumento o un acento de un idioma extranjero, lo que
representa un plus respecto al tradicional manual de papel.
Además, a través de la red, siempre es posible enviar comentarios y preguntas
sobre determinado tema y mirar las dudas de los otros usuarios (que se quedan
grabadas, a diferencia de lo que ocurre, por ejemplo, en un aula universitaria
tradicional). Para ello, no es necesario desplazarse a ningún centro o esperar
a una hora determinada para recibir la clase: el aprendizaje a través de
internet puede darse en cualquier lugar y a cualquier hora, incluso a través
del móvil (basta con descargarse un programa para bajarse los vídeos de
YouTube en el celular, por ejemplo a través de la página web Softonic.com).
Ofrecer cursos de vídeo en internet puede ser también un negocio para quien
sube los contenidos a la web. En efecto, al hacerse socios de YouTube, los
autores de los vídeos, que mantienen sus derechos, cobran parte de los
ingresos de los enlaces publicitarios y algunos hasta acaban dando charlas en
conferencias. Más allá de YouTube, hay un número creciente de profesionales
que han creado sus propios canales de vídeo en la red y con la ayuda de
patrocinadores ya ofrecen cursos gratuitos de fotografía o de idiomas, por
ejemplo. Para el usuario, aparte del ahorro en términos de costes, los
beneficios son múltiples. "YouTube permite el aprendizaje en tiempo real y con
contenidos que están puestos al día. Pero este modelo está incluso destinado a
ser superado por otros sistemas aún más interactivos. De hecho, hay profesores
en Skype que chatean con sus alumnos", recuerda Alejandro
Suárez Sánchez-Ocaña, de la empresa Ocio Networks. La pregunta, más bien, ante
la multitud de posibilidades que ofrece la tecnología, es cómo asegurarse de
que los alumnos absorban la información de manera correcta. En este sentido,
Suárez Sánchez-Ocaña no duda de la capacidad de aprendizaje de los usuarios.
"Desde un punto de vista neuronal, podemos mantener relaciones con 30 personas
cercanas y hasta 130 lejanas. Pero las próximas generaciones podrán duplicar
estas cifras. La capacidad neuronal será superior. Es cuestión de
entrenamiento", asegura Sánchez-Ocaña.
Por lo tanto, vamos hacia una forma de aprendizaje distinta respecto a la
tradicional. "Lo físico, en cuanto soporte, no tiene valor añadido: lo que
tiene valor añadido es la posibilidad de interactuar, algo que a través de las
nuevas tecnologías ya es posible.
Sin tener en cuenta que al estar delante de un ordenador, paradójicamente, hay
más concentración, menos ruido, dispersión distracción", indica Suárez
Sánchez-Ocaña. También Farreras subraya la ventaja que supone el diálogo entre
los internautas. "Se han dado casos de cursos de fotografía en YouTube en los
que los usuarios pedían más información sobre un tema y al final el usuario ha
acabado colgando otro vídeo", cuenta Ferreras.
Sin embargo, no todo son rosas. El aprendizaje a través de YouTube o, en
general, a través de internet tiene su límite. Sebastian Triviere es máximo
responsable de la firma Educa-systems, empresa que proporciona enseñanza a
domicilio, desde idiomas hasta cualquier otra asignatura, según el clásico
modelo de enseñanza presencial y cara a cara. En su opinión, hay que
distinguir. "Por un lado está el el e-learing o la universidad virtual:
consiste en un programa de curso diseñado y estructurado. Por el otro está
YouTube, donde todo está al alcance de forma gratuita. Enel primer caso,
estamos ante un curso virtual, pero dirigido a un alumno definido. En YouTube,
en cambio, el vídeo es para todo el mundo. Yo creo que en este caso el aspecto
personal de la enseñanza se pierde", afirma.
Triviere es un firme defensor de las relaciones humanas tradicionales entre
maestro y alumno. "Un profesor, sobre todo cuando hablamos de enseñanza
particular, lo primero que hace es poner una batería de preguntas para
entender qué es lo que necesita el estudiante, cuáles son sus necesidades, su
entorno, sus problemas, sus exigencias. Enel vídeo, en cambio, nadie te hace
preguntas. Se genera material, pero no hay nada como tener un profesor",
sostiene. "El contacto personal es esencial para transmitir emociones, la
comunicación no verbal. Es como leer un programa político o tener al político
que viene a tu casa a explicarte el programa: en cuanto a persuasión, el
impacto en los dos casos es claramente distinto. Sólo con internet, es difícil
despertar motivación, interés, constancia", opina. Otro punto de fricción es
sobre la calidad de los contenidos, que a veces son discutibles. Es cierto -
objetan los partidarios de la educación on line- que los mismos usuarios
señalan con su puntuación si el vídeo colgado en YouTube vale la pena. A su
vez, las redes sociales también actúan como filtro al seleccionar lo más
relevante. ¿Pero son de fiar? La universidad californiana de Pitzer
College es la primera en ofrecer un curso sobre YouTube, donde los
alumnos tienen que analizar los vídeos de la web y su repercusión social,
"para estudiar el potencial de la expresión en medios democráticos de
comunicación". Pues bien, Alexandra Juhasz, responsable académica, reconoce
que este portal tiene puntos débiles: "Me preocupa que el nivel educativo de
las discusiones baje, como ocurre a menudo con los contenidos y comentarios de
YouTube", afirmaba en una entrevista.
El futuro, como apunta Trivere, parece orientarse hacia el método híbrido. Es
decir, integrar la enseñanza on line con el tradicional cara a cara. Como
material de apoyo, YouTube puede aportar muchas posibilidades. De hecho,
algunos profesores de lengua lo usan, de forma ocasional para trabajar sobre
las letras de las canciones. Y para consultas concretas, dudas o argumentos
específicos, el portal de vídeos también puede tener su validez. Pero es
difícil - lo mismo ocurre, con Wikipedia- que sólo a través de YouTube
alcancemos la excelencia. "Sigo pensando que no hay nada como hablar una hora
con el profesor en lugar de ver su conferencia por la red", afirma Triviere.
Dicho eso, YouTube e internet están a disposición para complementar la
enseñanza. A base de un clic.
Fuente: lavanguardia.es, 6-2-10
-El Gobierno indio y la Comisión europea
apoyan a Pachauri
El primer ministro de la India, Manmohan Singh, ha pedido a
los países ricos que tomen medidas más intensas en la lucha contra el
cambio climático y les ha instado a brindar más asistencia financiera y
técnica a los países pobres para lograr un acuerdo internacional satisfactorio.
"Los países industrializados deben reconocer más claramente su papel histórico
en la acumulación de gases", afirmó Singh.
Pachauri (I) abraza al ministro de Medio Ambiente indio, Jairam Rames, en
Nueva Delhi. | AP
Asimismo, ha defendido la labor del jefe del Panel
Intergubernamental para el Cambio Climático (IPCC) de la ONU, el indio
Rajendra Pachauri. Varios medios británicos e indios han
cuestionado su credibilidad y le han acusado de incompatibilidad de
intereses y de mantener un estilo de vida que casa mal con la defensa del
medio ambiente.
Durante la inauguración del 'X Foro de Desarrollo
Sostenible de Delhi', el primer gran encuentro global sobre el clima tras
Copenhague, Singh ha afirmado que Pachauri es un "líder capaz y con
visión a largo plazo", y también ha prometido que la India "no
ahorrará esfuerzos en contribuir al éxito del proceso post-Copenhague".
"Algunos aspectos de la ciencia reflejada en el IPCC han
sido criticados. Pero el debate no afecta a las proyecciones básicas
del IPCC sobre el impacto de la acumulación de los gases de efecto
invernadero sobre la temperatura, la lluvia y el nivel del mar", alegó Singh.
"Déjenme afirmar que la India tiene plena confianza en el proceso del IPCC y
su liderazgo, y lo apoyará de cualquier forma que pueda".
En su Cuarto informe de análisis, el IPCC afirmó
inadecuadamente -citando un artículo de revista- que el cambio climático
causaría la
desaparición de los glaciares del Himalaya en el año 2035, lo que ha
situado al organismo bajo una fuerte polémica.
"Decepcionado por Copenhague"
El primer ministro inauguró el foro con un largo discurso
en el que dijo sentirse "decepcionado" por los
"logros
limitados" de la conferencia del clima de Copenhague de diciembre de
2009. La clave estriba ahora, según Singh, en asegurar que se cumple lo
prometido para no "desacreditar todo el proceso".
A Nueva Delhi se han desplazado varios dirigentes
europeos, como el presidente esloveno Danilo Turk, los primeros
ministros finlandés, Matti Vanhanen, noruego, Jens Stoltenberg, y griego, George
Papandreu, y también la secretaria de Estado española para Cambio
Climático, Teresa Ribera.
El Foro Delhi es el primer gran encuentro sobre el clima tras
Copenhague, aunque en enero Nueva Delhi ya acogió una reunión de ministros de
Sudáfrica, Brasil, India, y China -el llamado grupo BASIC- en la que estos
pidieron un rápido desembolso de los 10.000 millones de dólares comprometidos en
2010 para los países pobres.
"Pediría -dijo Singh- una mayor
asistencia financiera y técnica a los países en desarrollo, tanto sobre
medidas de adaptación para afrontar las consecuencias de esas emisiones, y sobre
mitigación para reducir su contribución a futuras emisiones".
Apoyo de la UE y de la ONU
Desde Bruselas, la Comisión Europea (CE) ha respaldado el
criterio científico IPCC pese a los errores detectados en datos clave.
"Es el informe sobre cambio climático más creíble que existe", aseguró
este viernes la portavoz comunitaria de Medio Ambiente, Barbara Helfferich, en
referencia al estudio del IPCC acerca del efecto del dióxido de carbono (CO2) en
la temperatura del planeta.
"La CE apoya las pruebas científicas del informe del
IPCC. Hemos tomado nota de los errores de los que se ha informado y los
hemos corregido", afirmó Helfferich. "Hay miles de científicos que apoyan estas
pruebas y la metodología científica es clara y correcta", añadió.
También Naciones Unidas ha defendido este viernes el trabajo
de los científicos del IPCC. El responsable del programa de Medio Ambiente de la
ONU, Achim Steiner, ha dicho que las críticas al IPCC y a su jefe, Rajendra
Pachauri, han alcanzado proporciones de una 'caza de brujas'.
Fuente: elmundo.es, 5-2-10
-El
tumultuoso nacimiento de las galaxias espirales
Más de la mitad de las galaxias espirales adquirieron esta peculiar forma
hace 6.000 millones de años, tan sólo 1.500 millones de años
antes de que se formara el Sol, por lo que se supone que en un pasado
reciente, en términos cósmicos, hubo muchas colisiones y fusiones galácticas.
Fue un momento muy tumultuoso en el Universo.
Algunas de las galaxias espirales captadas por el
telescopio 'Hubble'. |ESA |NASA
Esta es la conclusión a la que han llegado un grupo de
astrónomos europeos que ha realizado un censo de las galaxias captadas por
el telescopio espacial 'Hubble', que la
NASA y la
Agencia Espacial Europea
tiene a 600 kilómetros de la Tierra.
El estudio de las formas de las galaxias ha sido objeto
de un gran debate en Astronomía, análisis en el que se ha venido
utilizando la conocida como Secuencia de Hubble, una
clasificación creada en 1926 por el astrónomo Edwin Hubble, a quien debe
su nombre el satélite. Una de sus categorías son las galaxias en espiral.
Los investigadores, bajo la batuta del francés François Hammer, del
Observatorio de París, han recogido el censo de todas las galaxias
observadas que existen desde antes de la formación del Sol y la
Tierra hasta nuestros días.
En total, muestrearon 116 galaxias cercanas y
148 muy distantes y comprobaron que la secuencia (o
clasificación) de Hubble era muy diferente en el pasado:"Hace 6.000
millones de años había muchas más galaxias peculiares que ahora", afirma
Rodney Delgado-Serrano, uno de los firmantes del artículo publicado en
Astronomy & Astrophisics. "Esto significa que desde entonces esas galaxias
han conseguido tener espirales", añade.
Los expertos especulan que fueron los choques y fusiones entre ellas las
que dieron lugar a sus formas actuales. Rafael Bachiller, director del
Observatorio Astronómico Nacional, apunta que "cuando el Universo era pequeño
y más compacto, esas colisiones eran más frecuentes, por lo
que pueden ser el origen de las espirales". Ello debió ocurrir en un momento
caótico estelar. Tras los choques, las galaxias lentamente renacían como
espirales, con un bulbo denso, un disco a su alrededor y brazos.
Todo apunta a que la Vía Láctea, también espiral, se ahorró este drama
juvenil: su formación fue mucho más tranquila, sin grandes colisiones. Nuestra
vecina Andrómeda, sin embargo, si habría pasado por ese violento
escenario.
"Aunque la razón última de la creación de tantas formas espirales siga
siendo debatida, estas observaciones ofrecen una bella ilustración de la
omnipresencia de la espiral en la naturaleza, en particular a escalas
cósmicas", concluye Bachiller.
Fuente: elmundo.es, 5-2-10
-Las huellas más antiguas del mundo
Tienen 565 millones de años y son la prueba más antigua que
tenemos hasta el momento de animales desplazándose por sus propios medios. Se
trata de huellas fósiles descubiertas en rocas de la localidad de Newfoundland,
en Canadá, por un equipo internacional de científicos dirigido por expertos de
la Universidad de Oxford. Los investigadores, que acaban de publicar su
hallazgo en Geology, han identificado cerca de setenta rastros que indican que
algunas antiquísimas criaturas eran capaces de desplazarse de forma parecida a
como lo hacen las anémonas actuales por los fondos marinos del
Periodo Ediacárico.
"Las marcas que hemos encontrado -asegura Alex Liu,
uno de los firmantes del artículo- indican claramente que estos
organismos podían ejercer alguna clase de control muscular durante la
locomoción. Y eso resulta excitante porque es la primera evidencia que
tenemos de que criaturas que vivieron en este periodo tan temprano de la
historia de la Tierra tenían una musculatura que les permitía
desplazarse de un lugar a otro y les capacitaba, por lo tanto, para
cazar en busca de alimento o huir de unas condiciones locales adversas.
Pero lo más importante es que esas criaturas eran, con toda
probabilidad, animales".
En su trabajo, los investigadores comparan las
huellas a las que deja una moderna anémona marina, la Urticina, y
subrayan similitudes que permiten suponer que los animales que dejaron
esos rastros también eran físicamente parecidos a las anémonas, quizá
utilizando un pie en forma de disco como hacen sus parientes actuales.
Parecidos a los hongos actuales
Las pruebas que indican una capacidad de los animales
para moverse libremente y a su antojo son muy raras cuando se habla del
Cámbrico (entre hace 542 y 488 millones de años), lo que ha llevado a
muchos paleontólogos a pensar que los organismos primitivos eran
estacionarios y más parecidos a los hongos actuales que a cualquier otra
criatura.
Por eso, encontrar evidencias de movimiento voluntario en
el Periodo Ediacárico (es decir, cerca de treinta millones de años antes del
Cámbrico), es algo realmente significativo, ya que arroja algo de luz sobre
la oscuridad que envuelve al periodo que precede a la llamada "explosión del
Cámbrico", durante la cual surgieron todos los tipos de animales que
conocemos en la actualidad y también otros cuya herencia se extinguió mucho
antes de llegar al presente.
"Aún no somos capaces de decir qué organismo del Ediacárico
dejó estas huellas -afirma Alex Liu- pero representan una clara evidencia de
que aquellas criaturas tenían músculos que daban a sus blandos cuerpos algo de
rigidez. Y también es una prueba de que la ecología de este antiguo entorno
marino era bastante complejo, quizá de una complejidad más propia de épocas
muy posteriores".
Parece claro, concluye el científico, que estas antiguas
rocas de los tiempos en que las formas de vida empezaban a hacerse complejas
"tienen aún muchas cosas nuevas que contarnos".
Fuente: abc.es, 5-2-10
-Las 12 caras de Plutón
Plutón es un mundo ocre cuya superficie cambia muy rápido
a medida que enormes masas de hielo se desplazan de un polo a otro. Así lo
indican las fotos más detalladas que se han conseguido hasta ahora de este
cuerpo celeste en los confines del Sistema Solar.
Las imágenes fueron tomadas por el telescopio espacial
Hubble entre 2000 y 2002 y las presentó ayer la NASA, justo el día
en el que el descubridor de Plutón cumpliría 104 años. Se llamaba Clyde
Tombaugh, era estadounidense e incluyó a Plutón en el elenco de planetas del
Sistema Solar en 1930. Más de cien años después, Plutón dejó el olimpo para
convertirse en un planeta enano por decisión de la Unión Astronómica
Internacional (UAI). Fue una de las decisiones que más polémica han causado
dentro y fuera de los círculos astronómicos, y sus ecos siguen resonando, ya
que muchos se niegan a reconocer esa autoridad.
"Las nuevas imágenes no servirán para restituir a
Plutón", explica en un correo electrónico Mike Brown, uno de los astrónomos
que presentaron las fotografías. "Las imágenes nos dicen que no tiene que
ser un planeta para ser interesante", añadió el astrónomo, que se jacta de
ser el hombre que "mató" a Plutón.
Color real
Las imágenes muestran el color real del planeta enano. "Si
estuvieses en una nave espacial cerca de Plutón, este es el color que verías",
explicó el astrónomo Marc Buie durante la presentación. Las partes más
brillantes son monóxido de carbono que están a unos -230ºC. Las más oscuras son
concentraciones de nitrógeno y metano en las que el termómetro sube hasta -213ºC.
Las 12 caras de Plutón son el resultado de más de 300
fotografías. Han sido reprocesadas con 20 ordenadores durante cuatro años,
señalaron los expertos de la NASA. Son lo más detallado que se verá en la Tierra
hasta 2015. Ese año la sonda de la NASA New Horizons sobrevolará la
superficie plutoniana y tomará fotografías con una resolución nunca vista.
Muchos de los que aún se resisten a llamar enano a Plutón confían en que ese día
cambien las cosas para siempre.
"Creo que 2015 va a ser un año problemático para la postura
de la UAI", señala Mark Sykes, director del Instituto de Ciencia Planetaria de
Tucson (EEUU) y acérrimo defensor de Plutón. Señala que no sólo la sonda New
Horizons traerá sorpresas, sino también la sonda Dawn que
explorará Ceres. Según Sykes, este planeta enano también debería ser considerado
un planeta.
Tras degradar a Plutón, la UAI creó la nueva categoría de
planeta enano para englobarlo a él, a Ceres y Eris. Según algunos expertos, los
tres deberían tener el rango de planeta. Para otros, aceptar a Plutón abría la
veda para que el olimpo de los ocho planetas del Sistema Solar se llenase hasta
perder toda entidad.
Decisión política
"Fue una decisión más política que científica", recuerda José
Juan López Moreno, astrónomo del CSIC. "Yo no lo hubiera quitado porque tampoco
pasa nada por incluir más planetas en la lista".
La decisión de enanizar a Plutón fue tomada por
mayoría y a mano alzada durante el congreso de la UAI de 2006 en Praga. Allí se
redefinió lo que significa ser un planeta. Plutón quedó fuera porque, a pesar de
tener forma esférica y girar alrededor del Sol, hay otros cuerpos en su órbita,
es decir, que no es lo suficientemente dominante como para "barrer su
vecindario", como lo describen algunos expertos.
La decisión fue denostada por astrónomos, geofísicos y
ciudadanos de a pie, que montaron manifestaciones espontáneas para que se
limpiase el nombre de Plutón. Las alegaciones aseguraron que sólo una minoría de
los miembros de la unión estaba allí para votar y que muchos otros expertos ni
siquiera pertenecen a ella.
"Lo que tenga que decir la UAI sobre esto es irrelevante",
explica a Público Alan Stern, investigador principal de la misión
New Horizons de la NASA. En enero de 2006, Stern y sus compañeros eran los
orgullosos responsables de la primera sonda que llegaría a Plutón. En agosto,
tras la decisión de la UAI, la sonda se había quedado sin planeta de destino. En
los días de la reclasificación, Stern advirtió de que Plutón no era el único que
tenía escombros en su órbita. La Tierra, Marte, Júpiter y Neptuno también tienen
cuerpos en sus recorridos, señalaba.
Desde entonces, el debate tiende frecuentemente a lo
emocional. "La UAI no es como la Santa Madre Iglesia y sus pronunciamientos no
deben ser aceptados por todo el mundo", advierte Sykes. Explica que algunos
expertos están intentando que la UAI revise su definición por miedo a que dañe
su credibilidad como referencia mundial en astronomía. "A pesar de ello, a la
mayoría de los que disentimos no nos importa lo que hagan", añade. "La UAI no va
admitir su error, pero eso es irrelevante", confiesa Stern. "Plutón es
considerado un planeta por gente real, científicos reales y educadores reales,
sin importar lo que digan", apostilla.
"Siempre habrá gente a la que disgusten algunas decisiones y
esos serán los que más alto se quejen", contesta Brown. Desde 2006, el astrónomo
de Caltech imparte una charla titulada Por qué maté a Plutón y por qué se lo
merecía. Poco antes de la presentación de ayer, y según confesó, recibió un
correo electrónico que le preguntaba: "¿Por qué mataste a Plutón?".
"Muchos estadounidenses no aceptan que Plutón sea un planeta
enano porque fue un americano el que lo descubrió", advierte José Luis Ortiz,
investigador del Instituto de Astrofísica de Andalucía. Asegura que "fuera de
EEUU, entre el 70% y el 80% de los expertos está de acuerdo en que Plutón es un
planeta enano". Aunque Ortiz apoya la decisión de la UAI, señala que se tomó de
forma precipitada: "Debería haberse dejado más tiempo para mejorarla porque aún
hay cosas por madurar".
Con la mejora constante de los telescopios terrestres y
espaciales, el número de planetas fuera del Sistema Solar no hará más que
crecer, lo que puede reavivar el debate, comenta el experto. "Puede que, al
final, Plutón vuelva a ser un planeta", concede, aunque piensa que, con la
llegada de más candidatos, las definiciones tenderán a hacerse más restrictivas.
"Deberían reconsiderarlo, pero sin prisa", concluye.
R2, el robot que pasó de astronauta a ensamblador
El Robonauta 2 (R2) es una máquina con forma humanoide
desarrollada por la NASA y la compañía automovilística General Motors, que fue
presentada ayer. La versión original fue diseñada hace diez años con el
propósito de enviar el artefacto a misiones de investigación espacial. Sin
embargo, su tarea original ha sido sustituida por la fabricación de coches. El
nuevo modelo es más fuerte, más hábil y con una tecnología más avanzada. Cada
uno de sus brazos es capaz de soportar más de nueve kilos de peso y sus
pulgares son oponibles. Estas características hacen que sus creadores
consideren al R2 como una herramienta idónea para trabajar en plantas de
cadenas de montaje, como las automovilísticas. “Se trata de conseguir coches
más seguros y plantas más eficaces”, afirmó ayer el videpresidente de
Investigación y Desarrollo de General Motors, Alan Taub. “Nuestro desafío es
construir máquinas que puedan ayudar a los humanos en su trabajo”, explicó el
director del Centro Espacial Johnson de la NASA, Mike Coats.No obstante, la
agencia no ha olvidado su propósito inicial y también espera poder utilizar a
R2 en futuras misiones espaciales. “La tecnología punta en robótica representa
una gran promesa, no sólo para la NASA, sino para toda la nación”, manifestó
el administrador de Sistemas, Misiones y Exploración de la agencia, Doug Cooke.
“Estoy muy emocionado con las nuevas oportunidades para humanos y para la
exploración espacial que estos robots tan versátiles nos pueden proporcionar”,
concluyó Cooke.
Una pelota gélida en los confines del Sistema Solar
-225ºC temperatura media
Los científicos estiman que la temperatura sobre la superficie de Plutón es de
unos -225ºC, lo que lo convierte en uno de los lugares más fríos del Sistema
Solar.
39 veces la distancia Tierra-Sol
Plutón está tan lejos de la Tierra como la distancia que hay entre nuestro
planeta y el Sol multiplicada por 39, un total de 5.869.660.000 kilómetros.
2.300 km diámetro
Su diámetro es de 2.300 km, la quinta parte del de la Tierra.
Fuente: publico.es, 5-2-10
-Salvemos la libertad científica
El climagate se está calentando. Los escépticos que
niegan el cambio climático han encontrado algunos errores científicos en la
investigación sobre el calentamiento global. El último informe del Panel
Intergubernamental sobre el Cambio Climático (IPCC) incluyó unos resultados que
predecían que los glaciares del Himalaya se iban a fundir 2035, y que se han
demostrado falsos, según admite el propio panel. También han aflorado posibles
errores en unos datos de medición tomados por las estaciones meteorológicas
chinas, e incluidos en el mismo informe del IPCC.
Pero también la Tierra se está calentando. Nada de lo
anterior modifica las conclusiones generales del IPCC, que siguen contando con
el respaldo mayoritario de los científicos. Pero sí revela que la presión
ambiental y política sobre la cuestión del cambio climático ha llevado a los
investigadores a unas prácticas de comunicación científica discutibles, o al
menos discutidas. La duda es si esta situación perturba la libertad intelectual
que debe regir en el debate científico.
El propio presidente del IPCC, Rajendra Pachauri, está
recibiendo presiones para dimitir. El centro científico que dirige, el Instituto
de Energía y Recursos de Nueva Delhi, tiene conexiones con algunas empresas que
pueden beneficiarse del impulso a las energías renovables. Estos lazos, según
los climaescépticos, constituyen un conflicto de interés.
El climagate empezó en noviembre, cuando unos
hackers colgaron en la Red 10 años de correos electrónicos internos del
Centro de Investigación del Clima de la Universidad de East Anglia(Reino
Unido). Un correo del entonces director de la unidad, Phil Jones -que luego dejó
el cargo a causa del escándalo-, decía: "Acabo de completar el truco de Mike en
Nature de añadir la temperatura real a cada una de las series para los
últimos 20 años, y desde 1961 para las de Keith para ocultar el descenso".
El diario The Guardian afirma ahora que la revisión de
miles de correos electrónicos ha revelado "graves errores" en los datos de
medición tomados por las estaciones meteorológicas chinas. Los científicos de
East Anglia habían incluido estos resultados en un trabajo publicado en 1990,
que después fue usado por el Panel Intergubernamental sobre el Cambio Climático
(IPCC) en su informe de 2007, para apoyar su tesis de un rápido calentamiento de
la superficie terrestre durante las últimas décadas.
El climaescéptico Douglas Keenan requirió a Jones los
resultados tomados por las estaciones meteorológicas chinas. Según Keenan, Jones
no facilitó los datos. La Universidad de East Anglia lo niega, y asegura que la
unidad del clima sí aportó "los datos de temperatura y la localización de las
estaciones meteorológicas". Pero esto sólo parece ser cierto para 10 de los 105
requerimientos que hizo Keenan.
Hay más puntos denunciados por los climaescépticos.
Según éstos, el IPCC sostiene que el calentamiento global ha causado un
incremento de las pérdidas económicas debido a los temporales y otros fenómenos
extremos, algo que, a su juicio, no está demostrado. El panel, sin embargo,
rechaza esta acusación por basarse en una cita "fuera de contexto". También
plantean dudas sobre la validez de las predicciones respecto a la reacción de la
Amazonia a los cambios ambientales.
Jones sigue sosteniendo que sus resultados son válidos, y
niega que su grupo ocultara datos relevantes. "El trabajo que hacemos en esta
universidad sólo es una pequeña parte de la ciencia del clima, y hay miles de
científicos en todo el mundo que apoyan nuestros resultados", declaró ayer Jones
a la BBC. Pero también admitió su preocupación por estos escándalos, y dijo:
"Cualquier trabajo que hagamos a partir de ahora será sometido a un examen muy
minucioso".
La revista Nature, que publicó buena parte de los
estudios ahora cuestionados, no ha encontrado motivos para revisarlos. Las
conclusiones del IPCC se basan en miles de resultados, que incluyen fenómenos
tan evidentes como el retroceso de los glaciares, el acelerado deshielo del
Ártico o el cambio en la migración de las especies. Los 3.000 principales
climatólogos del mundo coinciden en que el cambio climático existe, y respaldan
las conclusiones del IPCC.
"El asunto se está saliendo de madre", dice Manuel de Castro,
climatólogo de la Universidad de Castilla-La Mancha en Toledo. "Yo no puedo
saber lo que ha hecho Phil Jones con los correos, ni si ha retenido información
relevante o no; lo que es obvio es que hay mucha gente que está radicalmente en
contra del IPCC y del calentamiento global, y que se han agarrado a un clavo
ardiendo".
De Castro no cree que el climagate afecte en nada a
las conclusiones del IPCC sobre el calentamiento de la superficie terrestre, y
ofrece dos argumentos. Primero, que el artículo de Jones de 1990 "es sólo uno de
los 15 trabajos que usa el IPCC para sustentar sus conclusiones sobre el
calentamiento de la superficie terrestre; y las conclusiones son prácticamente
las mismas en el estudio de Jones y en todos los demás. Hay miles de científicos
del clima. Todo el mundo no puede hacer trampa".
El segundo argumento es más técnico, pero afecta justo al fondo del asunto:
los datos de las estaciones meteorológicas chinas. El climaescéptico
Keenan los cuestiona porque algunas de esas estaciones estaban junto a grandes
núcleos urbanos, y por tanto podían estar reflejando el incremento de
temperatura local, debido a la ciudad, y no una tendencia general de la
superficie terrestre.
De Castro señala, sin embargo, que el calentamiento de origen urbano sólo se
refleja en las temperaturas mínimas. Y que, desde 1980, éstas han evolucionado
en paralelo con las temperaturas máximas, que no son de origen urbano. "Por
tanto, si hay un efecto de origen urbano en las medidas del calentamiento de la
superficie terrestre, es muy pequeño". De modo que, aun cuando las acusaciones
de los climaescépticos fueran ciertas, el fondo de la cuestión no tendría
mucha sustancia.
Miguel Ángel Losada, de la Universidad de Granada, es un científico muy
crítico con una de las conclusiones más importantes del último informe del IPCC:
que la principal causa del calentamiento global son las emisiones de CO2 y demás
gases de efecto invernadero. Pese a ello, no ve el menor indicio de mala
práctica en los científicos de East Anglia.
"No hay ningún truco en la presentación de los datos por Jones y su equipo",
dice Losada en referencia al mensaje electrónico de Jones que causó el escándalo
(Acabo de completar el truco de Mike...). "Los investigadores juegan con
los datos para ver cómo responde el modelo; y esto no sólo es buena práctica
científica, sino que es imprescindible en un sistema tan complejo como el
clima".
Losada explica que las conclusiones del IPCC sobre el calentamiento de la
superficie terrestre se basan en miles de datos tomados en condiciones
distintas. Es precisamente el hecho de que que algunas estaciones estén cerca de
las ciudades y otras no lo que fuerza a dar distinto peso a unos datos u otros.
Y esto no se hace de forma arbitraria, sino con técnicas estadísticas muy
consolidadas. No hay truco en el mal sentido.
Michael Schlesinger, climatólogo de la Universidad de Illinois, dijo ayer a
este diario: "Lo peor que podríamos hacer es tomar un enfriamiento natural, a
corto plazo, por una refutación de que la Tierra se está calentando a largo
plazo por la actividad humana. Y que esto nos llevara a abandonar el principal
objetivo, que es superar la era de los combustibles fósiles tan pronto como la
economía lo permita". Schlesinger añade que renunciar a esas políticas "dejaría
un legado de calentamiento global a nuestros hijos, nuestros nietos y muchas
generaciones más, que probablemente no podrán revertir, y por el que
probablemente no nos podrán perdonar".
Las incertidumbres son parte de cualquier actividad científica, y más en un
sistema con tantas variables como el clima. Por ejemplo, algunos científicos
-entre ellos el propio Schlesinger- discrepan del IPCC en que, según ellos, la
corriente del Golfo será una de las primeras víctimas del calentamiento global.
La razón es el deshielo de los casquetes polares y de los glaciares de
Groenlandia, que vierten caudales de agua dulce en el Atlántico Norte. La
salinidad del agua allí es necesaria para que el agua superficial de la
corriente del Golfo (que procede de zonas tropicales) se hunda y vuelva a viajar
hasta los trópicos bajo la superficie del Atlántico, cerrando el ciclo.
Schlesinger cree que el comportamiento futuro de la corriente del Golfo
dependerá del ritmo de fusión de la hoja de hielo de Groenlandia. "El bloqueo de
la corriente del Golfo se ha considerado hasta ahora como un suceso de grandes
consecuencias pero escasa probabilidad", dice. "Pero nuestro análisis, incluso
descontando las incertidumbres, indica que se trata de un suceso de grandes
consecuencias y alta probabilidad".
Según los resultados de Schlesinger, la hoja de hielo de Groenlandia no
sobrevivirá al tercer milenio, "o no mucho, según el futuro escenario de control
de emisiones que uno elija".
La NASA publicó en 2004 unas mediciones por satélite que apoyaban la tesis de
que el flujo de la corriente del Golfo puede haberse aminorado ya como
consecuencia del deshielo. "El sistema de circulación oceánica del Atlántico
Norte se ha debilitado notablemente en los últimos años noventa respecto a las
dos décadas anteriores", concluyó en la revista Science el equipo del
Centro de Vuelos Espaciales Goddard de la NASA. "Ignoramos si esta tendencia
forma parte del ciclo natural o se debe a factores relacionados con el
calentamiento global".
Pero los datos de la NASA han sido muy discutidos por otros científicos del
clima. La posición del IPCC en su último informe es que no cabe hablar del
"bloqueo" de la corriente del Golfo en un plazo previsible. Si acaso podría
darse un "debilitamiento" de su flujo, pero "incluso en los modelos en que la
corriente del Golfo se debilita, la predicción sigue siendo que Europa se
calentará".
Pero otras discrepancias recientes se mueven en sentido contrario al deseado
por los climaescépticos. Por ejemplo, los climatólogos creían hasta el
año pasado que todo el planeta se estaba calentando con la excepción de la
Antártida, y que la mayor parte de este continente se estaba enfriando. Pero
científicos de la NASA y la Universidad de Washington mostraron, combinando los
datos de satélites y estaciones en tierra, que no es así. Durante los últimos 50
años, la Antártida se ha estado calentando a un ritmo parecido al del resto del
mundo. "Pero la gente estaba calculando de cabeza", explicó entonces Eric Steig,
director del Centro de Investigación del Cuaternario de la Universidad de
Washington. "Nosotros hemos hecho las matemáticas con cuidado, en vez de usar el
reverso de un sobre, y añadiendo los datos del satélite". Con esto, resulta que
la Antártida Occidental se ha estado calentando una décima de grado centígrado
por década desde 1957, o medio grado de promedio en los últimos 50 años.
Las polémicas y las hipótesis refutadas son cotidianas en la ciencia. Hablar
de trucos en un correo electrónico no es, probablemente, la mejor forma de
presentarlas en público. Habrá que buscar otras.
Fuente: elpais.com, 4-2-10
-El nido estelar gigante más próximo al sol
A 22.000 años luz del Sol, es decir, muy cerca en términos astronómicos, hay
una región donde están formándose continuamente estrellas a partir de grandes
nubes de gas y polvo. Es una de las nebulosas más luminosas y compactas de
nuestra Vía Láctea y la más cercana de este tipo a la Tierra, lo que facilita su
investigación, porque se conocen otras regiones así en otras galaxias pero la
mayor distancia impide analizarlas con detalle. El observatorio europeo VLT, en
Paranal (Chile), ha fotografiado ahora esta región, denominada NGC 3603, con
alta resolución. Una de las estrellas que hay allí es la más masiva de la
galaxia, que se sepa, con casi 120 veces más masa que nuestro Sol.
El
conjunto estelar NGC 3603, fotografiado con uno de los telescopios VLT, del
observatorio europeo de Cerro Paranal (Chile)-
ESO
NGC 3603 proporciona una excelente foto de familia estelar porque, aunque
todas las estrellas tienen la misma edad (aproximadamente un millón de años,
frente a los 5.000 millones que tiene el Sol), unas están aún en fase de
formación, otras desarrollan su vida adulta y otras están ya moribundas, explica
el Observatorio Europeo Austral (ESO), propietario del VLT. Esta variedad de
estadios de la población de astros, aunque tengan la misma edad, se debe a las
diferencias de masa: las estrellas más masivas queman muy rápido su combustible
nuclear, viven deprisa y mueren pronto, en comparación con las menos masivas,
que no lucen tanto y están más frías.
La estrella más masiva de NGC 3603, esa que tiene una masa 120 veces superior
a la solar, forma parte de un sistema binario con una compañera de 89 masas
solares, y ambas giran una alrededor de la otra cumpliendo una órbita completa
cada 3,77 días.
En el centro de la nebulosa, intensamente iluminada por las estrellas masivas
que alberga, hay miles de astros, la mayor parte de ellos de masa similar o
inferior al sol. Pero también hay muchas supergigantes azules, incluso unas
cuantas de ellas se concentran en un espacio inferior a un año luz cúbico.
Fuente: elpais.com, 3-2-10
-Astronautas de la NASA SA
Las empresas de transporte espacial
existen desde hace décadas, ya dependemos de ellas, los militares les confían
sus instrumentos y armas más preciados y caros, los demás les confiamos nuestros
carísimos satélites meteorológicos, de comunicaciones o científicos. Ahora se
trata de confiarles también el transporte de personas a la órbita baja de la
Tierra. Si no tenemos miedo de volar en un avión no hay por qué temer hacerlo en
un vehículo espacial comercial hasta los 300 ó 400 kilómetros de altura. Con
estos argumentos, altos cargos del Gobierno de Obama y de la
NASA defendieron ayer el nuevo rumbo que
quieren imprimir a los vuelos espaciales tripulados, un giro estratégico que
llevaba años gestándose pero que implica cambios tan grandes en la NASA que
ningún presidente se había atrevido a proponerlo.
Ha tenido que ser la necesidad de
ahorrar en un marco de grave crisis económica el factor determinante para la
decisión de Obama. "¿Qué ganaremos?", se preguntó ayer el director de la
NASA, Charles Bolden. Y contestó: "Menos impuestos, muchos puestos de
trabajo muy cualificados y que los empresarios financien el desarrollo
comercial de los vuelos tripulados". ¿Y serán los astronautas también
empleados de las empresas? No es descabellado que lo sean, pero nadie
respondió ayer a esa pregunta, porque queda mucho por decidir, reconoció
Bolden. "El presidente nos ha pedido que elaboremos estrategias detalladas
en cada área en las próximas semanas", comentó en el
National Press Club en Washington.
"Yo, y el presidente también, estoy
convencido de que este nuevo rumbo es el correcto en este momento", dijo
John Holdren, asesor científico de Obama. "No es un retroceso respecto a lo
anterior, es procurarnos nuevas oportunidades para llegar más allá en el
espacio, más deprisa, con más seguridad y con menos gastos".
El salto comercial, largamente
deseado por el sector aeroespacial estadounidense, desmitifica los vuelos
tripulados, basados en tecnologías que llevan 50 años utilizándose en el
sector civil y pueden seguir siendo desarrolladas por la empresa privada. Y
además, reconoce tardíamente que no se debieron abandonar los cohetes de un
solo uso, como el Saturno que permitió a EE UU alcanzar la Luna. Esa
decisión, en favor de los transbordadores, hace que ahora el país tenga que
depender de los vehículos rusos, basados en el mismo concepto, para ir y
volver de la Estación Espacial Internacional (ISS).
La vida de este laboratorio en
órbita se quiere alargar hasta 2020, al tiempo que se fomenta su explotación
como base científica y tecnológica. Europa también podría mejorar su
vehículo de carga ATV, ya probado, para transportar astronautas, pero no ha
habido más que conversaciones preliminares con Estados Unidos (que ni
siquiera tiene todavía algo parecido), que no han llegado a nada.
Muchos dudan de que el país se
ahorre dinero a corto plazo y que se creen muchos puestos de trabajo con el
nuevo rumbo, pero el de la seguridad es el aspecto más polémico. ¿Cómo
garantizará la NASA la seguridad de los tripulantes de la ISS, que es ahora
el único destino al que se puede ir en órbita baja de la Tierra? Según
Bolden, las empresas harán vuelos de demostración, igual que en la aviación
civil, antes de ser autorizadas a hacer vuelos comerciales, ya sea
contratadas por la NASA o para otros usos, como el turismo espacial. "Me
comprometo a que todo se hará de forma eficiente y segura", dijo
solemnemente.
Ares I, lanzado en Octubre
La nueva estrategia gubernamental
significa el sacrificio del programa Constellation del Gobierno Bush, cuyo
objetivo era volver a la Luna en 2020. En los nuevos cohetes Ares y las cápsulas
Orion para tripulantes, que nunca volarán si el Congreso aprueba el plan de
Obama, se han invertido ya 9.000 millones de dólares (6.400 millones de euros).
En 2011 se han presupuestado otros 2.500 millones para terminar el programa, con
las indemnizaciones previstas en los contratos. El portavoz de la Oficina de
Presupuestos aseguró ayer que no tenía sentido seguir con un programa que
significaba repetir lo que ya se ha hecho (pisar la Luna) y que, además, iba
retrasado y no dispuso nunca de los fondos suficientes.
En vez de eso, se incrementan los
fondos para un salto tecnológico que la NASA considera imprescindible. Un salto
en sectores como el de materiales, la propulsión y las comunicaciones que no es
fácil ni siquiera imaginar, a pesar del optimismo de los responsables de la
agencia espacial respecto a las "osadas ideas y conceptos" que proponen "las
mejores mentes del país".
"Reharemos la base de la exploración
espacial y estableceremos nuevas formas de negocio para hacerla sostenible",
aseguró Bolden. A continuación, presentó a "los pioneros" con los que están
trabajando. Son las empresas que ya tenían contratos con la NASA para avanzar
hacia la comercialización de vuelos, por mandato del Congreso, y las nuevas que
acaban de recibir contratos centrados en el desarrollo de cápsulas para
astronautas. "La colaboración con empresas no es una idea nueva, ya se estaba
haciendo, pero ha llegado el momento de hacerlo a lo grande", dijo el ex
astronauta. ¿Y cuál es la nueva misión de la NASA? Pues adelgazará mucho, desde
luego, y se concentrará en los grandes desafíos, en dar instrumentos para la
exploración de nuevas fronteras, según la versión oficial.
Space X y
Orbital
Sciences son las dos empresas que llevan varios
años desarrollando cohetes y vehículos de carga para la ISS, con contrato con la
NASA, y sus representantes se mostraron ayer optimistas sobre el futuro, ya que
pretenden hacer los primeros vuelos en 2010. Sin embargo, ni siquiera los
cohetes se han probado todavía.
Boeing y Lockheed
Ahora, con los fondos destinados a la
recuperación económica, la NASA ha dado contratos por valor de 50 millones de
dólares, que son pocos pero constituyen los primeros pasos para desarrollar
cápsulas tripuladas. Una de las empresas pretende hacer una cápsula hecha
íntegramente con materiales compuestos (fibra de carbono), como los aviones más
avanzados. También se desarrollarán sistemas de vigilancia y de escape para los
astronautas en caso de que algo vaya mal, así como sistemas para el soporte de
vida.
Mientras, los gigantes del sector -Boeing
y
Lockheed Martin - ven más cerca su ya antiguo
sueño de utilizar las versiones más pesadas de sus cohetes más nuevos, el Delta
y el Atlas, para llevar astronautas. Cuando se hicieron los primeros
lanzamientos de esos cohetes, encargados por la Fuerza Aérea de Estados Unidos,
ambas empresas tenían la esperanza de que la NASA les solicitara esta misión,
pero faltó la iniciativa política que impidiera la situación actual: EE UU se
quedará en unos meses sin medios propios para alcanzar la órbita baja, cuando se
retire el transbordador tras los cinco vuelos que le faltan. Y la NASA calcula
que hasta 2016, como pronto, no habrá recambio "hecho en América", como dijo
ayer Bolden.
Salto tecnológico
Nuevos contratos de la NASA para
cápsulas tripuladas con nuevas tecnologías:
-
Blue Origin :
Mitigación de riesgos. 3,7 millones de dólares.
-
Boeing : Cápsula para siete personas. 18
millones.
-
Paragon : Sistema
de soporte de vida. 1,4 millones.
-
Sierra Nevada : Avión espacial Dream
Chaser para cohete Atlas. 20 millones.
-
United
Launch : Sistema de emergencia para
cohetes Atlas y Delta. 6,7 millones.
Fuente: elpais.com, 3-2-10
-Resuelven el enigma de
cómo las células viejas dan lugar a nuevas
Unos investigadores han descubierto de qué manera las células
madre viejas y deterioradas son capaces de dar lugar a células hijas nuevas y
sanas, un proceso enigmático para la ciencia hasta ahora. Esta revolucionaria
investigación fue financiada en parte por la Unión Europea y se ha publicado en
la revista Cell.
Sus resultados han revelado que las células de levadura se valen de un mecanismo
semejante a una cinta transportadora para traspasar proteínas dañadas a las
células madre antes de dividirse y dar lugar a nuevas células durante la
mitosis.
«Así la célula hija nace exenta de daños relacionados con la edad», explicó el
director de la investigación, el profesor Thomas Nyström del departamento de
biología celular y molecular de la Universidad de Gotemburgo (Suecia). Su equipo
científico ya había publicado numerosos estudios sobre el envejecimiento
celular, pero este nuevo trabajo se centra en la pieza clave de este
rompecabezas.
La investigación forma parte de los proyectos financiados con fondos
comunitarios MIMAGE («Función de las mitocondrias en mecanismos conservados del
envejecimiento»), financiado con 7,4 millones de euros, y PROTEOMAGE («Análisis
funcional de mecanismos del envejecimiento conservados durante la evolución en
relación con el análisis avanzado del proteoma»), al que se adjudicaron 10,7
millones de euros por medio del área temática «Ciencias de la vida, genómica y
biotecnología aplicadas a la salud» del Sexto Programa Marco (6PM).
Este trabajo saca a relucir que las células hijas emplean estructuras similares
a cintas transportadoras para traspasar las proteínas dañadas a sus células
madre, de tal manera que las nuevas células «nacen» jóvenes y sanas.
«Antes se pensaba que estas estructuras posibilitaban el tráfico en un único
sentido de proteínas y orgánulos de células madre a hijas», informó el profesor
Nyström. «Ahora hemos demostrado que también se transportan jproteínas
deterioradas en dirección contraria. En principio esto significa que la célula
hija utiliza a la madre como "vertedero" de toda la basura generada en el
proceso de envejecimiento, lo cual permite que la nueva célula nazca sin daños
relacionados con la edad.»
Los autores han puesto de manifiesto que se trata de un proceso de transporte
mecánico basado en unas estructuras denominadas cables de actina que funcionan
como si de cintas transportadoras se tratase. Para que estos cables se formen
adecuadamente se necesita un gen específico denominado SIR2. Estudios anteriores
han demostrado que modificando el SIR2 se puede prolongar considerablemente la
vida de un organismo.
«Si aumenta la actividad de SIR2 se prolonga la vida; si SIR2 está dañado se
acelera el envejecimiento», señaló el profesor Nyström. «Se ha demostrado en
estudios sobre levadura, gusanos, moscas y peces y podría cumplirse también en
el caso de los mamíferos.»
El profesor Nyström opina que el descubrimiento de este sistema de devolución de
proteínas dañadas a las células madre podría conducir a largo plazo a
tratamientos contra enfermedades de los humanos relacionadas con la edad y
causadas por la toxicidad de proteínas, aunque aún es demasiado pronto para
aventurar cómo.
«El primer paso consiste en estudiar si este transporte de proteínas dañadas se
produce también en las células de mamíferos, en los que se engloban los humanos,
por ejemplo cuando se forman las células sexuales y las células madre», indicó.
Los proyectos financiados con fondos comunitarios MIMAGE y PROTEOMAGE contaron
con un total de 31 socios de 12 países de la UE más Canadá y China.
Fuente: CORDIS, 2-2-10
-Cae el dogma: Nuevas
respuestas a viejas cuestiones
La combinación de mutación al azar y
selección natural es una de las más extrañas y estériles producciones de la
ciencia. Empero, es crucial para el mantenimiento del edificio que a menudo se
viene llamando “moderna teoría evolutiva” (identificado a diestro y siniestro
como darwinismo).
La exaltación del azar es la cruz
de una moneda de uso corriente en el darwinismo que en su cara presenta la
imposibilidad de la herencia de caracteres adquiridos. Los organismos son
interpretados así como entidades casi-impermeables al ambiente cuyas fuentes
de variación importan poco y se basan en las extrañas teorías de Weismann,
un influyente biólogo y eugenista alemán que, sin fundamento experimental
alguno, proponía que la línea germinal es independiente de la somática y que
la experiencia del individuo no puede influir en cambios heredables.
Junto con la selección natural, las
mutaciones al azar (y su contrapartida, la imposibilidad de la herencia de
caracteres adquiridos) constituyen la esencia del darwinismo. Por primera y
puede que única vez en la historia de la ciencia, el azar fue invitado a
ocupar un lugar de privilegio, un auténtico trono. A su lado, en otro trono
semejante se sienta la tautología.
Pero todo cambia y para dar lugar
al cambio, nuevas respuestas surgen respondiendo a viejas preguntas.
En este caso las viejas preguntas
son:
¿Es cierto que las mutaciones son
al azar? ¿Qué pruebas existen en favor de ello?
Un reciente artículo en Proceedings of
the Royal Society B, titulado “Even small SNP clusters are non-randomly
distributed: is this evidence of mutational non-independence?” indica que el
dogma comienza a quebrarse. El artículo se ha destacado en The Scientist con un
comentario titulado:
Veamos aquí, de momento, tan solo como comienza el
comentario. Lean una de sus primeras frases y reflexionen acerca de si es o no
compatible con los esquemas al uso acerca de cómo debe operar la mentalidad
científica. La frase dice:
Do genetic mutations really occur at random spots
along the genome, as researchers have long supposed?
¿Es lícito utilizar de esta manera el verbo suponer,
como si el suponer ya diera algún derecho para mantener una idea?
¿Tiene algún sentido la frase “as researchers have long
supposed”?. Si lo tiene, entonces a qué researchers se refiere? ¿A
todos? ¿A los de alguna escuela en particular? ¿O es que todos los
researchers debemos ser obedientes con determinadas suposiciones?
Si leen el artículo, irán viendo cómo el pilar
fundamental de un dogma se empieza a quebrar. En años sucesivos veremos cómo cae
entero. Primero, las mutaciones no tienen por qué ser siempre al azar. Luego, la
herencia de caracteres adquiridos puede ser algo mucho más normal y habitual de
lo que se ha “supuesto”, aunque sus mecanismos se desconozcan (por no haberse
investigado).
Finalmente, la selección natural es incapaz de aportar
nada nuevo puesto que es una tautología.
Fuente: blog "biología y pensamiento", 1-2-10
-Una
investigadora revela que Cristobal Colón era hijo de la aragonesa Isabela de
Alagón y nació en Cerdeña
La investigadora
turolense Marisa Azuara Alloza reveló hoy las conclusiones de
un estudio sobre el origen del descubridor del Nuevo Mundo Cristóbal
Colón que concluye que "es hijo de la aragonesa Isabela Alagón y
Salvador Piccolomini" y añadió que Cristóbal Colón tuvo que nacer en la
"demarcación genovesa de la isla de Cerdeña".
La autora del
estudio desestimó otros progenitores que se barajaron en la época y aseveró que
Colón fue fruto de un matrimonio legítimo porque de haber sido hijo fruto de una
relación espuria hubiera constado en todos los documentos oficiales.
Sin embargo justifica la pervivencia de este enigma sobre la procedencia de
Colón porque "tanto sobre su familia paterna, como materna había recaído la
pérdida de su estado y la ignonimia de ver sus blasones infamados por una
sentencia infundada de felonía y lesa majestad".
En el siglo XV "era la peor desgracia inimaginable" destacó la autora para
explicar que suponían una "traición al soberano que era el crimen más grave de
la reglamentación penal, semejante al magnicidio en nuestra época". "Hasta tal
punto determinó aquella sentencia su vida que le obligó a callar los apellidos
de sus antecesores, además de constituir un mayorazgo para dar origen a un nuevo
linaje nobiliario, a exigir el patrocinio de la Corona de Castilla en la empresa
descubridora y a vetar la participación del rey de Aragón en el proyecto".
Durante el discurso de inauguración de la apertura del curso académico 2010 de
la Real Academia de Nobles y Bellas Artes de San Luis, la investigadora aportó
otros datos que "certifican" la procedencia aragonesa de Colón. Entre los más
significativos dijo que en las cartas de pago emitidas por la Corona de Castilla
aparece catalogado como extranjero, mientras que en ninguno de los dos
documentos despachados por la Corona de Aragón figura tal denominación".
A pesar del aprecio que sentía por la reina Isabel "únicamente la consideraba
consorte del rey y jamás usó el tratamiento individual soberano para dirigirse a
ella, en cambio a Don Fernando se lo aplicaba continuamente". En una visita al
convento de Santa María de la Rábida dejó varios escritos en los que "intercala
puntuaciones, expresiones y palabras propias de la lengua autóctona de la Corona
de Aragón desconocidas en la Castilla del siglo XV".
Otros datos que aportó Marisa Azuara señalan que Colón puso el nombre de su
progenitor al primer territorio descubierto y el de su madre a la primera ciudad
fundada, dos aspectos que "entran dentro de los parámetros habituales". En la
investigación también alude a la relación de Colón con el valenciano Rodrigo
Borgia, que fue el Papa Alejandro VI, y los tratos que mantuvo con los conversos
aragoneses.
El presidente de la Real Academia de Nobles y Bellas Artes de San Luis, Domingo
Buesa, indicó en su discurso que el objetivo es ser una "institución del siglo
XXI que contribuya a que sus integrantes sean los embajadores de la cultura de
la Real Academia".
Buesa recalcó que la finalidad es "dar respuesta firme a las demandas culturales
del momento que demande la sociedad" y reclamó que en este propósito "no podemos
ir solos sino con la cercanía del Gobierno de Aragón y el Ayuntamiento de
Zaragoza", cuyos máximos responsables asistieron al acto a los que Buesa recordó
que están vinculados a la Real Academia por un decreto de Carlos IV.
Fuente:
lavanguardia.es, 1-2-10
-El cerebro humano
emplea redes para representar redes en el espacio
Científicos
financiados en parte por la Unión Europea han logrado identificar por vez
primera un tipo de células que ejercen las funciones de mapa espacial en
el cerebro humano. El descubrimiento, publicado en un artículo en la revista
Nature, puede aclarar cómo crean las personas mapas mentales al adentrarse en
entornos desconocidos.
El estudio, realizado por un equipo del University College de Londres (Reino
Unido), se basó en técnicas de imagen cerebral y realidad virtual para
identificar dichas «células de red». Se trata de neuronas especializadas que,
según se cree, intervienen en la memoria espacial y que ya se habían detectado
en el cerebro de roedores, aunque hasta ahora no se había documentado su
existencia en humanos.
«Es como si las células de red generaran un mapa cognitivo del espacio. De
hecho, estas células son similares a las líneas que señalan la latitud y la
longitud en los mapas, pero en lugar de emplear una cuadrícula el cerebro las
organiza en triángulos», afirmó el Dr. Caswell Barry, uno de los autores del
estudio.
La investigación se financió en parte mediante el proyecto SPACEBRAIN
(«Codificación del espacio en redes neuronales hipocampales y entorrinales»),
financiado a través del tema «Salud» del Séptimo Programa Marco (7PM). Los
responsables del proyecto pretenden averiguar cómo se originan las funciones
mentales complejas a partir de procesos neuronales eléctricos y químicos.
Concretamente, tratarán de profundizar en los principios de la computación de
microcircuitos del sistema de representación espacial de roedores. Para ello
emplearán diversas herramientas de investigación informáticas,
electrofisiológicas, ópticas y moleculares nuevas que nunca antes se habían
utilizado para el análisis de los circuitos cerebrales.
Las células de red representan la situación de un animal con respecto a su
entorno, algo que los investigadores comparan con un sistema de navegación por
satélite que estuviera alojado en el cerebro. Se activan siguiendo patrones que
se muestran como rejillas triangulares geométricamente regulares cuando se
superponen a un mapa de la superficie por la que se ha desplazado el individuo.
Fueron descubiertas en 2005 por un laboratorio noruego cuya investigación
sugirió que las ratas creaban redes virtuales para orientarse en su entorno y
recordar nuevos puntos en un terreno desconocido para ellas.
Durante el estudio se encargó a 42 participantes una tarea en un entorno de
realidad virtual. Los investigadores programaron un entorno sencillo compuesto
por un prado llano rodeado por un barranco circular. A continuación se solicitó
a los sujetos que recogieran y sustituyeran objetos comunes repartidos por el
entorno desplazándose por él hacia delante y hacia los lados.
El profesor Neil Burgess, director del equipo, añadió: «Se sabe que las zonas
del cerebro que muestran presencia de células de red, la formación del hipocampo
y otras zonas del cerebro relacionadas, nos ayudan a desplazarnos por nuestro
entorno y son básicas para la memoria autobiográfica. Esto significa que las
células de red pueden ayudarnos a acceder a un recuerdo determinado así como a
orientarnos en nuestro entorno. Estas áreas del cerebro son también las primeras
en verse afectadas por la enfermedad de Alzheimer, lo que explica por qué
perderse es uno de los primeros síntomas más comunes de esta enfermedad.»
Fuente: CORDIS, 1-2-10
-El transplante de
sangre periférica tan eficaz como la de médula
El trasplante de
progenitores hematopoyéticos se ha consolidado en los últimos años como una
buena alternativa al tradicional trasplante de médula ósea. Este método permite
obtener células del torrente sanguíneo de un donante compatible, capaces de
repoblar la médula ósea de un paciente con leucemia, de una manera más sencilla
y sin necesidad de anestesia. Un estudio publicado en la revista
'The
Lancet' después de 10 años de seguimiento
aclara algunas de las dudas que aún podían quedar sobre su uso.
Para obtener progenitores
hematopoyéticos (células madre de la sangre capaces de repoblar la médula)
'basta' con someter al donante a un tratamiento previo para multiplicar la
presencia de estas unidades en su sangre y, después, extraerlas e implantarlas
en un paciente con leucemia u otro tipo de tumores hematológicos.
Como explica el doctor Javier López,
hematólogo del Hospital Ramón y Cajal de Madrid, esta sangre periférica tiene
una ventaja sobre la de la médula ósea, y es que "ofrece una
recuperación más rápida", porque tarda menos en 'agarrar'. Por eso, en
la actualidad suele optarse por esta técnica para tratar a pacientes con
leucemias avanzadas, para garantizar que recuperen su médula ósea cuanto antes.
Mientras que en pacientes con enfermedad menos avanzada, se opta por la médula
ósea, que tarda unos días más en funcionar a cambio de ofrecer un mejor perfil
de seguridad.
Con el fin de aclarar qué diferencias
hay entre uno y otro método a largo plazo, el Grupo Europeo de Trasplantes de
Sangre y Médula (liderado desde Alemania por el doctor Birte Freidrichs) ha
comparado la evolución de 329 pacientes con distintos tipos de leucemias
tratados con ambos trasplantes por toda Europa entre los años 1995 y 1999.
Tras una media de 10 años de
seguimiento (la más amplia hasta la fecha), los investigadores observaron que
no existían diferencias en el pronóstico de supervivencia con médula
ósea o sangre periférica (donadas en ambos casos por hermanos
compatibles). De hecho, añaden, aunque los pacientes tratados con esta última
técnica sufrieron más complicaciones de rechazo (la denominada enfermedad de
injerto contra huésped), este problema no se tradujo en mayor número de muertes.
En pacientes con leucemias agudas, se
observó una tendencia de supervivencia algo mejor (aunque no estadísticamente
significativa) con el trasplante de médula ósea que con sangre periférica. Sólo
en la leucemia mieloide crónica los resultados fueron más positivos con sangre
periférica. "Estas conclusiones sugieren que existe un subgrupo de
pacientes que pueden beneficiarse todavía del trasplante de médula ósea".
"Después de una década de seguimiento,
la mayor incidencia de enfermedad de injerto contra huésped no se tradujo en un
mayor número de muertes, ni afectó al estado general de salud de los pacientes,
ni tampoco a su integración social", concluyen estos hematólogos europeos. A su
juicio, sus resultados no permiten concluir por sí solos que es hora de volver a
los trasplantes de médula ósea para ciertas indicaciones, pero sí que esta
técnica no puede aparcarse del todo por el momento.