-La belleza de los fractales se pone al servicio de la
investigación
Un fractal es un patrón geométrico repetitivo que se puede
encontrar en la naturaleza. Una definición corta para una realidad difícil de
entender. Casi tres décadas después de que el matemático Benoit Mandelbrot
acuñara el término, todavía se desconoce mucho de su funcionamiento. Hace unos
años, estaban de moda. Ahora parece que pasen de puntillas por los medios de
comunicación.
Fractal
"La investigación en fractales es un gran campo de las
matemáticas conocido como sistemas dinámicos y la teoría del caos, por tanto,
surge en cualquier ámbito de la ciencia, desde la biología a la química o la
ingeniería. Se ha progresado en el conocimiento, pero dado que los fractales se
encuentran en tantos campos, hay mucho que hacer", dice el matemático Robert
Devaney, de la Universidad de Boston, que ha impartido una conferencia en
Barcelona, invitado por la Obra Social La Caixa.
"En la mayoría de campos científicos, en la ingeniería, todo
el mundo pensaba que todo debía ser previsible y que, por ejemplo, una reacción
química no podía tener un comportamiento caótico", dice Devaney.
Uno de los ámbitos en los que se ha pensado aplicar la teoría
de los fractales es la meteorología. ¿Por qué es tan complicado predecir el
tiempo a medio plazo, a partir de tres a cinco días? "Es necesario entender cómo
funciona cada molécula del aire, es imposible, y por tanto los científicos
intentan realizar predicciones más simples, con fractales, que puedan ayudar a
entender qué es lo que está pasando en una situación meteorológica". Reconoce
Devaney que los investigadores aún trabajan en los fractales más simples, en los
conjuntos de Mandelbrot, "que son muy bellos". "Pero si aún no los entendemos
bien, ¿cómo podemos predecir el tiempo, que se mueve en variables infinitas? El
camino es muy largo", añade.
El conjunto de Mandelbrot se basa en unas expresiones
matemáticas simples (x2
+c) que producen hermosas y complicadas imágenes, cada una de
ellas con significados matemáticos propios. El problema es que sólo es posible
entender completamente esa ecuación si el límite del conjunto de Mandelbrot está
localmente conectado, y hasta ahora nadie sabe si esto es cierto.
Los fractales pueden funcionar bien en biología, para
analizar los tumores, dicen los expertos: "Si las células cancerosas son
benignas, entonces el fractal es muy redondo; pero si el cáncer es maligno, si
se extiende, el fractal será diferente. Y tenemos herramientas que miden cuál
será la dimensión fractal del conjunto y determinan si el cáncer hace
metástasis. Por tanto, los fractales son una herramienta matemática de la
medicina", explica. Devaney participa en algunas reuniones mensuales que hacen
en Boston un equipo de biomédicos, discuten sobre el caos y los fractales y cómo
pueden incidir éstos en la medicina.
En España también hay varias iniciativas empresariales que
utilizan los fractales en el desarrollo de productos: por ejemplo, una empresa
nacida en la Universidad Politécnica de Cataluña ha creado unas antenas
fractales capaces de enlazar señales de varias bandas de telecomunicaciones
simultáneamente.
Fuente: elpais.com, 30 de Abril de 2008
-Atapuerca: hacia una
nueva especie
En la Sierra de Atapuerca, España, se están
cocinando varias hipótesis sobre la evolución del hombre. Una de ellas lleva la
delantera.
Varias décadas escarbando huesos, herramientas y
dientes de unos individuos que, el más joven data de hace medio millón de años y
el mayor tendría 1,2 millones de años, alimentan las esperanzas de los
especialistas de que una especie europea, diferente al neandertal vivió en la
península ibérica.
Uno de ellos es Eudald Carbonell, director del
Instituto Catalán de Paleoecología Humana y Evolución Social, quien formó parte
del equipo de expertos que en junio pasado encontró la mandíbula de un joven de
hace más de un millón de años, con algunos de sus dientes todavía incrustados.
Una mandíbula con similitudes sorprendentes a la del
Homo sapiens y a la de los restos de unos 800.000 años que habían
descubierto hace más de una década en otro yacimiento de Atapuerca, al que
llamaron Homo antecesor.
Zona del descubrimiento
Mnadíbula descubierta
Árbol familiar
Este Homo antecesor, ¿qué lugar ocupa en el
árbol evolutivo de la humanidad? Ése es el quebradero de cabeza de los
especialistas de Atapuerca.
Si bien es cierto que no han encontrado suficientes
muestras como para llegar a conclusiones, sí han podido elaborar tres
hipótesis.
"La primera es que haya sido un antepasado
exclusivo del pre-neandertal -conocidos como los Homo heildelbergensis-
y el neandertal. Esa rama de la evolución que se extinguió unos 28.000 años
AC", explica Carbonell.
"La segunda hipótesis es que haya sido un
antepasado exclusivo del Homo sapiens, una especie que se haya creado
en Europa antes de que se creara esa última especia de la que provienen los
seres humanos".
"Y la tercera es que ese Homo antecesor haya
tenido una línea evolutiva propia sin descendencia", agrega.
Una nueva especie
"Nosotros nos inclinamos más por la segunda hipótesis",
le dice a BBC Mundo Carbonell durante una visita relámpago a Barcelona.
De ser así, estarían hablando de una especie
completamente nueva hecha en Europa. "Habríamos encontrado al primer europeo del
árbol evolutivo de la humanidad", agrega.
Lo que ocurre es que sólo tienen una mandíbula de un
joven para andar por el camino de esa segunda hipótesis.
"Sólo llevamos un par de años escarbando en el nivel
pleistoceno que data de más de un millón de años" aclara Carbonell. "Debemos
seguir escarbando para intentar descubrir huesos que afiancen nuestras
suposiciones".
Un poco de suerte
Los especialistas no buscan cualquier hueso, aun cuando
cada descubrimiento es bienvenido, lo que necesitan es un maxilar de un adulto,
no de un joven.
Esto se debe a que las características óseas de un
individuo ya desarrollado son definitivas y concluyentes. Mientras que la
fisonomía durante el crecimiento es cambiante, por lo que esas similitudes de
la mandíbula descubierta con la del Homo sapiens puede ser producto del
proceso de crecimiento de ese chico de 1,2 millones de años.
Por otro lado, los expertos de Atapuerca han empezado
a reexaminar todas y cada una de las muestras que durante estas últimas
décadas han ido acumulando, puesto que cada paso adelante que dan, puede hacer
tambalear las conclusiones a las que hayan llegado años atrás. ¿Hay esperanzas
de conseguir más fósiles? Carbonell se muestra optimista. Primero porque
apenas llevan dos años excavando un área de mil metros cuadrados.
Si en tan poco tiempo han descubierto herramientas,
una mandíbula, varios dientes y restos de animales con marcas de que se
practicó la carnicería... y el canibalismo... todo parece indicar que esta
mina tiene una veta llena de pistas de nuestros antepasados.
Fuente: BBC Mundo, 30 de Abril de 2008
-Científicos argentinos descubren como
eliminar los recuerdos
Científicos argentinos lograron manipular la proteína que interviene en la
memoria para eliminar los recuerdos cuando se los evoca, un hallazgo útil para
tratar las fobias o el estrés postraumático, informan hoy medios locales.
Mediante pruebas con ratones, los expertos en farmacología y bioquímica de la
Universidad de Buenos Aires demostraron que si se inyectan sustancias que
anulan la proteína de la memoria se puede alterar la capacidad de recordar,
señala el informe del diario bonaerense La Nación.
"Se abre un instancia por
la cual se podría interferir en la memoria ya formada" en los seres humanos,
declaró al periódico el doctor Arturo Romano, uno de los miembros del grupo de
científicos.
"Potencialmente podría ser aplicable a casos de fobias o personas que
sufren de estrés postraumático", aseguró.
Dijo que también se podría tratar todos aquellos trastornos en los que un
recuerdo patológico altera la vida cotidiana de la persona afectada.
Difícil aplicación en humanos
Pero Romano aclaró que todavía falta mucho para poder comprobar si la
experiencia podría reproducirse en humanos, pues el equipo de científicos
trabaja de momento solo con ratones.
En ellos hallaron la proteína que llamaron NF-kB, que actúa tanto en el
proceso de consolidación como en el de confirmación de la memoria y regula la
expresión de genes necesaria para almacenar recuerdos a largo plazo.
"Si se inyecta en el cerebro un inhibidor de este mecanismo cuando el
recuerdo es evocado, se afecta a la retención", explicó Romano.
Fuente: adn.es, 30 de Abril de 2008
-Muerte de quebrantahuesos y buitres
La asociación para la Defensa de la Naturaleza de Caravaca
de la Cruz (Caramulla) ha denunciado el hallazgo de nueve buitres leonados
muertos en los linderos de la finca El Roblecillo de Arriba, ubicada en
Murcia.
Las rapaces necrófagas se encontraban a unos veinte metros del cadáver de un
perro que "presumiblemente había ingerido algún cebo envenenado", y que al ser
devorado por los buitres logró producirles "una intoxicación fulminante".
Así lo han informado los responsables la asociación Caramulla, quienes ya han
puesto el hecho en conocimiento del Servicio de Protección de la Naturaleza de
la Guardia Civil (SEPRONA).
Buitre muerto
La mayoría de los individuos eran adultos y subadultos, lo que hace suponer
que eran aves no migratorias asentadas en la zona.
SEPRONA y la guardería de la Dirección General del Medio Natural de la
Comunidad Autónoma de Murcia rastrearon la zona, pero no hallaron ningún otro
animal muerto ni cebos.
En otros cotos de caza colindantes con El Roblecillo, como Los Almendros, han
habido en el pasado episodios de presuntos envenenamientos denunciados en su día
por Caramulla. "La colocación de venenos para el control de predadores en el
campo y cotos de caza está contemplado como delito por la Ley",
advierte la asociación, que también ha llamado la atención por el hecho de que
la lenta recuperación de la población de buitres conseguida en décadas pueda
verse abocada de nuevo a la extinción en poco tiempo.
Años atrás los buitres en esta comarca apenas comían restos que no fueran de
ganadería, pero con las medidas sanitarias impuestas y la obligación de retirada
de cadáveres del ganado para incineración, la hambruna de los rapaces
ha provocado que otros animales entren con mayor frecuencia en la dieta de estas
carroñeras.
Por su parte, el Grupo para el Estudio y la Conservación de los Espacios
Naturales (GECEN) ha denunciado la muerte "masiva" de buitres
leonados en los parques eólicos del norte de la provincia de Castellón, que se
produce ante la "indiferencia más absoluta de la Consejería".
GECEN ha respaldado estas afirmaciones con fotografías de ejemplares
muertos entre los campos de molinos energéticos en la provincia de
Castellón, que muestran una "realidad espeluznante e inadmisible".
Estas muertes, afirman los ecologistas, podrían hacer que la extinción del
buitre leonado "sea un hecho en los próximos años", ya que "la masacre, a falta
de actualización de datos, rondaría ya los 220 ejemplares", en los últimos
meses.
Ante esta situación, "las medidas de la Consejería para evitar estos casos
pasan por la instalación de 357 aerogeneradores más donde mueren los buitres",
han asegurado miembros del grupo. Esto constituye "una acción claramente
delictiva de prevaricación", ya que además "no asumen ninguna
responsabilidad", han apuntado los ecologistas.
"La impunidad de la administración valenciana demuestra que la Consejería
está por encima del Estado de derecho, y que éste es inaplicable en la práctica
cuando quien debe rendir cuentas son las autoridades", destacó el grupo
ecologista, que además recordó que la Fiscalía ha iniciado diligencias de
investigación penal.
Un quebrantahuesos abatido a balazos
Técnicos de la Consejería andaluza de Medio Ambiente han
hallado en la Sierra de Castril, en Granada, el cadáver tiroteado de 'Segura',
una hembra de quebrantahuesos (Gypaetus barbatus) liberada en mayo de 2007 en la
cercana sierra de Cazorla, en Jaén, dentro del programa de reintroducción de
este ave carroñera en Andalucía.
El animal fue abatido por disparos de escopeta en el Parque Natural
Sierra de Castril el pasado viernes y fue localizado porque, al igual
que los otros quebrantahuesos liberados por la Junta de Andalucía, portaba un
dispositivo de seguimiento vía satélite.
"El seguimiento de 'Segura', que al igual que los otros quebrantahuesos
liberados porta un dispositivo GPS, es realizado a diario por la consejería de
Medio Ambiente", explica Juan Montes Valverde, Gerente de la
Fundación Gypaetus una
organización que trabaja por la conservación y recuperación de especies
amenazadas en Andalucía que gestiona el Centro de Cría de Guadalentín.
Los análisis realizados en el Centro de Análisis y Diagnóstico de la Fauna
Silvestre (CAD) confirman que el animal falleció a causa de disparos de escopeta
que afectaron a órganos vitales del ave.
Por su parte, los agentes de Medio Ambiente de la provincia de Granada
continúan investigando para poder conocer la identidad del autor
material de este delito, tipificado como una infracción administrativa
muy grave en la ley de Flora y Fauna, sancionable con una multa de entre 60.000
y 300.500 euros, y como delito de atentado contra la fauna amenazada en el
Código Penal con penas de prisión de dos a cuatro años.
La Junta de Andalucía ha informado de que este suceso "no paraliza la
continuidad del programa de reintroducción del quebrantahuesos" que prevé la
suelta controlada de otros tres ejemplares el próximo mes de mayo.
Un ave excepcional
'Segura' nació el año pasado en el centro de cría en cautividad de
quebrantahuesos de Guadalentín en Jaén, donde han nacido otros catorce
ejemplares de esta especie considerada 'en peligro crítico de extinción'.
El animal es el primer individuo de esta ave planeadora que muere por disparos
desde que en 2006 se liberó el primer ejemplar en la sierra de Cazorla, Segura y
Las Villas, de donde los quebrantahuesos desaparecieron hace más de 20 años.
Quebrantahuesos
Sus padres eran 'Cabús' y 'Corba', dos ejemplares de quebrantahuesos que, al
no poder sobrevivir en libertad, fueron recuperados para el programa
internacional de cría: 'Cabús', procedente del Pirineo Andorrano, a causa de un
accidente; y 'Corba', recuperada del Zoo de Berlín.
El quebrantahuesos es lo que se conoce como un superespecialista.
Carece de depredadores que le ataquen y no tiene competidores por el alimento,
pues es el único que come huesos. El animal aprovecha todo de ellos, pues los
jugos gástricos de su estómago son capaces de disolverlos.
El programa para la reintroducción del quebrantahuesos en Andalucía cuenta
con el apoyo de un proyecto
LIFE
de la Unión Europea que, coordinado e impulsado por la Fundación Gypaetus, la
Federación Andaluza de Caza y la Unión de Pequeños Agricultores y Ganaderos
(UPA), colabora con la Consejería de Medio Ambiente para llevar a cabo esta
iniciativa.
La electrocución o el choque con tendidos de alta tensión, el uso de cebos
envenenados y los delitos de furtivismo siguen siendo los principales
problemas a los que deben hacer frente los ejemplares.
Aunque desde 2004, más de 10.000 estudiantes, 2.000 personas vinculadas a
movimientos conservacionistas y cerca de 2.500 cazadores y ganaderos han
participado en diferntes acciones de formación y sensibilización para la
protección de la especie, los esfuerzos no son suficientes. "La forma en que ha
muerto de 'Segura' nos demuestra que es necesario doblar los esfuerzos
en todo lo que se refiere a las medidas para minimizar los riesgos a
los que se enfrentan estos animales una vez son liberados", afirma Montes.
El Centro de Cría de Guadalentín alberga, además de los dos pollos de
quebrantahuesos nacidos este año, a otros 18 ejemplares, diez machos y ocho
hembras.
Fuente: elmundo.es, 30 de Abril de 2008
-Nuevos descubrimientos sobre los
anillos de Júpiter
El planeta Júpiter tiene, al igual que Saturno, un sistema
de anillos cuyas dimensiones son mucho más grandes de lo que se pensaba hasta
ahora. Ésta es la conclusión a la que acaba de llegar un equipo de
investigadores del Instituto Max-Planck (MPI) de Investigaciones Solares en la
localidad bajosajona de Klatenburg–Lindau, al norte de Alemania.
El anillo que rodea Júpiter está compuesto de partículas de polvo y
tiene un diámetro de 640.000 kilómetros, según las investigaciones
realizadas por los astrónomos de Klatenburg-Lindau junto con sus colegas del
Instituto Max-Planck de Física Nuclear de Heidelberg y la Universidad
estadounidense de Maryland.
Los científicos consiguieron medir por primera vez directamente las
partículas de polvo que orbitan en torno a Júpiter formando el anillo y cuyo
tamaño es tan sólo de una milésima de milímetro, comparable a las partículas que
lleva el humo de un cigarrillo, informa Efe.
Para realizar su estudio, el equipo de científicos alemanes y norteamericanos
analizó los datos recabados por la sonda 'Galileo', que entre
1995 y 2003 estuvo orbitando en torno a Júpiter y acumulando información sobre
el planeta gaseoso y sus satélites.
En las órbitas en las que giran las partículas en torno al más grande de los
planetas del sistema solar juega además un papel relevante la sombra de Júpiter.
Mientras en la parte que mira al Sol las partículas se cargan positivamente,
en el lado oscuro se cargan negativamente, y esto influye en su movimiento,
según señaló el MPI, que publica los resultados de la investigación en la última
edición de la revista 'Nature'.
Los resultados son muy importantes para comprender el funcionamiento de todo
el sistema de Júpiter, ya que las partículas de polvo cargadas positivamente
juegan un papel relevante en el nacimiento de los planetas y en el caso de
Júpiter constituyen un laboratorio en el que pueden analizarse procesos
astrofísicos.
Fuente: elmundo.es, 30 de Abril de 2008
-Un agente robot vigilará y controlará una ciudad
Apenas tiene el tamaño de una moneda de cinco céntimos pero puede controlar
todo un municipio de 30.000 habitantes. Es el denominado nodo de red, la base de
un sistema informático que toma decisiones como, por ejemplo, activar el riego
de jardines, regular la luz de las farolas o avisar a la policía en caso de
detectarse un accidente de tráfico. El sistema se pondrá en marcha el mes de
mayo en Sant Vicenç dels Horts (Barcelona) gracias a un proyecto en el que
participan la Universidad Politécnica de Catalunya (UPC), la Fundación i2Cat y
el propio Ayuntamiento.
Basado en la misma tecnología de los denominados edificios inteligentes, "el
proyecto busca gestionar mejor los recursos humanos y materiales de toda una
ciudad", explica la alcaldesa del municipio, Amparo Piqueras, que se felicita de
acoger este proyecto pionero.
Las primeras aplicaciones se percibirán ya a la entrada de la ciudad. A las
ocho de la mañana, la rotonda que regula el tráfico a la salida de la autopista
A2 no da abasto para aligerar las colas de vehículos. "En este punto se
instalarán unos sensores que contabilizarán el número de coches y que permitirán
estudiar futuras soluciones", concreta uno de los ingenieros del proyecto.
Después de varios meses, el sistema ya tendrá asimilado un patrón de paso de
vehículos (horas punta, horas valle, etc.) y, en caso de modificación anómala en
la frecuencia de coches, la policía podrá desplazarse a la zona para comprobar
si existe algún accidente.
Adentrados ya en el casco urbano, el parque de la Foneria (10.000 metros
cuadrados de zona verde), también podrá beneficiarse de este proyecto. Una de
las aplicaciones permitirá regar los jardines en función de sensores que
controlen la humedad y la temperatura, suministrando el agua estrictamente
necesaria.
Trabajo de hormigas
Otra de las zonas que alojarán este tipo de tecnología serán los contenedores de
recogida selectiva. A partir de ahora, con sensores de ultrasonidos (similares a
los que tienen los murciélagos para medir distancias) podrán planificarse las
rutas de recogida sabiendo qué contenedores están al borde de su capacidad.
Este sistema no exige obras de gran calado para su instalación. Según
explican los técnicos, "los nodos se comunican entre ellos como las hormigas;
sólo hace falta instalarlos en una distancia máxima de unos cien metros, sin
necesidad de cableado".
La red de nodos se podrá consultar a través de una plataforma web de acceso
público (en la dirección
http://147.83.39.62)
en la que estará registrada sobre mapas de la ciudad toda la información
recogida por la red de sensores en tiempo real, junto con los históricos. "Esto
permitirá a la administración mejorar aún más servicios, como por ejemplo el
transporte público. Los sensores recogerán por dónde pasa el autobús de línea y
a qué hora exactamente", explica Amparo Piqueras, la alcaldesa.
Los ciudadanos permanecen, de momento, ajenos al nuevo vecino que ya empieza a
instalarse en las calles del municipio. "Si va a servir para saber a qué hora
llega el autobús, bienvenido sea", dice Pedro Gómez.
De hecho, el objetivo es lograr que la informática pase prácticamente
inadvertida y se integre en el entorno de la persona sin que los ordenadores se
perciban como objetos diferenciados.
Al salir de la ciudad, una agente de la Guardia Urbana (placa 087) regula el
tráfico en la rotonda del centro educativo La Vinyala. Entre sus tareas, también
está la de dialogar con el ciudadano. "Hazle caso a mamá", aconseja la policía a
uno de los pequeños que cruza corriendo el paso de cebra, desatendiendo al
adulto. La agente todavía no sabe que muy pronto tendrá un compañero a la
entrada del pueblo, un agente-robot que, a pesar de todo, nunca podrá igualar en
el trato humano a los funcionarios de carne y hueso.
Fuente: publico.es, 29 de Abril de 2008
-Los científicos descongelan un calamar
gigante
Calamar capturado
Dimensiones del calamar
Un grupo de científicos neozelandeses trabaja ya en la descongelación de un
ejemplar de calamar colosal o mesonychoteuthis hamiltoni, un raro animal que
vive en las aguas del océano Glaciar Antártico y que puede llegar a los 15
metros de longitud, según informa la emisora británica BBC. El calamar
colosal fue capturado en febrero de 2007 en el mar de Ross, una bahía
antártica situada al sur de Nueva Zelanda.
Se calcula que el ejemplar capturado pesa media tonelada y ha sido ya
colocado en un recipiente con agua salada que facilitará su descongelación.
Una vez liberado del hielo será diseccionado y estudiado. Se sabe muy poco
sobre los calamares colosales, una subespecie aún más grande que los
calamares gigantes que puede llegar a medir hasta 15 metros y vive en las
aguas frías que rodean la Antártida.
"Son muy raros. Este es uno de los aproximadamente seis especímenes que
se han conseguido", explica la directora de entorno natural del Museo Te
Papa de Nueva Zelanda. El ejemplar está "completamente intacto y en una
condición fantástica", asegura.
En directo por la Red
El primer objetivo fijado por los científicos es determinar el sexo del
espécimen, aunque las primeras hipótesis apuntan a que se trata de un macho,
ya que las hembras suelen ser de un tamaño mayor. Los científicos del Museo Te
Papa van a descongelar otro ejemplar de menor tamaño de calamar colosal y dos
calamares gigantes.
Tanto la descongelación como la disección de los especímenes podrá ser
seguida en directo por Internet. Está previsto que esta misma semana se
publiquen los primeros informes sobre el trabajo de los biólogos. Después de
ser ser examinado, el calamar colosal será embalsamado y preservado.
El descomunal tamaño es la característica más destacada del calamar
colosal, pero también la poca frecuencia con la que es visto. Fue identificado
por primera vez en 1925 cuando se hallaron restos de un ejemplar en el
estómago de un cachalote. Estas ballenas suelen enfrentarse tanto al
mesonychoteuthis y a otros cefalópodos gigantes como el calamar gigante (architeuthis
genus).
Se sabe muy poco de cómo y dónde viven los calamares colosales, aunque
siempre han sido vistos cerca de la Antártida, pero lo que sí se sabe seguro
es que deben ser unos oponentes formidables, puesto que poseen un gran pico y
garfios giratorios en el extremo de sus tentáculos con forma de porra.
Fuente: adn.es, 28 de Abril de 2008
-Elige ¿Darwin o Spielberg?
¿Esperanza para recuperar especies en peligro de extinción?
¿Experimentos sin sentido mientras no desaparezcan las amenazas sobre su medio
natural? ¿Autobombo de centros de investigación para vender sus avances en
clonación?
El anuncio, por parte de varios organismos científicos
británicos, de la futura clonación de una subespecie de rinoceronte blanco en
peligro de extinción ha reabierto un debate que en ocasiones se adentra en el
terreno de la ciencia-ficción y el Parque Jurásico de Steven Spielberg,
en especial cuando se piensa en la vuelta a la vida de animales ya
desaparecidos, como el mamut. Pero la verdadera valía de estas técnicas reside
en recuperar especies actuales una vez agotadas todas las medidas de
conservación y protección.
"En la actualidad contamos con el suficiente material
genético para iniciar la clonación del lince ibérico en el caso hipotético de
que fracasaran todas las iniciativas de conservación y reproducción en marcha",
dice Eduardo Roldán, uno de los responsables del Grupo de Ecología y Biología de
la Reproducción del Museo Nacional de Ciencias Naturales y director del banco de
germoplasma y tejidos de especies ibéricas amenazadas. A este frozen zoo
(zoo congelado), como se les llama por contener muestras congeladas de
diferentes animales, han ido a parar las de los últimos linces muertos en Doñana,
como los tres cachorros encontrados sin vida a comienzos de mes. De ahí salió el
semen helado de uno de estos felinos con el que se fecundaron los óvulos de una
gata doméstica, ejemplo que certifica la validez de estas reservas genéticas.
El Museo de Ciencias Naturales mantiene una base genética de
cara a una hipotética clonación de linces, visones europeos, gacelas
norteafricanas y otros felinos suramericanos. Se trata de un proyecto similar al
del zoo de San Diego (Estados Unidos), una de las instituciones
conservacionistas de mayor prestigio que alberga el frozen zoo más
importante del mundo, con casi 10.000 muestras de células, semen, embriones,
ovarios, sangre y tejidos de más de 800 especies y subespecies. Según Roldán,
una de las condiciones esenciales para que un programa de clonación tenga éxito
es que "cuente con un amplio y diverso material genético procedente de muchos
individuos de la misma especie para asegurar la variabilidad genética y
garantizar su viabilidad en el medio en el que se suelte".
Contar de partida con un reservorio genético que impulse
cualquier intento de clonación distingue el trigo de la paja. En este sentido,
la línea de investigación emprendida por científicos de la Royal Zoological
Society de Escocia y la Universidad de Edimburgo, con el fin de clonar una
subespecie de rinoceronte utilizando su propio material genético y el de otra
subespecie en mejor estado de conservación, reparte entre la comunidad
científica optimismo y escepticismo. El que se trate de ejemplares de una misma
especie amplía las posibilidades de éxito, pero la aplicación de una técnica
novedosa limita, o al menos atrasa, el éxito. Hasta el momento, el sistema más
utilizado consiste en introducir las células del ejemplar a clonar en el ovocito
vacío de una especie o subespecie cercana, donde se estimula el desarrollo
embrionario para después implantarlo en el útero de la madre de
alquiler. Así nació la oveja Dolly y miles de ratones, ratas, gatos,
caballos, vacas y también algunas especies amenazadas, como bóvidos salvajes (muflones,
gaur, banteg) y gatos monteses.
La técnica utilizada por los científicos británicos recibe el
nombre de inducción de células troncales pluripotentes (iPS en sus siglas en
inglés). Estas células, extraídas de la piel, se insertarán en un embrión del
rinoceronte blanco del sur (el que no está amenazado), donde se mezclarán con
las de este último formando lo que se denomina una quimera. Si las células iPS
forman otras que den paso a una quimera adulta, su esperma y sus óvulos serán
los del rinoceronte blanco del norte. Lluis Montoliu, investigador del CSIC en
el Centro Nacional de Biotecnología, matiza la euforia de éste y otros anuncios
relacionados: "Emplean un sistema relativamente nuevo y es posible que los
resultados tarden en llegar".
En general, los científicos recelan y advierten sobre el
efecto mediático de los anuncios que no están respaldados por un artículo en una
publicación científica. "Tampoco ha pasado tanto tiempo desde que se clonó al
primer mamífero", advierte Montoliu. Fue la oveja Dolly, en 1996,
fallecida siete años después por el envejecimiento prematuro de su organismo.
Entre las razas de animales domésticos existe el mayor número de intentos y
éxitos. En algunos casos, como el de las vacas, hay bancos con cultivos de
embriones desde los años cincuenta, lo que permite contar con una información
genética de gran valor. Pere Puigdomenech, presidente del Comité de Bioética del
CSIC, advierte de que "no hay que echar en saco roto ni desdeñar toda esta
información porque la FAO ha constatado que, aparte de las razas de bovino que
ya se han perdido, una cuarta parte de las actuales están en peligro de
extinción, con lo que supone de erosión genética de cara a la alimentación y la
conservación de la biodiversidad". La depuración de la técnica de clonación
entre las vacas ha conllevado, según Puigdomenech, a que, "si antes se
necesitaban más de 200 intentos de fusiones de células en los óvulos, ahora hay
casos que lo reducen al 20%".
La cautela se convierte en una cualidad aún más significativa
cuando se trata de especies desaparecidas. "Prácticamente no existen
dificultades técnicas para clonar a este animal", anunciaban eufóricos los
científicos japoneses y rusos que dieron a conocer en 2005 la más que posible
clonación del mamut a partir de restos congelados encontrados en Siberia. Hace
un año, en la misma región, se descubrió una cría de mamut en buen estado de
conservación. Los bloques de hielo ayudaron a que se mantuvieran intactos la
trompa, los ojos y parte de la piel 10.000 años después de su muerte. De nuevo
se lanzaron las campanas de la clonación al vuelo. Según Lluis Montoliu, "todo
dependerá del estado de conservación del material genético, porque se puede
llegar a completar su genoma, pero otra cosa será tener los cromosomas del
mamut, básicos para pensar en una reconstrucción de embriones". Quedaría por
averiguar cuál sería el sentido de su resurrección, dado que no existen las
condiciones climáticas y biológicas que lo acogieron una vez en la Tierra. Esto
mueve a pensar que tras algunas investigaciones esté Spielberg más que Darwin.
En ocasiones, lo más sensato es dar marcha atrás. En abril de
1999, se capturó a la última hembra de bucardo y se le extrajeron muestras de
piel que se enviaron a los laboratorios de biología molecular del Centro de
Investigaciones Medioambientales y Tecnológicas (CIEMAT) y del Servicio de
Investigación Agraria de Aragón. Una vez extinguida la subespecie de cabra
montés, en enero de 2000, se intentó clonarla. No resultó. En enero de 2003, y
tras dos meses de gestación en el útero de cabras montesas, los embarazos se
interrumpieron. José Luís Jorcano, director de Genoma España, era entonces jefe
del proyecto de Biología Molecular del CIEMAT y fue el responsable de realizar
las biopsias, de cultivar y expandir las células que se usaron para la
clonación. Ahora reconoce que "en situaciones tan extremas, cuando contamos con
tejidos de una sola hembra, sin ningún macho, los resultados no son los mejores,
ya que solo conseguimos ejemplares genéticamente idénticos y con poca
posibilidad de supervivencia". Advierte, además, que el proceso sería demasiado
costoso, ya que "habría que pensar en cruzarla con un macho de cabra montés y
seguir realizando cruces para alcanzar un ejemplar lo más parecido
genéticamente". Y lo más importante, en el caso de conseguirlo, ¿habría sitio
para los bucardos en un Pirineo alterado que ya los expulsó?
Luís Suárez, responsable de especies de WWF/Adena, señala a
los políticos como otros de los interesados en amplificar el efecto mediático de
la clonación, que en el caso del bucardo considera "un sinsentido". "Les viene
bien porque demuestran su apuesta por la investigación y aparcan una cuestión
espinosa y arriesgada como es la protección integral de equis hectáreas para
conservar a una especie y los problemas derivados del enfrentamiento con
cazadores, agricultores o ganaderos".
Teresa Abáigar, científica titular del CSIC en la Estación Experimental de
Zonas Áridas, donde se ha conseguido reproducir en cautividad varias especies de
gacelas africanas amenazadas, considera la clonación "un reto admirable desde el
punto de vista científico, pero que no representa una solución a corto y medio
plazo desde el punto de vista de la conservación". Como Luís Suárez o su colega
del Museo Nacional de Ciencias Naturales, Eduardo Roldán, entiende que lo más
sensato es "resignarse y dar por perdido al bucardo". Al igual que los
ecologistas, Teresa cree prioritario trabajar en la conservación y recuperación
de los ejemplares en estado salvaje y en la de su medio. "Hay que averiguar las
causas de desaparición de esa especie e invertir en solucionarlas. En ese
escenario, la clonación queda un poco lejos". Y pone como ejemplo una reciente
visita al norte de Mauritania, a una zona donde prácticamente se han extinguido
el oryx, la gacela mohor y el antílope addax. "Aquí no haría falta recurrir a la
clonación, ni a la inseminación artificial o la fecundación in vitro. Hay
ejemplares de oryx en zoos de todo el mundo. El problema es que la caza furtiva
acaba con ellos. Y lo que hay que hacer es eliminar esa causa".
Fuente: elpais.com, 28 de Abril de 2008
-En las entrañas de la bóveda de las
semillas
En el Arca de Noé del siglo XXI, hace un frío que taladra los
huesos. Al llegar a la futurista puerta del búnker, construido en las entrañas
de una montaña helada, la nieve cae sin piedad y sopla un viento gélido. Nos
encontramos en el paralelo 78, a tan sólo 1.000 kilómetros del Polo
Norte, y el termómetro marca una escalofriante temperatura de 11 grados
bajo cero.
En la carretera que nos ha traído hasta aquí, una señal de
tráfico alerta sobre el peligro de los osos polares que campan a sus anchas en
todo el territorio de Spitsbergen, la isla noruega donde se ha construido la
Bóveda Global de Semillas. De hecho, los aproximadamente 2.000
ciudadanos de Longyearbyen, el pequeño pueblo minero junto al que se ha
construido este impresionante refugio mundial de semillas,
suelen ir armados con un rifle cuando salen de la ciudad para protegerse de los
temibles plantígrados.
«Aquí las semillas de todo el planeta van a estar muy
seguras», asegura Ola Westengen, el coordinador del proyecto, que nos
recibe en la puerta del búnker para guiarnos por su interior. «Incluso en los
peores escenarios del calentamiento global, dentro de la bóveda haría suficiente
frío como para preservar la biodiversidad de los cultivos durante cientos de
años», explica este genetista noruego.
Al entrar en el edificio, impresiona el larguísimo pasadizo
de 125 metros que lleva hasta las tres enormes cámaras donde ya han empezado a
guardarse las primeras muestras de semillas. Por el momento, cuando tan sólo han
pasado dos meses desde su inauguración, el 26 de febrero de 2008, la
bóveda ya contiene 268.000 muestras procedentes de más de 100 países.
Sin embargo, se espera que a lo largo de los próximos años, la bóveda vaya
llenando poco a poco sus estanterías metálicas, hasta albergar 4,5 millones de
muestras de todo el planeta (en total, más de 2.000 millones de semillas). Una
vez que alcance su capacidad total, se convertirá en el almacén de
semillas más grande del mundo. «Creo que hemos logrado un muy buen
comienzo, aunque todavía tardaremos muchos años en llenar la bóveda», reconoce
Westengen.
En la actualidad, ya existen más de 1.000 bancos de semillas
por todo el mundo. Sin embargo, muchos de ellos, sobre todo en los países en
vías de desarrollo, se encuentran permanentemente amenazados por la escasez de
agua, el riesgo de terremotos, inundaciones u otros desastres naturales, el
impacto de los conflictos bélicos o simplemente una mala gestión debido a la
escasez de recursos. Para afrontar todos estos peligros, a los que también
habría que añadir la cada vez mayor amenaza del cambio climático o la hecatombe
mundial que podría provocar una guerra nuclear, Noruega ha construido la Bóveda.
«Nuestro objetivo es conservar aquí una copia de seguridad de las semillas de
todo el planeta», explica Westengen. «Así, frente a cualquier catástrofe, de
origen natural o humano, la biodiversidad de los cultivos estará a salvo.
La bóveda representa una estrategia crucial para garantizar el futuro de los
cultivos que nos alimentan a todos».
La conservación de las semillas en la bóveda será un
servicio gratuito, y los países que envíen sus muestras seguirán siendo
siempre sus propietarios. Todos ellos podrán recurrir a las copias de repuesto
que se conservarán en el búnker ártico siempre que una de las variedades
desaparezca de su medio natural. «Los bancos de semillas actuales son muy
vulnerables a potenciales desastres, y la
biodiversidad vegetal es una cuestión demasiado importante
como para dejarla desprotegida. Por eso hemos construido la Bóveda Global de
Semillas», recalca nuestro guía mientras nos adentramos en las tripas del
búnker.
Es difícil imaginar un lugar más idóneo que la tierra helada
de Svalbard para albergar este banco mundial de semillas. Por una parte, se
trata de un lugar remoto, alejado de cualquier conflicto. De
hecho, existe un tratado internacional por el cual se considera una zona
desmilitarizada. Además, las condiciones de permafrost
en la zona, y el hecho de que la roca de la montaña escogida para su ubicación
se mantiene fría las 24 horas durante todo el año, convierte a la bóveda en una
especie de congelador natural.
Para garantizar la conservación de las semillas en las
mejores condiciones posibles, un sistema de refrigeración artificial mantiene
las cámaras donde se guardan las muestras a 18 grados bajo cero,
la temperatura óptima para preservarlas. Sin embargo, la cantidad de
electricidad que se necesita para lograr este objetivo es muy baja, gracias al
frío que ya existe de forma natural en el interior de la montaña helada donde se
ha construido el búnker. Además, incluso en el caso de que se perdiera el
suministro eléctrico por cualquier motivo, el permafrost de la zona preservaría
las semillas en buen estado durante décadas. «Las condiciones naturales aquí
dentro mantienen la temperatura entre cuatro y seis grados bajo cero, así que
incluso sin ningún tipo de refrigeración artificial, las semillas
sobrevivirían», asegura Westengen.
Aspecto exterior de la nave que contiene las semillas
Interior de la nave y catalogación de las muestras
En las cámaras subterráneas
Para llegar a las cámaras de la bóveda, hay que atravesar un tubo
cilíndrico de acero que se instaló durante su construcción para
proteger toda la estructura de posibles derrumbes en la roca. «Ésta es una
zona geológicamente muy estable, y se escogió precisamente porque casi no
existe riesgo de grietas», explica el coordinador de la bóveda. «Este tubo
de acero sirve en todo caso para reforzar el edificio ante cualquier
desplazamiento provocado por la erosión», nos asegura mientras atravesamos
el inmenso cilindro metálico.
Curiosamente, tan sólo cinco días antes de la inauguración de la bóveda, el
21 de febrero, todo el territorio de Svalbard sintió la sacudida de un
fuerte terremoto de 6,2 grados —el más grande en la historia de Noruega—,
cuyo epicentro se encontraba a sólo 140 kilómetros de la bóveda.
«Inicialmente nos preocupamos un poco, pero de inmediato realizamos un
estudio detallado y comprobamos que la bóveda no había sufrido ningún daño»,
recuerda Westengen. «Todos los expertos nos han asegurado que la bóveda está
lejos de cualquier zona de inestabilidad, así que no tenemos motivos para
preocuparnos desde este punto de vista».
Antes de llegar a las tres cámaras de la bóveda, nuestro guía
nos introduce en el cerebro del búnker: la sala de control
donde un equipo de técnicos se encarga de registrar, catalogar y sellar con un
código de barras cada muestra que llega al refugio de Svalbard. El día que
elmundo.es visitó la instalación, dos técnicos estaban clasificando varias
cajas con muestras que llevaban varias décadas conservadas en una mina
abandonada de Spitsbergen que se utilizó como banco de semillas. «Estas muestras
han sobrevivido sin refrigeración artificial, con el frío natural del permafrost,
a unos cuatro grados bajo cero. Eso demuestra claramente que incluso sin
ningún tipo de suministro eléctrico, la bóveda de Svalbard podría preservar en
buen estado las semillas del planeta», recalca Westengen.
Finalmente, llegamos al corazón de la bóveda: las
tres cámaras blindadas en cuyo interior se pretende preservar la
biodiversidad vegetal de la Tierra. De momento, sólo se ha llenado el 25% de una
de las cámaras, y las otras dos están de momento completamente vacías. Cada una
de las muestras contiene unas 500 semillas, que se introducen en bolsas de
aluminio cerradas de forma hermética y se guardan en cajas de plástico apiladas
sobre estanterías metálicas.
«Aquí ya tenemos guardadas más de 70.000 variedades de arroz
provenientes de más de 100 países diferentes, pero esto es sólo el comienzo»,
dice Westengen.
De momento, no han llegado semillas desde España, pero ya se
han iniciado los primeros contactos con el Instituto Nacional de Investigación y
Tecnología Agraria y Alimentaria (INIA), y se espera que en un futuro próximo
empiecen a llegar los primeros envíos desde nuestro país. «Esperamos contar
pronto con la participación de España. Hemos iniciado un diálogo fluido, y
aunque todavía no se ha fijado ningún acuerdo concreto, es un buen comienzo»,
asegura Westengen.
Para Cary Fowler, el director ejecutivo del Fondo Mundial
para la Diversidad de los Cultivos que ha impulsado la construcción de la
bóveda, lo fundamental es que la comunidad internacional tome conciencia de la
importancia del objetivo final que persigue este proyecto: la necesidad
urgente de preservar la biodiversidad vegetal de un planeta cada vez más
amenazado por el cambio climático.
«No hay alternativa. Si queremos ser capaces de adaptarnos a
las condiciones que va a provocar el calentamiento global, como la escasez de
agua, vamos a tener que desarrollar nuevos cultivos resistentes, y eso es
imposible si no protegemos el tesoro de la biodiversidad», asegura Fowler. De
momento, los primeros pasos para obtener este seguro de vida a todo riesgo que
garantice el futuro de la Humanidad ya se han dado en las gélidas entrañas de
una montaña polar.
Fuente: elmundo.es, 28 de Abril de 2008
-El
regreso de Malthus
En 1798, el economista inglés Thomas Malthus pronosticó que la población
mundial crecería más rápidamente que el suministro de alimentos. Malthus
predijo una inminente peste de hambre que nunca se produjo, aunque quizá no
erró en el concepto, sino en el plazo. Según Naciones Unidas, la población
mundial, actualmente 6.700 millones de personas, alcanzará los 9.200
millones en 2050. Para una parte de la comunidad científica, es necesario
implantar políticas de control de natalidad que eviten esta bomba
demográfica. La sobrepoblación, argumentan, causará epidemias, guerras por
los recursos limitados, como la energía y el agua, y una aceleración del
cambio climático. Para otros, en cambio, el control de la natalidad es una
suerte de fascismo verde, más próximo a la eugenesia nazi que a la reflexión
científica del siglo XXI.
“Con la tecnología actual, existe un techo máximo de entre 9.000 y 10.000
millones de personas, que es lo máximo que la Tierra puede mantener”,
sostiene el científico Carlos Duarte, Premio Nacional de Investigación 2007.
A su juicio, la humanidad se encuentra en la tercera ola de pesimismo
maltusiano, tras la propia época de Malthus y la resurreción de sus ideas
posterior a la publicación de La bomba demográfica, de Paul R. Ehrlich, en
1968. “El control de la natalidad tiene fundamento, otra cosa diferente es
que sea posible. Si estuviéramos hablando de animales de granja, sería
perfectamente factible”, añade. Duarte es contrario a establecer medidas
coercitivas como en China, donde se aplica desde hace 20 años la política de
hijo único: “El control de la natalidad es deseable, pero por las decisiones
libres de los individuos”. No obstante, los gobiernos tienen, en su opinión,
un margen de actuación. “En España se está incentivando la natalidad, hay
que considerar la supresión de las ayudas a las familias numerosas”,
propone.
“Más hijos, más impuestos”
El investigador Miguel Ferrer, de la Estación Biológica de Doñana (CSIC),
también es partidario de invertir los incentivos fiscales. “El que tenga más
hijos, que pague más impuestos. Una persona con 14 hijos utiliza más los
servicios públicos, es razonable que pague más, no menos como ahora”, opina.
Ferrer admite que con menos contribuciones las coberturas sociales son difíciles
de mantener. “Pero si el sistema necesita una pirámide de población
desequilibrada, habrá que replantearse el sistema, retrasando la jubilación a
los 70 años, por ejemplo”, alega.
Para este científico, existe un conflicto entre los intereses
del planeta y la lógica del mercado: “La Tierra tiene unos recursos limitados,
para una población limitada, pero para el mercado el número ideal de
consumidores es infinito”. Ferrer, miembro del grupo de expertos sobre cambio
climático del Consejo de Europa, ha defendido en este foro el control de la
natalidad, y sus colegas “han recibido bien la propuesta”, según sus palabras.
“El control de la natalidad es un tema tabú, por el lastre histórico. Se
considera fascista, y nada más lejos de la realidad”, argumenta Ferrer.
El bioquímico Santiago Grisolía, presidente de la Fundación
Premios Rey Jaime I, cree que es urgente reabrir el debate iniciado por Malthus
hace dos siglos. “Los políticos no se atreven a hablar de este tema, por no
ofender a los líderes religiosos, que creen en aquello del creced y
multiplicaos”, asevera. En su opinión, la población crece a un ritmo más rápido
que los alimentos y ya hay una deficiencia de arroz y maíz. Grisolía, Premio
Príncipe de Asturias en 1990, es partidario de estabilizar la población a través
del estado del bienestar. “La natalidad baja al subir los estándares de vida, no
hace falta cambiar la legislación”, señala.
La investigadora Teresa Castro, del Instituto de Economía,
Geografía y Demografía, coincide con la propuesta de Grisolía, pero cuestiona su
alarmismo. “La explosión demográfica se preveía hace décadas, porque se pensaba
que jamás iba a bajar la fecundidad, pero ésta simpre disminuye más de lo que
prevé la ONU”, apunta. “La bomba demográfica es una idea de ecologistas, pero ya
no se habla de ello en los foros internacionales. Al aumentar la educación de la
mujer y su estatus, el número de hijos baja en picado. Malthus está superado”,
apostilla.
"Algunas regiones no soportan su población"
El grupo estadounidense Population Connection –fundado por el
autor de La bomba demográfica, Paul R. Ehrlich, en 1968– cree que la
sobrepoblación amenaza la calidad de vida de las personas en todo el mundo. Su
objetivo es “estabilizar la población en un nivel que pueda ser asumido por los
recursos de la Tierra”. Maria Starkey es su portavoz.
¿Es necesario tomar medidas
radicales para evitar la sobrepoblación?
Nosotros no promovemos medidas radicales para limitar la sobrepoblación, a menos
que se considere radical satisfacer los derechos reproductivos de las mujeres.
En todos los países en los que se han proporcionado anticonceptivos, a un precio
accesible, las tasas de fertilidad han caído drásticamente. En muchos lugares,
el embarazo y el parto son muy arriesgados para la vida de la madre, y las
mujeres están ansiosas por encontrar un método para tener menos hijos.
¿Qué medidas específicas se
pueden adoptar?
Las únicas personas que deberían controlar las tasas de fecundidad son las
propias mujeres. Cuando ellas tengan el control, la fertilidad caerá. No es
asunto de los gobiernos o de las ONG determinar cuántos niños puede tener una
mujer. Sería insostenible que cada mujer del mundo tuviera tres o cuatro niños,
pero la mayoría no quiere tantos.
¿Cuál es el límite de
población para los recursos del planeta?
La respuesta depende de qué calidad de vida quieres que tenga la gente. Hay
estudios que afirman que si todos los habitantes del mundo tuvieran el nivel de
consumo de los estadounidenses, harían falta varios planetas. Si todos
viviéramos como los habitantes de Chad, sin embargo, podríamos dejar que la
población del mundo creciera varios miles de millones más. La actual crisis
alimentaria y las migraciones por la sequía han mostrado que algunas regiones no
pueden soportar las poblaciones que albergan. Una población siempre en aumento
sólo puede llevar a más hambre e inanición, congestión del tráfico,
contaminación del aire y del agua y alza de los precios inmobiliarios.
Ehrlich predijo que en las
décadas de 1970 y 1980 morirían de hambre cientos de millones de personas. ¿Se
equivocó?
En todo el mundo mueren personas de hambre, a todas horas, en países como Haití,
Somalia y Sudán. Filipinas era un país exportador de arroz y ahora importa dos
millones de toneladas, que ni siquiera son suficientes para alimentar a su
creciente población. Algunas personas pueden pensar que Ehrlich se equivocó,
pero otros opinarán que estaba en lo cierto.
¿Cree que es necesario
extender la política de hijo único china a otros países?
Nosotros no apoyamos esta política del Gobierno chino. Es una violación de los
Derechos Humanos obligar a las mujeres a someterse a esterilizaciones y abortos.
Y también es una violación de los Derechos Humanos decirle a alguien cuántos
hijos debe tener.
Fuente: publico.es, 27 de Abril de 2008
-Rusia
termina su primer experimento para simular un vuelo a Marte
Cuatro voluntarios rusos terminaron hoy el primero de una serie de
experimentos para simular un vuelo a Marte, informó el Instituto de Problemas
Médico-Biológicos (IPMB) de la Academia de Ciencias de Rusia Durante dos
semanas los voluntarios permanecieron encerrados en un módulo donde a partir
del séptimo día se fue reduciendo el contenido de oxígeno y añadiendo gas
inerte argón, explicó un representante del IPMB a la agencia Interfax.
"Semejante mezcla de oxígeno, nitrógeno y argón podrá emplearse durante los
futuros vuelos pilotados a Marte, pues permite reducir el riesgo de un
incendio a bordo de la nave espacial, así como ahorrar reservas de oxígeno",
indicó el científico.
Repostar argón en Marte
Añadió que la mera reducción de la cantidad de oxígeno afecta al organismo
humano y puede causar la muerte, pero esto se puede evitar elevando el
contenido de argón, cuya presencia en el aire es habitualmente de
aproximadamente el 1%.
"Este gas ha sido encontrado en Marte, por tanto los cosmonautas podrán
reponer sus reservas directamente en ese planeta, sin tener que transportar
cargamento adicional", explicó.
Ese estudio forma parte del ambicioso proyecto conocido como "Marte-500",
durante el que seis voluntarios permanecerán un total de 520 días, el tiempo
del viaje de ida y vuelta a Marte, más una estancia de 30 días en la
superficie marciana, en un simulador.
Experimento en 2009
El experimento ruso, cuyo inicio está previsto para 2009, se desarrollará
en cinco módulos de 550 metros cúbicos, con la configuración, instrumentos y
equipos que podría haber en las futuras naves interplanetarias.Esa prueba y
otra anterior, de 105 días, las protagonizarán cuatro voluntarios rusos y dos
europeos, seleccionados por expertos del IPMB de entre miles de aspirantes. El
IPMB informó el pasado 1 de abril de que había recibido de la Agencia Espacial
Europea (ESA) cerca de 40 perfiles de voluntarios seleccionados para
participar en el simulacro de un vuelo a Marte como integrantes de la
tripulación principal o bien de la suplente.
La meta de Marte
El viaje tripulado al Planeta Rojo es una meta ya establecida en los
programas espaciales de Estados Unidos, Rusia, China y los países miembros de
la ESA. Rusia anunció hace justo un año el inicio de los preparativos para
conquistar la Luna y Marte, con el objetivo de que para 2015 sus naves no
tripuladas lleguen a la superficie selenita y al Planeta Rojo.
"El programa espacial que desarrollará Rusia en los próximos años prevé la
llegada de naves automáticas a Marte en 2015", afirmó entonces Vladímir
Nésterov, director del consorcio estatal Jrúnichev, principal constructor de
cohetes espaciales rusos.
Algunos científicos rusos opinan que el primer vuelo tripulado ruso a Marte
podría efectuarse ya en 2020, todavía sin descender a la superficie marciana,
sino limitándose a estudiar el planeta con ayuda de aparatos automáticos
controlados desde la órbita.
Fuente: adn.es, 27 de Abril de 2008
-Incendio en La Gomera
Alrededor de 500 vecinos, según las primeras cifras
provisionales, de diversos núcleos urbanos de Vallehermoso, Hermigua y Agulo, en
la isla de La Gomera, han sido evacuados a lo largo de la tarde de este sábado y
como consecuencia del incendio forestal que afecta a estos municipios.
Dado el alcance del incendio, y a instancias del
Cabildo, el consejero de Presidencia, Justicia y Seguridad del Gobierno de
Canarias, José Miguel Ruano, declaró, sobre las 19:30 horas, la situación de
emergencia en nivel de gravedad 2, por lo que desde ese momento el Ejecutivo
Autonómico asumió la dirección de las tareas de extinción.
Con el fin de controlar los focos activos, el Gobierno de Canarias activó los
recursos propios, al tiempo que recabó la ayuda de diferentes instituciones,
con el fin de que pudieran sumarse a estas tareas los efectivos disponibles.
Todo ese dispositivo se sumó a los efectivos desplegados por el Cabildo de La
Gomera (entre 150 y 160 personas de Medio Ambiente y Parques Nacionales) y por
los ayuntamientos de las islas, Cruz Roja y Guardia Civil.
Zonas evacuadas
Los vecinos de Vallehermoso han sido evacuados a la plaza del pueblo,
residencia de alumnos de la playa y presa La Encantadora; los de Hermigua, al
Centro de Salud Mulagua y, posteriormente, a San Sebastián, y los de Agulo (La
Palmita y Aceviños), al campo fútbol y al centro de visitantes "Juego de
Bolas".
En cuanto a los recursos terrestres, hay que señalar que el Gobierno de
Canarias ha activado 2 vehículos del Grupo de Emergencias y Salvamento (GES) y
5 efectivos. Además, el Servicio de Urgencias Canario ha desplazado a la zona
3 ambulancias de soporte vital básico, 2 ambulancias de transporte colectivo y
una ambulancia de transporte individual. También se ha desplazado a la zona un
micro de la Cruz Roja y efectivos de esta ONG.
Por su parte, el Cabildo de Tenerife ha desplazado a 10 bomberos y 2 vehículos
pesados, y mañana llegarán a la isla, en el primer barco, 1 autobomba, 3
vehículos de apoyo y 2 técnicos medios aéreos. También se trasladarán miembros
de la unidad helitransportada de la brigada BRIFOR, integrados por 8
efectivos, 1 agente y 1 técnico.
El Ayuntamiento de Las Palmas de Gran Canaria tiene previsto desplazar, a
primera hora de mañana, 2 cisternas de 7.000 litros, 7 bomberos y 1 cabo.
En cuanto a los medios de la Administración del Estado, 40 efectivos de la
Unidad Militar de Emergencias (UME), con base en Tenerife, tienen previsto
trasladarse hoy en avión militar a la isla, mientras que los medios terrestres
llegarán esta noche en barco. En concreto, se trata de 6 autobombas, 2
nodrizas, 1 vehículo 4x4 de comunicaciones, 2 camiones de tropa y 3 vehículos
de mando.
Medios aéreos
Por lo que respecta a los medios aéreos, el Gobierno de Canarias ha desplazado
tres 3 helicópteros del GES, con base en Tenerife, Hierro y Gran Canaria, y
mañana, a primera hora, se trasladará otros dos helicópteros, uno de ellos de
coordinación, con 6 pilotos de refuerzo. Asimismo, destinará un avión Air
tractor con capacidad de 3.100 litros.
Los medios aéreos, procedentes del Ministerio de Medio Ambiente y Medio
Natural, entre los que se encuentran 2 helicópteros Kamov, con capacidad para
4.500 litros, saldrán a primera hora del domingo de la Península y estarán
operativos a partir del próximo lunes. Además, el Estado enviará de un
hidroavión "canadair anfibio".
Por otro lado, por parte de la empresa pública TRAGSA, participarán en las
tareas de extinción 9 brigadistas y 1 capataz forestal, mientras que la
empresa GESPLAN colaborará con 1 cuadrilla, 2 capataces forestales, 4
motosierristas y 5 operarios.
Dispositivo sanitario
Por su parte, la Consejería de Sanidad del Gobierno de Canarias ha activado a
todo su personal sanitario y no sanitario en La Gomera para afrontar y dar
cobertura a los posibles afectados por el incendio.
Concretamente, el Hospital Nuestra Señora de Guadalupe ha activado todos sus
dispositivos disponibles; incluso el personal que está librando este día que
ya ha sido avisado para que, si fuera necesario, desplazarse al centro
hospitalario.
El centro cuenta con 30 camas hospitalarias de los que la mitad están
ocupadas, y se ha hecho una reserva por si hubiera que asistir a algún
afectado por posibles intoxicaciones derivados de la inhalación de humos,
principalmente.
Desde que se dio la alarma del incendio, Sanidad remitió al municipio de
Vallehermoso dos equipos sanitarios y posteriormente envió cuatro equipos
sanitarios al municipio de Hermigua. Además, se activó los dispositivos
sanitarios en todos los municipios gomeros.
Sanidad también se está ocupando del estado de un grupo de personas mayores
que han sido trasladadas desde una residencia de mayores de Hermigua a otro
centro de similares características en San Sebastián. Con ellos se encuentra
un médico que está comprobando la medicación que requiere cada uno de ellos,
además Sanidad les ha proporcionado ropa ya que la premura hizo que se
trasladaran con una sola muda de ropa.
Por otro lado, el servicio de Urgencias 1-1-2 del Gobierno de Canarias no ha
tenido que atender a ningún afectado, sí ha remitido varias unidades
terrestres a las zonas afectadas.
Respecto a la previsión meteorológica, continúa la situación de prealerta por
altas temperaturas y calima declarada por la Dirección General de Seguridad
Emergencias Resto del Archipiélago
En cuanto a los incendios registrados en el resto del Archipiélago, hay que
destacar, el acaecido en la noche del viernes en Gran Canaria, a las 22:26
horas, en una zona de Matorral de El Tablero, en el municipio de Moya. Se da
por controlado sobre la 1:15 horas de la madrugada y en las primeras horas de
la mañana se continúa con las labores de enfriamiento. Intervino CECOPIN,
Policía Local, Guardia Civil y Bomberos del Consorcio de Emergencias de Gran
Canaria.
Hoy sábado, en la isla de Tenerife, a las 15:54 horas, se registró un conato
de incendio en La Fajana, Icod el Alto, municipio de Los Realejos, en el que
intervinieron CECOPIN, Policía Local y Guardia Civil. A las 18:06 horas se da
por controlado y la superficie afectada fue de 1.600 metros de eucaliptos y
brezos. No se registraron afectados.
En la Palma, a las 17:40 horas de hoy, se produjo un conato de incendio en La
Fajana, en el municipio de Fuencaliente. Finalmente afectó a 250 m2 de pinote,
pinoche y pastón de La Palma. Se da por controlado a las 18:06 horas y
extinguido a las 18:51 horas. No se registraron daños personales.
Fuente: canarias24horas.com, 26 de Abril de
2008
-La
raza humana casi quedó dividida
La raza humana comenzó a
evolucionar en dos especies separadas hace 150.000 años, antes de fusionarse en
una sola población, según revela un nuevo estudio genético.
Fuertes
sequías hicieron que los humanos se dividieran
La fractura genética en África dio lugar a poblaciones
distintas, que vivieron aisladas durante unos 100.000 años. Esto podría
haber ocurrido a causa de unas condiciones áridas que podrían haber llevado
a una escisión entre los seres humanos del este del continente africano y
los del sur. Estudios recientes sugieren que el África oriental sufrió una
serie de fuertes sequías, entre 135.000 y 90.000 años atrás, que casi
provocaron una escisión de la raza humana. Esto significa que sería el
período más largo en que dos poblaciones humanas modernas han quedado
aisladas una de la otra.
"Siempre que hay migraciones humanas siempre hay factores
geográficos o climáticos. Ha habido muchos cambios en estos 200.000 años de
la historia de la humanidad", explica explica Jaume Bertranpetit del
Proyecto Genographic y biólogo de la Universidad Pompeu Fabra de Barcelona,
España.
"Ésta sería la primera gran diferenciación de grupos
humanos que habría en la historia de la humanidad y esta separación sería
también la más antigua y la más duradera", añade Bertranpetit.
Sin embargo, otros científicos aseguran que es demasiado
pronto para poder reconstruir un panorama preciso de la historia de la
humanidad. Éste es el caso de la doctora Sarah Tishkoff, experta en
genética de la población africana de la Universidad de Pennsylvania, Estados
Unidos, que sugiere que los khoisan del desierto del Kalahari, el linaje
humano con el ADN más antiguo, convivieron con otro linaje que fue
desapareciendo. Los resultados de este hallazgo, dados a conocer en la
publicación especializada American Journal of Human genetic, proceden de un
estudio llamado Proyecto Genográfico, que buscaba establecer las migraciones
humanas a través del ADN. Las conclusiones más recientes se basan en el
análisis del ADN mitocondrial de poblaciones africanas actuales. Este
tipo de ADN es el material genético almacenado en las mitocondrias. La
herencia mitocondrial es matrilineal, es decir, que el ADN mitocondrial se
hereda sólo por vía materna.
Árbol genealógico
En el momento de la escisión de la raza humana, hace unos
150.000 años, nuestra especie, homo sapiens, aún estaba confinada en el
continente africano, después emigró hacia Asia y América. Y aunque la población
actual lleva una marca en el ADN de esa división, los africanos de hoy en día
son parte de un solo grupo. Así que estos investigadores del Proyecto
Genográfico realizaron un árbol genealógico de diversas agrupaciones del ADN que
se encontraron en el continente africano. Por un lado, encontraron los
linajes mitocondriales que predominantemente hoy viven en el este y oeste de
África. Por otro, unos linajes de una población cazadora y recolectora
llamada khoisan, que se encuentra en África del sur. Estos dos linajes se
separaron, asegura este estudio, por esas fuertes sequías, lo que los separó
durante el periodo más largo que la humanidad ha estado dividida.
"Lo que deriva de esto, es que la variedad genética que
existe fuera de África, es una pequeñísima parte de la variación genética total
de la humanidad", asegura Jaume Bertranpetit.
Eso significa, concluye el especialista, "que la variedad que
existe actualmente en África es muchísimo más superior a la que hay en el resto
del mundo conjuntamente. Puesto que tres cuartas partes de la historia de la
humanidad, más de 100.000 años, es una historia africana".
Fuente: BBC
Mundo, 25 de Abril de 2005
-Glaciares marcianos y coincidencias entre Marte y Río Tinto
La corriente principal entre quienes estudian la evolución de Marte indica
que el planeta vecino tuvo un clima muy activo poco tiempo después de su
formación, hace 3.500 millones de años. Y estima que, aunque entonces el
agua corría por su superficie, ésta desapareció poco después y dio paso a
una superficie muerta, a un planeta sin actividad climática.
Un estudio realizado por científicos de la Universidad
de Brown, en Estados Unidos, podría cambiar radicalmente esa concepción,
ya que ha permitido detectar en la superficie marciana la huella de
numerosos glaciares que estuvieron activos hasta hace poco tiempo -en
términos geológicos-: apenas 100 millones de años.
En un
comunicado difundido hoy, y que anticipa la publicación de un informe
completo en el número de mayo de la revista Geology, la institución
académica adelanta que esa actividad reciente deja abierta la posibilidad
de que el clima marciano siga en lenta evolución, y pueda cambiar
nuevamente.
Imagen tomada por la sonda MRO. Se puede apreciar una
morrena
en el suelo de un cañón. Estas acumulaciones de sedimentos son
dejadas por glaciares
Un planeta en movimiento
Según los científicos, las imágenes transmitidas a la
Tierra por la cápsula Mars Reconnaissance Orbiter de la NASA, esas masas de
hielo tuvieron entre un kilómetro y 2,5 kilómetros de profundidad y existieron
hasta hace unos 100 millones de años en las latitudes medias del planeta.
También, según los científicos de la Universidad de Brown,
las huellas dejadas por los glaciares podrían alentar las conjeturas de que en
algún momento el planeta rojo albergó algún tipo de vida.
"Hemos pasado de ver a Marte como un planeta muerto durante
3.500 millones de años a uno que estuvo vivo en tiempos (geológicos)
recientes", asegura Jay Dickson, del Departamento de Ciencias Geológicas de la
Universidad de Brown y autor del informe. El descubrimiento "ha cambiado
nuestra de perspectiva, de un planeta seco a muerto a uno con hielo y activo",
añade.
Glaciaciones sucesivas
De acuerdo con los científicos, las imágenes muestran que Marte fue
escenario de glaciaciones múltiples, episodios de su pasado reciente en los
que las latitudes medias estuvieron cubiertas por glaciares. Los científicos
de la Universidad de Brown centraron su estudio sobre una zona llamada
Protonilus Mensae-Coloe Fossae, situada en la latitud media de Marte.
Se caracteriza por grandes macizos llanos y valles bordeados por empinadas
montañas que separan a las tierras bajas del norte de las planicies del sur.
Allí estudiaron una depresión, en la que aparecen las acumulaciones rocosas
características de formaciones glaciares, y que permiten delimitar con
claridad los límites de sus avances y retiradas.
Azufre, hierro y metano marciano
El equipo de científicos de la NASA y del Centro de Astrobiología de España
que simula en Huelva la búsqueda de vida en Marte se ha llevado "la gran
sorpresa" al encontrar metano, lo que acerca aún más las condiciones de Río
Tinto a las marcianas, según afirma el investigador Ricardo Amils, participante
en el proyecto.
Catedrático de Microbiología de la Universidad Autónoma de Madrid y
científico del Centro de Astrobiología, Amils ha explicado en una entrevista con
Efe que el proyecto Marte, que comenzó en 2003, ya ha superado la fase de
obtención de muestras del subsuelo, en la denominada "faja pirítica" del Río
Tinto, y ahora se analizan desde el punto de vista geológico y microbiológico.
El resultado del análisis microbiológico de los cultivos obtenidos puede
tardar más de un año, según Amils, pero ya han aparecido "algunas sorpresas que
son un regalo para la ciencia" y que además han sido coincidentes en el tiempo,
como el hallazgo de metano en la atmósfera de Marte y en el subsuelo del Río
Tinto.
Metano, hierro y azufre
Para este proyecto se han realizado perforaciones de hasta 160 metros de
profundidad para buscar microorganismos extremófilos en las fuentes del Río
Tinto. Las bacterias de este río tienen un papel importante en el mantenimiento
de las condiciones de acidez al metabolizar el hierro y el azufre, lo que le da
el color rojo profundo, y los científicos preveían encontrar bacterias similares
en el subsuelo, donde el agua subterránea interactúa con minerales de hierro y
azufre
Sin embargo, no esperaban encontrar metano en un lugar con una alta
presencia de hierro y los científicos se han sorprendido ante el hallazgo de
este gas y de bacterias capaces de producirlo, como apunta Ricardo Amils,
que ha impartido conferencias en el Instituto de Astrofísica de Canarias y
en la Universidad de La Laguna.
"No sabemos cómo las bacterias están
haciendo metano con tanta presencia de hierro y ácido sulfúrico, pero esto
nos ha llenado de gozo y dicha. Ahora hay que aprender cómo lo hacen",
asegura el microbiólogo.
Una posibilidad podría apuntar a que estos organismos pueden controlar el
ambiente en el que se mueven, de forma que producen "micro-nichos" donde sea
factible. El año que viene será cuando los análisis aporten "mucha
información biológica" acerca del subsuelo del Río Tinto.
Buscar vida en Marte
El científico ha señalado que una parte importante de los datos se
analizan en el Centro de Astrobiología y la NASA se ocupa preferentemente
del estudio geológico y geoquímico, pues allí trabajan los investigadores
relacionados con el envío de las sondas a Marte.
En el futuro, el proyecto prevé una nueva perforación en Río Tinto
"sabiendo lo que queremos estudiar y ahí los datos serán más duros", señala
el investigador.
En el Centro de Astrobiología se investiga el desarrollo de instrumentos
para recrear formas de vida y detectar biomarcadores, señales biológicas o
indicios "de que la vida ha dejado su impronta o incluso que están actuando
organismos vivos en el subsuelo", que es lo que se buscaría en Marte tras el
proyecto de Río Tinto.
Fuente: ADN.es, 25 de Abril de 2008
-Nanovida
Abril del año 2020. Hace ya 12 años que el
Observatorio de
Prospectiva Tecnológica Industrial (OPTI) realizó, en la primavera de 2008,
su estudio Aplicaciones industriales de las
nanotecnologías en España en el horizonte 2020. Buena parte de lo que
allí se decía se ha cumplido: la industria española se ha modernizado y, aunque
depende en gran medida de tecnologías extranjeras, ha adoptado los nuevos
procesos industriales en los que los robots llevan el peso de la producción.
Como decía el informe, las
ciencias
aplicadas centradas en la manipulación de la materia a escala atómica y
molecular (nanométrica) han sido el motor de una nueva revolución industrial
con impacto en todas las esferas de la vida.
El
oro a escala nano hace de catalizador de reacciones químicas
Aunque el ojo humano sea incapaz de ver un nanómetro (la
millonésima parte de un milímetro), los cambios a su alrededor sí son bien
visibles. Como dice la directora general de la OPTI, Ana Morato, "no ha sido un
cambio radical, sino una evolución". Ya en 2008 había productos mejorados o con
nuevas propiedades basados en nanomateriales, como las más modernas células
solares, una raqueta de tenis o un simple pintalabios. Pero ahora prácticamente
todo tiene una base nanotecnológica.
Carlos, por ejemplo, es un padre soltero. Prepara el desayuno
a su hijo. El niño juega en un suelo de baldosas que, gracias a una serie de
nanopartículas añadidas, conservan una temperatura tibia. El chico golpea su
pequeño robot contra un suelo que tiene capacidad antirrayado, además de
antibacteriano.
España era, años atrás, una potencia mundial en este sector;
la cerámica suponía el 2% de su producción industrial. Las empresas,
acostumbradas a la innovación, no tuvieron los problemas de otros sectores para
adentrarse en el negocio de lo infinitamente pequeño. Ahora, al reconocido
diseño de sus azulejos y baldosas, unen nuevas capacidades térmicas,
antideslizantes, esterilizantes y autolimpiables.
La materia y sus sorpresas
Para llegar a esta situación, en la que hasta en el barro
fundido se introducen nanosensores, la nanotecnología vivió una explosión desde
2010. La nanociencia databa de los años setenta del siglo XX, pero no fue hasta
la primera década del XXI cuando se empezó a conocer el comportamiento de la
materia a escala nanométrica. Tras la sorpresa inicial de los científicos al
comprobar que un mismo material no interactúa igual a escala macro que nano, los
distintos laboratorios del mundo empezaron a descubrir nuevas propiedades de los
materiales y nuevos materiales en sí.
Hay algo que sigue uniendo la era pasada con la de 2020. Si
el carbono era entonces la base de la vida, ahora los materiales basados en este
elemento químico tienen un papel vital en la sociedad actual. Nanotubos,
nanocapas, nanohilos, nanoesferas y otras mil formas del carbono a nivel atómico
son la base de todo lo físico. Con el concurso del carbono y otros
nanomateriales basados en el silicio, las arcillas o diferentes metales se
construyen, capa a capa, compuestos mayores. Según su configuración, pueden
autoensamblarse, o formar figuras geométricas más grandes.
Sus aplicaciones son muy amplias: almacenamiento de
hidrógeno, sensores de maduración de la fruta, textiles que no se manchan o
informática avanzada. En 2008, era raro el día que no aparecía un nuevo
nanomaterial. El problema era que no se sabía cómo reproducirlos industrialmente
y no salían de los laboratorios.
Los principales problemas con los que se enfrentaron la
ciencia y la industria en los años previos al 2020 han sido el desarrollo de
sistemas e instrumental y de procesos para manipular la materia a escala
molecular. Sin embargo, ejemplos como la de una pasta de dientes basada en
nanopartículas de peróxido de calcio, aparecida en marzo de 2008, fueron
generalizándose. Entonces, había 619 productos en el mercado hechos con
nanomateriales, según el
proyecto PEN , una
iniciativa lanzada en 2006 para monitorear el novedoso fenómeno de la
nanotecnología.
Según los datos de PEN, la plata a escala nano era el
material más utilizado en los productos comercializados. Se encontraba en 143 de
ellos. El carbono, incluyendo nanotubos y fulerenos (la forma más estable de
este elemento tras el diamante y el grafito) es el segundo nanomaterial más
usado. Otros que aparecen son el óxido de zinc, el dióxido de titanio, el
silicio y el oro.
Este metal precioso ejemplifica el cambio de paradigma que
supone la nanotecnología. Se trata de un material que, en volumen, no tiene unas
características que, a escala nanométrica, se revelan como excepcionales. Por
ejemplo, los cluster o grupos de oro de 3 nm activan reacciones de oxidación de
otras moléculas imposibles en otras condiciones.
Era del Hidrógeno
Esta propiedad ha convertido al oro y otros metales en
excelentes nanocatalizadores, dándoles un papel clave en la Era del Hidrógeno.
El transporte y la energía han sido de dos de los ámbitos en los que más se ha
notado el impacto de la nanotecnología.
La situación de 2008 era insostenible: los distintos medios
de locomoción basados en combustibles fósiles representaban el 28% de las
emisiones de CO2 a la atmósfera y el consumo del 70% del petróleo. Era necesaria
una alternativa y el hidrógeno almacenado en pilas de combustible fue la
respuesta. Las pilas son dispositivos electroquímicos que, mediante un
catalizador de nanopartículas de oro, por ejemplo, transforman la energía
química del hidrógeno en electricidad y agua, sin emisiones y con un rendimiento
mayor del 50%.
Aparte de la propulsión, los coches no han cambiado mucho en
apariencia, excepción hecha de los caprichos del diseño. Los vehículos se hacen
con los mismos materiales básicos de entonces. Las ruedas, por ejemplo, siguen
siendo redondas, pero la incorporación de nanopartículas de negro de carbón y
nanoarcillas han conseguido que la banda de rodadura sea mucho más resistente a
la abrasión y al desgaste. Además de ahorrar un 20% de combustible, eso
incrementa la seguridad del coche. El uso de nanoestructuras de alta resistencia
y bajo peso de aluminio, magnesio o titanio han hecho más resistentes y ligeros
a los coches (y los aviones).
Para los que gustan de tunear su auto, las nuevas pinturas,
además de ser antirrayaduras, cambian de color según incidan los rayos del sol.
En el habitáculo, los polímeros nanocompuestos y los textiles inteligentes
aportan seguridad en accidentes por sus capacidades ignífugas o de absorción.
Pero, como dice Gotzon Azkárate, coordinador del estudio de
la OPTI, "aunque la nanotecnología afecta a todas las facetas de la vida, lo que
más impacta a la gente han sido los avances conseguidos desde 2008 en las
tecnologías de la información y las comunicaciones, por un lado, y el ámbito de
la salud por el otro".
La miniaturización de los transistores y los chip por la vía
mecánica había llegado a un callejón sin salida. La litografía empezaba a
cometer errores en las obleas de silicio, ya en 2005. La nanoelectrónica y la
espintrónica (tecnología que aprovecha la carga del electrón y su espín o giro)
han multiplicado la capacidad de computación y almacenamiento. Los nuevos
transistores, basados en nanotubos de carbono o fotones de silicio procesan más
información y más rápido que es transportada por la carga del espín del
electrón. "La capacidad de información, realmente ubicua, ha cambiado la vida",
explica Azkárate.
La salud, lo primero
Era previsible que, siendo una de las constantes
preocupaciones de los seres humanos, la salud fuera uno de los campos en los que
más ha avanzado la aplicación de la nanotecnología. En el área del diagnóstico,
se han conseguido biosensores que contienen un receptor biológico (una enzima o
un anticuerpo) capaces de detectar una enfermedad o infección cuando sólo han
sido afectadas algunas células. Esto permite detectar patologías como el cáncer
en fases tempranas de desarrollo.
La nanomedicina regenerativa vive un cambio radical. Los
avances con biomateriales, como los cristales activos han ayudado a la
regeneración del hueso, combatiendo la osteoporosis o la artrosis. Además, la
ingeniería con nanotejidos ha permitido decir adiós al fenómeno del rechazo en
los trasplantes.
Por otro lado, desde mediados de la década pasada, buena
parte de las medicinas se administran en minúsculas dosis mediante dispositivos
capaces de atravesar los poros de 50 nm de diámetro de los conductos vasculares
y las membranas celulares. Los nuevos sistemas de liberación dosificar así la
cantidad y focalizan el objetivo
Según varios medios de comunicación, los laboratorios
farmacéuticos trabajan ahora en el diseño de nanorobots y nanovigilantes. En los
próximos años, los primeros viajarán por el torrente sanguíneo, entrando en
acción al detectar la enfermedad. Antes de 2030, los nanovigilantes podrán
avisar en caso de un trombo en el cerebro o un coágulo en el corazón de forma
inmediata.
Otras áreas relacionadas con el bienestar, como la
alimentación y el medio ambiente, han sido modificadas por la nanotecnología.
Los envases, por ejemplo, llevan sensores que controlan el estado del contenido.
Gracias a sus propiedades fotónicas, magnéticas o eléctricas, diferentes
nanoestructuras de función específica interactúan con otras moléculas. De esta
manera, los materiales dañinos pueden ser descompuestas en elementos inocuos e,
incluso, habrá nanoestructuras dedicadas al tratamiento de las aguas residuales.
Sin embargo, no todos están contentos con la nanotecnología.
Grupos de activistas medioambientales y ciudadanos denuncian que algunas
nanopartículas, como las de plata, están provocando daños a los operarios que
las manipulan. Aunque no hay estudios concluyentes, otros temen que éstas pasen
al cuerpo humano desde sus vestidos o materiales que tocan.
Precisamente, el informe de la OPTI en 2008 recomendaba la
necesidad de regular la investigación nanotecnológica para evitar esta reacción
de rechazo y comprobar la inocuidad para el medio ambiente y la salud de la
manipulación de la materia. Como en anteriores revoluciones industriales, la
nanotecnología ha provocado la división entre partidarios y detractores.
Fuente: publico.es, 25 de Abril de 2008
-Un estudio demuestra
que las gallinas y los avestruces descienden del Tiranosaurio Rex
Tiramosaurio Rexus en el Museo de Historia Natural de Carnegie de
Pittsburgh
El análisis molecular de una proteína ha
confirmado que los dinosaurios tienen sus descendientes más directos en las
aves, y que las gallinas y los avestruces están en el mismo árbol
evolutivo que los Tiranosaurios, aquellos gigantestos depredadores que vivieron
hace más de 65 millones de años. Una investigación, dirigida por Chris Organ, de
la Universidad de Harvard, ha revelado este curioso parentesco del temible
Tiranosaurio rex (el 'reptil tirano', significa su nombre) gracias a las
secuencias de una proteína conseguida del colágeno de un fósil
de hace 68 millones de años.
Los científicos compararon esta secuencia con la de
21 especies modernas de aves, confirmando así que este dinosaurio, que
era bípedo, comparte ascendencia con gallina, avestruces y, a más distancia,
también con cocodrilos. También utilizaron el mismo método con unas secuencias
de proteínas de los huesos de algunos mastodontes de hace
600.000 años, confirmando que aquellos mamíferos son ascendientes
directos de los elefantes, unos resultados que, como Chris Organ
señala, vienen a confirmar las predicciones que se habían hecho a nivel
esquelético.
Poco material disponible
Organ reconoce que no han tenido mucho material para
trabajar: tan sólo seis péptidos, es decir, apenas 89 aminoácidos del
Tiranosaurio. "Con más datos tendríamos el árbol filogenético de este dinosaurio
más completo", reconoce el investigador. Ya en un trabajo anterior publicado en
'Science', como éste, John M. Asara y otros científicos explicaron cómo lograron
capturar piezas de la proteína del colágeno de un 'T. rex', las mismas a las que
ahora han aplicado complejos algoritmos para compararlas con las de
otros animales y así conseguir la primera aproximación molecular a esta
historia evolutiva.
Gallinas y avestruces tienen un antepasado común
Descubrimos que estos animales del Cretácico se asociaban
mejor con los pájaros que con reptiles modernos, como son los cocodrilos o los
lagartos verdes", señala Asara. El material molecular del dinosaurio utilizado
en este trabajo procede de un fémur de Tiranosaurio rex encontrado en
2003 por John Horner, un paleontólogo el Museo de Rockies que excavaba
en una zona rica en fósiles que hay entre Wyoming y Montana, en Estados Unidos.
Fue Mary H. Schweitzer, de la Universidad de Carolina del
Norte, quien descubrió, dos años después, que en el hueso se había
conservado un tejido fino. No fue posible recuperar ADN del hueso, pero
sí unas valiosas secuencias de proteínas que han sido la clave de su trabajo.
Fuente: elmundo.es, 25 de Abril
de 2008
-Los biocombustibles y el clima,
principales causas del hambre
La revista médica británica 'Lancet' insta a los Gobiernos a
abordar estos asuntos para paliar la crisis desatada por el aumento del precio
de los alimentos, que está afectando especialmente a los países pobres
El cambio climático, los subsidios agrarios y, sobre todo,
el cultivo de combustibles biológicos son los principales factores que
influyen en la crisis alimentaria que afecta al mundo, afirma The Lancet
en un editorial.
La prestigiosa revista médica británica insta a los
Gobiernos a abordar estos asuntos para paliar la crisis desatada por el
aumento del precio de los alimentos, que está afectando especialmente a los
países pobres y motivando revueltas en todo el mundo. En su editorial, The
Lancet destaca que la producción extensiva de biocombustibles es una de
las principales causas del encarecimiento de los cereales. Por ejemplo, apunta
la revista, en su intento de ser autosuficiente en biocarburantes, Estados
Unidos subvenciona la producción de etanol, que se obtiene, entre otras cosas,
del maíz, un cultivo al que se ha dado prioridad en ese país.
El volumen de "maíz" consumido actualmente por los
vehículos en EEUU "cubriría las necesidades de importación de 82 países" en
los que falta comida, denuncia la publicación, que a la vez se congratula de
que la Unión Europea (UE) vaya a replantearse sus objetivos de biocombustible.
El aumento del precio del trigo y del arroz el año pasado en un 130 y un 120
por ciento, respectivamente, ha causado hambrunas y hundido en la pobreza a
millones de personas en el mundo, señala The Lancet.
Además de los biocombustibles, la revista identifica otros
factores que contribuyen a la crisis, como el incremento de la población
mundial -se espera que crezca en 3.000 millones para 2050-, que hace que se
consuman más alimentos, sobre todo carne en las economías emergentes. También
influyen un descenso de la productividad de las áreas cultivables en la última
década y la quiebra del mercado hipotecario en Estados Unidos, que ha hecho
que muchos especuladores inviertan en materias primas como productos
alimenticios, lo que ha elevado su precio.
Además, añade The Lancet, los países ricos están
exportando productos subvencionados a países pobres, lo que amenaza la
subsistencia de los agricultores nativos. La revista señala la dificultad de
alcanzar el principal objetivo para el milenio de la ONU, reducir la pobreza
mundial a la mitad. The Lancet recomienda a los gobernantes con
influencia y las instituciones implicadas, como la ONU o el Banco Mundial,
actuar conjuntamente para abordar la crisis, que no debe resolverse con
soluciones a corto plazo sino afrontando "la raíz" del problema.
Por ejemplo, señala la publicación, EEUU y Francia han sido
de los primeros en ofrecer ayuda humanitaria contra la carestía de los
alimentos, cuando, según el editorial, lo que deberían hacer es abolir los
subsidios agrícolas que dan a sus granjeros.
Fuente: ADN.es, 25 de Abril de 2008
-Los humanoides más sofisticados del
mundo invaden la feria de Hannover
Desbocado, Nao, el delantero verde del Darmstadt Driblers
con el dorsal número cinco y un lejano parentesco estético con R2D2, el pequeño
robot inteligible de 'La Guerra de la Galaxias', recoge la pelota a pase del
número seis y se lanza contra la portería contraria desde la banda izquierda. El
público, humano, aplaude a rabiar. «¡Tiembla Ronaldinho!», jalea un grupo
de adolescentes.
robot futbolista
Al cancerbero bípedo azul, del equipo UChile Road-runners, se le nota
nervioso y no para de balancearse de izquierda a derecha. Más en la tradición
fisonómica de C3PO, el otro robot de Luke Skywalker en el cine pero más ágil y
sin su ridículo acabado en dorado reluciente, el portero vigila atentamente al
oponente con todas sus cámaras y sensores. Finalmente, la
defensa azul se ve arrollada por el futbolista verde que chuta inapelable y
sella el 4-1 definitivo. Hasta Mops, el guardameta del Darmstadt, cruza el campo
para celebrarlo y un asistente tendrá que llevárselo bajo el brazo entre bips
ofendidos.
Terminaba así ayer uno de los encuentros del Mundial de Fútbol robótico o
Robocup 2008 que estos días hace las delicias de los visitantes del pabellón 25
de la Feria de Hannover (21-25 de abril), el mayor espectáculo del mundo
sobre tecnología punta aplicada a la industria.
Este año la cita alemana, con sus casi 170.000 metros cuadrados y sus 5.100
empresas llegadas de 62 países, adopta como tema central la eficacia
energética aplicada a la fabricación y con especial énfasis en la protección del
medio ambiente. La dramática falta de ingenieros en Alemania,
calculados por la Feria en un informe de esta semana en 95.000, se traduce en
Hannover en todo un pabellón, TectoYou, destinado a promover esta vocación entre
los jóvenes y con visible presencia de empresas de trabajo temporal.
Pero los cientos de miles de serios y revolucionarios cachivaches
automatizados para las cadenas de montaje, los materiales desarrollados para
situaciones extremas y los sesudos debates sobre biocombustibles poco podían
competir con todo un edificio dedicado a los robots, centro de atención
de cualquier visitante no profesional. Incluso los seres automatizados
que no tienen un sentido práctico, como la tonelada de circuitos de la empresa
japonesa Kawasaki que, paciente e imperturbable, se dedica a resolver cubos de
Rubik uno tras otro.
Nada más entrar en la inmensa sala el robot camarero de Blue Robotics acude
al curioso a ofrecerle un vaso de agua. Lamentablemente, el ingenio con
reminiscencias de semáforo mostraba algunos problemas para agarrar el recipiente
de plástico. Más allá Scitos A5 demostraba que el trabajo de azafata de
congresos tiene los días contados. Con una pantalla y un teclado en su
frontal, el artefacto invitaba a descubrir las últimas noticias de la cita en
Hannover. Aqua Jelly, con su aspecto de medusa en un tanque de agua, enseñaba
que puede moverse entre las olas y activar ingenios sub-acuáticos.
Por no hablar del robot de Japón, país invitado de este año, que acude a
abrir la puerta a los invitados y les dirige a sus habitaciones. O Toomas, el
ingenio alemán que distingue colores. O incluso VolksBot-XT, androide flexible y
versátil que sube escaleras y puede apoyar a los humanos en situaciones
de emergencia.
Cientos de jóvenes participan este año en una experiencia donde se les
ilustra con conocimientos de robótica y luego crean sus propios ingenios.
Ayer cuatro niños hacían rodar sus coches por un circuito dibujado en el suelo.
Los vehículos se movían gracias a un sensor de sonidos.
Fuente: elmundo.es, 24 de Abril de 2008
-Encontrado un fósil de un Homo Sapiens con rasgos primitivos y modernos
Un nuevo fósil, correspondiente a un Homo sapiens que vivió hace poco más de
100.000 años en el entorno del actual lago Eyasi (Tanzania), incrementa la
diversidad anatómica conocida en los Homo sapiens arcaicos, explicó el director
de esta investigación, Manuel Domínguez Rodrigo.
Los restos encontrados presentan una mezcla de caracteres inédita hasta
ahora, ya que junto a una serie de rasgos anatómicos primitivos, que se
consideraban típicos de los homínidos anteriores a la aparición de nuestra
especie, el fósil presenta otros rasgos, como la gracilidad del hueso craneal,
que contrastan con la robustez anterior al sapiens.
En esta mezcla de caracteres, el nuevo fósil aporta un grado de diversidad de
los primeros representantes de nuestra especie en África mucho mayor de lo que
se había documentado hasta la fecha, según Rodrigo.
Esto sugiere que la transición de las formas pre-sapiens a sapiens no fue tan
gradual y progresiva como se pensaba hasta ahora.
El hallazgo sugiere asimismo la posibilidad de que una parte de la
variabilidad anatómica que se observa en nuestra especie haya sido una
característica que arranca ya desde el origen del Homo sapiens.
Desde hace 200.000 años hay individuos con cráneos redondeados, frontales
elevados, torus supraorbitario poco marcado y reducción del grosor del cráneo, y
otros, como muestra el nuevo fósil, con una combinación de rasgos primitivos y
modernos.
En África o Europa
Para la mayoría de los investigadores, que defiende un origen de Homo sapiens
en África hace unos 200.000 años, nuestra especie surgió de un proceso
cladogenético (es decir, el sapiens habría surgido de homínidos anteriores a
través de un evento de separación paralelo a la existencia de otros homínidos en
otras partes del planeta) para luego expandirse y causar la extinción de otros
homínidos contemporáneos.
Para otros, partidarios de la llamada teoría multirregional, el Homo sapiens
pudo haber surgido anagenéticamente (proceso por el que una especie va
paulatinamente dando lugar a otra) en varios lugares de Eurasia y África de
forma paralela, a partir de los homínidos que existían en esas regiones y con
los que mantuvieron un flujo genético, señaló Domínguez.
La aparición y rápida expansión de Homo sapiens se ha interpretado como un
ejemplo de rápido éxito evolutivo, asociado a una serie de cambios físicos,
como el desarrollo del lóbulo frontal y su posible relación con una mayor
inteligencia, capacidad de simbolismo y lenguaje articulado.
Desde esta
visión, se ha pensado en una escasa variabilidad en las características
físicas del inicio de nuestra especie; una idea muy extendida es que los
primeros Homo sapiens gozaban de cierta homogeneidad, que solamente su
expansión en los últimos 100.000 años por diversas partes del planeta habría
diversificado.
El nuevo homínido descubierto en el Lago Eyasi (Tanzania) permite
proponer una interpretación diferente.
El trabajo, publicado en la revista científica Journal of Human
Evolution, fue dirigido por Manuel Domínguez Rodrigo, profesor de
Prehistoria de la Universidad Complutense de Madrid (UCM).
Fuente: adn.es, 24 de Abril de 2008
-Científicos estadounidenses desvelaron nuevos secretos de los misteriosos
agujeros negros, los campos gravitacionales conocidos por absorber la luz y las
estrellas del universo
En un estudio publicado en la revista Nature, expertos de la Universidad de
Boston afirman haber descubierto cómo los agujeros negros emiten corrientes en
chorro de plasma, o jet streams, a una velocidad cercana a la de la luz.
Los autores de la investigación comprobaron que el chorro de partículas se
origina en el campo magnético cercano al borde del agujero. Según ellos,
es en esa región donde el chorro se orienta y acelera.
BL Lacertae
Para realizar sus observaciones, los especialistas, encabezados por el
profesor Alan Marscher, se sirvieron de diez potentes radiotelescopios dirigidos
a la galaxia BL Lacertae. Situada a 950 millones de años luz de la Tierra,
BL Lacertae es un blazar, una fuente de energía muy potente y variable. Los
blazars están entre los fenómenos más violentos del Universo.
"Hemos logrado la visión más completa hasta el momento del interior de un
chorro, donde las partículas se aceleran", expresó Marscher.
El profesor Hugh Aller, de la Universidad de Michigan, integrante del equipo
investigador, comparó la aceleración de las partículas con el proceso de
operación de un motor de reacción. Pero a pesar de las nuevas
revelaciones, el periodista Neil Bowdler, de BBC Ciencia, cree que la comunidad
científica está lejos de revelar el enigma de los agujeros negros más allá del
"horizonte final", el punto en que la luz y la materia son absorbidos por el
inmenso campo gravitacional de uno de estos hoyos.
De hecho, si los físicos teóricos están en lo cierto -expresó Bowdler- nunca
seremos capaces de conocer qué hay detrás de este fenómeno.
Fuente: BBC Mundo, 24 de Abril de 2008
-El desastre ecológico de Doñana cumple
10 años
La consejera de Medio Ambiente, Fuensanta
Coves, aseguró hoy que el Espacio Natural de Doñana "aún no se ha salvado" del
desastre ecológico que produjo la rotura de una balsa minera hace diez años en
Aznalcóllar (Sevilla) y anunció que la Junta ha presentado esta semana un
recurso ante el Tribunal Supremo (TS) contra el acto judicial que rechaza la vía
administrativa para reclamar a Boliden los 90 millones de euros que le demanda
la Administración autonómica por la retirada de lodos y restauración ambiental
de la zona afectada.
Durante la inauguración en el Pabellón del Futuro en Sevilla de la exposición 'Guadiamar,
Ciencia, Técnica y Restauración', con la que la Estación Biológica de Doñana (EBD)
conmemora el décimo aniversario del accidente minero, la titular del ramo indicó
que la Junta de Andalucía "no se va a rendir" en su batalla en los tribunales
con Boliden y que, "de ser rechazado el último recurso de casación que se ha
interpuesto, se le solicitará a la Sala de Conflictos del Tribunal Supremo que
anuncie cuál es la vía por la que la Junta puede ir". En esta línea, Coves
insistió en que este hecho "no puede quedar así", ya que, a su juicio, "merece
un responsable". "Ya sabemos quién es, sólo nos falta que los jueces nos den la
razón y que recuperemos parte de la inversión que tuvimos que hacer", añadió la
consejera.
Asimismo, la responsable del ramo manifestó que la exposición que hoy abre sus
puertas y que concluirá el próximo 30 de junio, pretende "recordar lo que
ocurrió hace diez años y dar una lección permanente: siempre es mejor prevenir
que remediar".
"Cuando ocurrió el vertido no estábamos preparados. Nunca habíamos hecho frente
a un desastre de tales características. Sin embargo, fue un éxito poner en manos
de más de 100 científicos las decisiones más importantes, algo que se ha
demostrado por la evolución que el paisaje ha sufrido", aseveró Coves.
Diez años después del desastre, según explicó la consejera, "se ha seguido
investigando sistemáticamente, siendo hoy la recuperación del río Guadiamar un
magnífico ejemplo de ello". Y es que, además, "desde el punto de vista ecológico
los parámetros que analizan la calidad del aire, del suelo o del agua son
mejores en la actualidad que antes del vertido".Si bien, destacó que "aún quedan
cosas por hacer", como por ejemplo la ordenación y racionalización de los
cultivos para aliviar la presión del acuífero, así como también el derribo del
muro de contención levantado para evitar que el vertido de la balsa minera
llegara al parque nacional de Doñana.
Historia de una frustración
Por su parte, el director de la Estación Biológica de Doñana, Fernando Hiraldo,
calificó la exposición como "la historia de una frustración", a la que según
dijo, "nos llevó el no haber podido evitar el desastre". Además, destacó que las
autoridades fueron "poco capaces" de enseñar a la población la magnitud de la
catástrofe y el "buen trabajo" que los técnicos medioambientales llevaron a
cabo.
Asimismo, subrayó que la muestra irá cambiando a lo largo de los meses, ya que
se le irán añadiendo otras secciones, como por ejemplo, la aportación de los
mineros. "En esta exposición hemos querido que nuestra idea no sea la
predominante sino que se muestren diversas visiones, con el objetivo de que el
público saque sus propias conclusiones", concluyó.
Por último, el delegado provincial de Innovación, Ciencia y Empresa, Francisco
Álvaro Julio, indicó que la Junta, "además de haber hecho posible el desarrollo
industrial en la zona, ofreciendo una oportunidad de trabajo a sus habitantes
tras la salida de Boliden, también ha sido capaz de generar energía limpia a
través de placas fotovoltaicas que llegarán a alcanzar los 16 megavatios".
Las colisiones galácticas producen una asombrosa variedad
de intrincadas estructuras, tal y como acaban de revelar 59 nuevas imágenes del
telescopio espacial 'Hubble', que muestran una amplia variedad de alocados
choques, fusiones y bailes cósmicos entre aglomeraciones de estrellas.
Dos galaxias muy parecidas colisionan en la constelación de Indus
Choque de dos galaxias en la Osa Mayor
Las interacciones entre galaxias se encuentran por doquier en el
universo: a veces son dramáticos choques que impulsan el nacimiento de
estrellas, y en ocasiones se trata de sigilosas fusiones que forman nuevas
estrellas.
La serie de
nuevas imágenes es la colección más grande de interacciones galácticas que
se ha publicado, y proviene en su integridad del observatorio espacial 'Hubble',
gestionado por la NASA y la Agencia Espacial Europea (ESA).
Con estas instantáneas, los responsables del célebre telescopio han querido
conmemorar el decimoctavo aniversario de su lanzamiento a la
órbita terrestre, desde donde ha podido escudriñar rincones hasta ahora
inaccesibles del cosmos.
Las fusiones de galaxias, eventos que en los orígenes del universo eran mucho
más comunes que hoy, constituyen una de las fuerzas fundamentales de la
evolución del cosmos, y pueden generar cuásares (objetos lejanos que emiten gran
cantidad de energía), zonas de nacimientos de estrellas o supernovas
(explosiones de estrellas).
Incluso las galaxias aparentemente aisladas del resto muestran algún signo en
su estructura interna de haber sufrido al menos una colisión en su pasado, lo
que muestra hasta qué punto fueron habituales estos gigantescos choques durante
los convulsos orígenes de la materia en el cosmos.
Fuente: elmundo.es, 24 de Abril de 2008
-Opportunity tiene problemas en el motor de su brazo
robótico
Recración artística de Opportunity
Uno de los motores del brazo robótico del vehículo
explorador Opportunity ha comenzado a dar problemas serios más de
cuatro años después de su llegada a la superficie del planeta Marte, según
ha confirmado hoy el Laboratorio de Propulsión a Chorro (JPL, por su sigla
en inglés) de la NASA.
El motor empezó a funcionar con algunas deficiencias hace
dos años. Desde entonces el movimiento del brazo ha sido más lento de lo
normal. El pasado día 14 de Abril, los técnicos del JPL de la NASA se dieron
cuenta de que el brazo se movía con más lentitud que los días anteriores.
Ahora están evaluando si el motor puede funcionar y en que medida afectará a
los trabajos del rover.
Ese pequeño moto, situado en lo que sería el hombro
del brazo, controla los movimientos laterales del brazo robótico del
vehículo. Hay otros motores en el codo y en la muñeca, además de un motor
también situado en el hombro. Estos motores permiten el movimiento hacia
arriba y abajo de la articulación que contiene en su extremo final los
cuatro instrumentos con los se está estudiando la composición y estructura
de las rocas y el suelo marciano.
Parece existir un aumento en la resistencia eléctrica
provocado quizás por el desgaste del cable que conduce la electricidad hasta
el motor. Además también hay un atasco mecánico.Con las pruebas que se están
realizando se intentará ver si estos problemas son intermitentes o
continuos.
En Noviembrede 2005, los fallos del motor se solucionaron
aumentando el voltaje administrado con el riesgo de dañarlo gravemente. Sin
embargo, el remedio funcionó y se pudo alargar la vida del motor.
Opportunity y el segundo vehículo explorador, Spirit,
descendieron sobre la superficie marciana en enero de 2004 y desde entonces han
transmitido fotografías e información sobre la conformación geológica de la
superficie marciana y sobre su atmósfera, pese a que su vida útil se calculaba
entonces en un máximo de tres meses.
"En el peor de los casos, Opportunity tiene todavía la
capacidad de realizar algún trabajo científico con su brazo", afirmó John
Callas, director del proyecto para ambos vehículos. Opportunity todavía mantiene
su versatilidad para continuar sus investigaciones en el cráter Victoria y para
regresar a las llanuras de Meridiani, añadió.
En estos momentos el ingenio se encuentra explorando el
interior del Cráter Victoria. Se dirige por un camino difícil hacia la base de
un acantilado situado en el borde del cráter.
Fuente: NASA, adn.es
24 de Abril de 2008
-El cambio climático
acelera el deshielo del Ártico
El cambio climático está teniendo un
impacto mucho más grave y más rápido sobre el Ártico de lo que se pensaba hasta
ahora. Así lo afirma un nuevo estudio de la organización Fondo Mundial de la
Naturaleza (WWF). El deshielo ártico se ha acelerado gravemente,
y los científicos estudian ahora si se está cerca del punto de no retorno,
cuando los cambios se hacen irreversibles, señala la organización. El estudio,
que será presentado en el Consejo Intergubernamental del Ártico, encontró que
los cambios, mucho más rápidos de lo previsto, están teniendo lugar a todos los
niveles del medio ambiente ártico, la atmósfera, los océanos, el hielo marino,
la nieve, las especies, los ecosistemas y las sociedades humanas. Así por
ejemplo, el hielo que se ha fundido de Groenlandia en los últimos años es
mucho mayor a la pérdida que se predecía en los informes
científicos sobre este tema. También la pérdida de hielo veraniego se ha
incrementado espectacularmente, especialmente en el 2005 y en el 2007.
"La magnitud de los cambios físicos y ecológicos en el Ártico
crea un desafío sin precedentes para los gobiernos, el sector
corporativo, los líderes comunitarios y los conservacionistas", afirma el doctor
Martin Sommerkorn, uno de los autores del informe y asesor de Cambio Climático
de la asociación. Según los datos del Grupo Intergubernamental sobre el Cambio
Climático, de la ONU, la desaparición completa de la capa ártica elevaría el
nivel de los mares 7,3 metros, y por el momento es imposible saber cuál será la
evolución en los próximos años.
"Ahora está en manos de las naciones árticas actuar frente a
esta evidencia", establece Sommerkorn. "Pueden hacer algo si actúan rápido y con
contundencia, pero es demasiado tarde para que todo siga igual", agrega.
Sommerkorn asegura que este debate "no puede continuar
restringido a la creación de espacios protegidos y la ayuda a los ecosistemas
árticos para que encuentren su equilibrio".
WWF en España se pronuncia
En la misma línea se pronunció la responsable del programa de
Cambio Climático de WWF/Adena en España, Mar Asunción, señalando "la
urgencia de actuar con medidas contundentes que frenen y disminuyan las
emisiones". Además, pidió al nuevo Gobierno, y en especial a la
Ministra de Medio Ambiente y Medio Rural y Marino, Elena Espinosa, que "plasme
en medidas concretas las palabras del presidente Zapatero de combatir en primera
línea el cambio climático y defienda que Europa asuma el objetivo del 30 por
ciento de reducción de emisiones con medidas internas para el año 2020".
El nuevo informe, titulado 'Ciencia sobre el impacto
del cambio climático - Una puesta al día', representa el mayor estudio
sobre el impacto del calentamiento global en el Ártico desde la 'Evaluación de
Impacto del Cambio Climático en el Ártico (EICCA)', que se publicó en 2005.
Fuente: Agencias, 24 de Abril de 2008
-Llega la web 3.0
Sucedió en Corea del Sur, durante un congreso. Un empresario
preguntó a Eric Schmidt, presidente de Google, sobre el
significado de Web 2.0 y Web 3.0. "Lo primero es 'marketing",
contestó; "Lo segundo se lo ha inventado usted". La respuesta,
cargada de ironía, muestra la red más volátil: cuando no ha
acabado la web 2.0, comienza la próxima moda
una década, el presidente de la compañía informática Oracle, Larry Ellison,
predijo que en muy pocos años los ordenadores serían cajas tontas, sin
apenas memoria y capacidad de proceso, que tomarían toda su potencia de internet.
Un poco antes, Nicholas Negroponte, un conocido visionario del mundo digital,
aseguraba que en el futuro las cosas serían capaces de pensar como los
humanos.
Ninguno ha acertado en sus predicciones, de momento. Pero la web 3.0 que
auguran los expertos tiene mucho de ambas teorías: los defensores de la llamada
web semántica creen que estará impregnada de una incipiente inteligencia
que cambiará el modo en que se usa internet. Y hay quien apunta que los cambios
de la próxima generación estarán marcados, como antes, por la innovación
tecnológica.
Según la primera teoría, el internauta no acudirá a la red, sino que la red
acudirá al internauta. El uso de buscadores se hará innecesario, pues las
personas tendrán agentes personales, programas que conocerán los gustos
de sus dueños y rastrearán la red en busca de la información y los servicios que
aquellos necesitan, cuando la necesiten.
La red, siempre según esta teoría, será inteligente y capaz de aprender de la
inteligencia de sus usuarios. De acuerdo con la segunda teoría, la web cambiará
por la mejora de las conexiones, la calidad de los gráficos ylos nuevos
dispositivos para acceder a internet. Todos estos avances abrirán el camino a
una red moderna, ubicua y hasta ahora inalcanzable.
Puestos a predecir, ¿qué teoría se impondrá?, ¿cómo será la web 3.0?,y
¿cuándo podrá verse? Según las opiniones de los expertos, la próxima generación
de la web será una mezcla de ambas teorías: inteligente y fruto de la
innovación. Y podrá verse en un plazo no superior atres años. ¿Es posible que
las predicciones sean erróneas? No sólo es posible, sino muy probable. No
obstante, los grandes gurúes ya se encuentran en la siguiente fase, y deciden
cómo serán las próximas web 4.0 y 5.0. Puestos a predecir...
La web que prometen los expertos
+ rápida
El ancho de banda ha marcado siempre lo que puede y no puede
hacerse en internet. La transmisión de vídeo en la red -y el nacimiento de
portales dedicados a esta tarea, como YouTube sólo ha sido posible cuando los
usuarios han tenido conexiones rápidas. Las principales operadoras de
telecomunicaciones predicen un futuro en que la fibra óptica llegará a los
hogares, y abrirá un nuevo mundo al ancho de banda: los 3 Mbps del ADSL actual
se convertirán en una velocidad que podrá ir de 30 Mbps a 1.000 Mbps.
+ abierta
Tras la desconfianza por parte de las principales empresas,
el 'software' libre (el anti-Windows), los estándares y las licencias de
distribución libre de contenido, como Creative Commons, se convierten en
habituales de internet. La información se distribuye libremente por la web, e
impide que un solo dueño se apropie de ella. La plusvalía de la propiedad sobre
la información se pierde en favor de un uso más democrático.
+ ubicua
El PC muere a manos de los teléfonos móviles y otros
dispositivos portátiles. Si los terminales Blackberry han sacado el correo
electrónico del escritorio, el teléfono móvil de Apple, iPhone, promete hacerlo
mismo con la web. La pequeñas pantallas crecen en tamaño y resolución y permiten
una mejor visualización del contenido web. El alcance de las redes inalámbricas
y de la telefonía de última generación se multiplica, ampliando la cobertura de
la web.
+fácil
El internauta que hoy en día visita un sitio web debe emplear cierto tiempo
en conocerlo y en aprender a usarlo. Las nuevas tendencias de diseño buscan
estándares hacia una web no sólo más homogénea en sus funciones y más fácil de
reconocer por los usuarios -como el sistema de ventanas que usan los
ordenadores- sino también más cercana a un espacio que los visitantes puedan
configurar a su gusto. Sin embargo la personalización no se limitará al diseño,
y estos nuevos sitios web permitirán también al usuario construir pequeños
programas incluso aunque no sepa programar.
+ multimedia
El carácter convergente de internet, capaz de aglutinar
texto, audio y vídeo, continúa su camino hacia una integración total. Los
programas de televisión se atomizan en su paso a la red y los televidentes
componen sus 'parrillas' particulares con piezas de programas cadenas y
productoras de televisión independientes y distintas. Hollywood finalmente,
apuesta sin reservas por la red.
+ tridimensional
La información 3 D rompe las dos dimensiones de laweb. Los
espacios tridimensionales, en forma de mundos virtuales, serán cada vez más
habituales en la vida privada en forma de juegos y sistemas de telepresencia y
profesional -como una prolongación de la video conferencia-. Aparecen nuevos
dispositivos para moverse por la web, más allá del teclado y el ratón.
+ social
Las comunidades se hacen más exclusivas y complejas. Crecen
las redes socia les y el número de formas en que conectan a sus miembros. La web
trasciende lo digital a través de dispositivos analógicos, que muestran en el
mundo real lo que sucede en el digital. Empieza a considerarse normal que una
persona tenga varias identidades en su vida virtual y se plantea incluso la
posibilidad de poder migrarla identidad de una red a otra.
+distribuida
Los programas y la información se convierten en pequeñas
piezas repartidas por la web y capaces de trabajar conjuntamente. Los
internautas pueden coger y mezclar estas piezas para realizar una determinada
tarea. web a sus escritorio y la web se distribuye también por los ordenadores
conecta-dos con ella. Los sistemas de computación distribuida -que unen la
potencia de muchos ordenadores en una sola entidad se convierten en una opción
habitual de los sistemas operativos. La web es una gran nube de información y un
montón de programas para procesarla
+comercial
Casi todos los avances de internet han venido de manos
privadas y han acabado en manos de intereses estrictamente comerciales. Nada
apunta a que el futuro vaya a ser distinto. La web 2.0 significó la aparición de
redes sociales alrededor de productos y su sucesora abundará en esta línea. Usos
perversos' de la tecnología, como el 'spam' serán los primeros en sacarle
partido.
+inteligente
Este objetivo ocupa desde hace años el cerebro de Tim
Berners Lee, el creador de la World Wide Web. Su proyecto de web semántica
pretende crear un método para clasificar las páginas de internet, un sistema de
etiquetado que permita a los buscadores no sólo encontrar la información
distribuida por la red, sino también entender la hasta cierto punto. De
conseguir este objetivo, un usuario podría acudir a la web para preguntare
lengua y sin necesidad de claves crípticas por un determinado asunto. Así, en
lugar de buscar con las claves "mozart operas" el internauta podría escribir
"Cuántas óperas compuso Mozart". En lugar de "hotel Barcelona", escribiría
"Necesito viaje y hotel en Barcelona para el día Sant Jordi. Viajamos con
perro". La web aprendería del resultado de esta búsqueda para la próxima
ocasión.
HISTORIA
El gran invento que nos cambió la existencia
¿Cómo sobrevivían los humanos antes de que existiera Google? ¿Dónde
encontraban respuestas a sus preguntas? ¿Cómo se divertían sin YouTube y sin
bajarse pelis y discos? ¿O se relacionaban sin el messenger? Cuesta
creerlo, pero hubo un tiempo en que internet no existía, y la gente sólo hacía
cosas tan antiguas como escribir cartas, hablar por teléfono (fijo) o ver la
tele. El camino desde esa época semiprimitiva hasta hoy ha sido largo, duro y
difícil . Lleno de grandes aciertos y disparatados pasos en falso. Éste es un
recorrido a velocidad de 20 megas por segundo por la historia de la red.
0.0
Los años oscuros de internet -digamos que hasta principios de los noventa se
caracterizaron por la complicación a la hora de llevar a cabo las operaciones
más básicas y la extrema lentitud de la conexión. Los más viejos del lugar
recuerdan con cariño buscadores jurásicos como el WebCrawler programas de chat
de antidiseño como IRC o rebuscadas formas de intercambiar archivos como los FTP,
aún en uso.
1.0
La explosión de la primera era de internet estuvo marcada por la
popularización masiva de los navegadores y del correo electrónico. En la red
cohabitaban buscadores ineficientes (Altavista, Lycos) y portales faraónicos (Terra)
con costrosas páginas personales hechas por pioneros del HTML. El usuario era
mero receptor, y su intervención se reducía a los foros y a pagar por el porno.
2.0
La participación es la clave en esta época que comienza en los primeros años
del siglo XXI. Gracias a los avances en programación, los usuarios dejan de ser
zombis pasivos y se convierten en estrellas del contenido, a través de los blogs
y de plataformas como My Space, YouTube o Flickr. Google revoluciona las
búsquedas con un sistema basado en la popularidad, y la Wikipedia es el nuevo
templo del saber.
Fuente: ADN.es, 23 de Abril de 2008
-Una revolución en la nanotecnología
Un nuevo y emocionante material artificial está suscitando
toda una revolución en el desarrollo de materiales para aplicaciones
electrónicas. Se trata de una nueva "superred" (superlattice) compuesta de
óxidos de metal de transición que se ha creado gracias a la colaboración entre
investigadores europeos.
Los óxidos de metal de transición son un campo de la ciencia relativamente nuevo
y vibrante. Saltaron a los titulares por primera vez en 1986, con el
descubrimiento de los superconductores de alta temperatura, que se premió con el
Nobel. Gracias a ellos, algunos materiales pueden soportar la superconductividad
a temperaturas superiores al punto de ebullición del nitrógeno líquido (77 K ó
-196°C). Aparte de la superconductividad, los óxidos de metal de transición
tienen aplicaciones en los ámbitos de los aislamientos y los semiconductores,
entre otros. Dadas sus diversas aplicaciones, poseen también la capacidad de
integrarse en numerosos aparatos.
La nueva superred creada por el grupo del proyecto consiste en una estructura
que está compuesta por múltiples capas alternas de grosor atómico de dos óxidos
distintos (PbTiO3 y SrTiO3). Esto dota a la red de propiedades radicalmente
distintas de las de los dos óxidos por sí solos. Estas nuevas propiedades son
consecuencia directa de la estructura artificial en capas y se derivan de
interacciones a escala atómica en las zonas de contacto entre las capas.
Uno de los investigadores principales de este proyecto, el Dr. Matthew Dawber,
estuvo en primera línea de esta iniciativa dirigida a crear y comprender estos
materiales artificiales revolucionarios en su nuevo laboratorio. "Aparte de las
aplicaciones inmediatas que podrían surgir del nanomaterial, este descubrimiento
inaugura un campo de la investigación completamente nuevo y abre la posibilidad
de crear nuevos materiales funcionales partiendo de un nuevo concepto: la
ingeniería de las superficies en contacto a escala atómica", comentó el Dr.
Dawber.
El PbTiO3 y el SrTiO3 son dos materiales de óxido bien conocidos. En un estudio
teórico realizado en Lieja se predijo que, si estos materiales se combinasen en
una superred, ocurriría un acoplamiento inusual y sorprendente entre los dos
tipos de inestabilidades, que es lo que provoca la llamada ferroelectricidad
impropia.
La ferroelectrónica tiene muchas aplicaciones, desde las memorias informáticas
no volátiles avanzadas a las máquinas microelectromecánicas o los detectores de
infrarrojos. La ferroelectricidad impropia es un tipo de ferroelectricidad que
se produce raras veces en materiales naturales y cuyos efectos suelen ser
demasiado pequeños para poder aprovecharse.
Un estudio experimental paralelo realizado en Ginebra confirmó el carácter
ferroeléctrico impropio en este tipo de superred y encontró indicios de una
nueva propiedad excepcionalmente útil: la dieléctrica. Se trata de la capacidad
de poseer una temperatura muy alta y, simultáneamente, ser independiente de la
temperatura, dos características que suelen excluirse mutuamente, pero que en
este caso se reúnen por primera vez en un mismo material.
En la investigación unieron fuerzas el grupo teórico del profesor Philippe
Ghosez de la Universidad de Lieja (Bélgica) y el grupo experimental del profesor
Jean-Marc Triscone de la Universidad de Ginebra (Suiza).
Fuente: CORDIS, 23 de Abril de 2008
-Hawking dice que nos debemos lanzar a la conquista del
espacio
El astrofísico inglés Stephen Hawking, conocido por sus
prestigiosos estudios sobre el universo y la gravedad, ha abogado hoy en
Washington por que el hombre se lance a la conquista del espacio con el
mismo espíritu y ambición con que Cristóbal Colón partió a la exploración
del Nuevo Mundo en 1492. Si la raza humana va a continuar otro millón de
años, tendremos que ir donde nadie ha ido jamás", ha recalcado el
científico, de 66 años, en una conferencia en la Universidad de Georgetown,
para celebrar los 50 años de la NASA.
"Nos encontramos en la misma situación que Europa en
1492. Es posible que hayan argumentado que era una pérdida de tiempo enviar
a Colón a buscar algo que no existía. Pero el descubrimiento de América ha
cambiado profundamente la antigüedad. Pensad: no tendríamos el Big Mac", ha
declarado.
Para Hawking, la exploración espacial debería incluir la
creación de una base permanente en la Luna en el curso de los próximos 30
años, así como el desarrollo de un nuevo sistema de propulsión para llevar
al hombre más allá del sistema solar. Hawking, quien sufre esclerosis
lateral amiotrópica y tiene que utilizar un sintetizador de voz, ha
destacado que "partir a la conquista del espacio tendrá un efecto todavía
más grande. Va a cambiar completamente el futuro de la raza humana, e
incluso podría determinar si tenemos un futuro", ha destacado. Los viajes
espaciales "nos permitirán tener una mejor perspectiva sobre esos problemas,
y ojalá nos unan para enfrentarnos a un desafío común", ha añadido.
¿Estamos solos? "Probablemente, no"
A la gran pregunta de si estamos solos en el universo, el
astrofísico británico responde que "probablemente no". Si existe vida, "¿por
qué no hemos detectado señales alienígenas en el espacio, algo así como
concursos televisivos extraterrestres?", se pregunta el científico, quien
cree que una de las opciones es que no haya más vida. Según Hawking, si
existe algo o alguien lo suficientemente inteligente para enviar señales al
espacio, lo es también para fabricar armas nucleares.
"La vida primitiva es muy común y la vida inteligente es
más bien rara (...). Algunos dirían que aún no existe en la Tierra", ha
señalado, para después señalar con humor: "Tened cuidado si os topáis con un
extraterrestre porque podríais contraer una enfermedad para la que no
tendréis defensas".
Hawiking durante su ponencia ¿por qué debemos explorar
el espacio? durante la celebración de los 50 años de la NASA
Fuente: elpais.com, 22 de Abril de 2008
-Google sigue siendo la compañía mas
poderosa
En la clasificación, que incluye las cien marcas más poderosas y valiosas a
nivel internacional y cumple su tercera edición, también figuran cuatro empresas
españolas: Banco Santander, BBVA, Zara y Telefónica Movistar. En la cúspide
destaca figura Google, el buscador de Internet más popular, con un valor de algo
más de 86.000 millones de dólares, un 30% más que el año pasado.
"La posición de Google se debe a una fantástica actuación financiera y al
valor de su capital", comentó el director de contabilidad internacional de
Millward Brown, Peter Walshe.
En segunda posición aparece el conglomerado industrial, financiero y de
medios de comunicación General Electric (GE), con casi 71.380 millones de
dólares, seguido del gigante informático Microsoft, con un valor de 70.890
millones de dólares. Entre los diez primeros se encuentran Coca-Cola (cuarto
puesto), empresa a la que siguen China Mobile, IBM, Apple, McDonald's, Nokia y
Marlboro.
España está presentada por cuatro compañías, la primera de las cuales es el
Banco Santander, que ocupa el puesto 48 con un valor de 14.550 millones de
dólares. En el lugar 77 se coloca su competidor BBVA, con un valor de 9.460
millones de dólares, mientras la cadena de tiendas de ropa Zara aparece en el
puesto 84 y valorada en 8.690 millones de dólares. El grupo de
telecomunicaciones Telefónica Movistar, por su parte, ocupa el lugar 88, con un
valor de 8.120 millones de dólares.
El valor combinado de todas las marcas del ránking se incrementó un 21%, al
pasar de 1,6 billones de dólares en 2007 a 1,94 billones de dólares en 2008.
"El ránking de marcas de este año demuestra la importancia de invertir en
marcas, especialmente en momentos de turbulencias en los mercados", afirmó
Joanna Seddon, consejera delegada de Millward Brown.
"Nuestros datos -agregó Seddon- muestran que las marcas fuertes siguen
superando a las débiles en cuota de mercado y en precios de acciones durante las
recesiones".
La clasificación de Millward Brown se hace a partir un sondeo de opinión de
un millón de consumidores en todo el mundo y de diversos datos financieros sobre
50.000 marcas internacionales.
Fuente: cincodias.es, 22 de Abril
-La era de la clonación 2.0
La posibilidad de reprogramar células de piel
para que actúen como embrionarias estimula el diseño de nuevas aplicaciones,
como recuperar especies y crear gametos ‘artificiales’
“La extinción es para siempre”, dice un
clásico lema ecologista. Y lo será, pero con matices. El padre del
conservacionismo en EEUU, Aldo Leopold, decía que “la primera regla del
bricolaje inteligente es guardar todas las piezas”. Sin saberlo, Leopold acuñaba
así una oportuna metáfora sobre la clonación, la tecnología que podría refutar
el viejo adagio sobre la extinción. Siempre, claro está, que alguien se preocupe
de rescatar la pieza que basta –en teoría– para devolverle la vida a una
especie: sus células, la caja fuerte que conserva su precioso ADN.
El pasado viernes, el diario británico
The Independent informaba de un nuevo
proyecto de la Real Sociedad Zoológica de Escocia y de la Universidad de
Edimburgo para salvar de la desaparición a la subespecie septentrional del
rinoceronte blanco, de la que apenas quedan unos pocos ejemplares en libertad.
Para engrosar el caudal genético del grupo y aumentar el número de individuos,
los científicos recurrirán a una novedosa técnica de clonación, llamada
reprogramación celular, que popularmente
ha llegado a conocerse como la segunda vía.
Órganos de repuesto
Hace 11 años, la oveja Dolly inauguró
la era de la clonación. Basándose en que un óvulo vaciado de su ADN es capaz de
devolver el núcleo de una célula adulta a su estado embrionario, investigadores
del Instituto Roslin de Edimburgo clonaban una oveja a partir de una célula de
sus mamas –lo que inspiró a los creadores del primer mamífero clónico para
bautizar a su criatura haciendo un homenaje a la cantante y actriz Dolly Parton–.
La oveja clónica fue la exhibición del
rutilante poder de la tecnología que, en su aplicación humana y a ras de suelo,
no busca fabricar personas completas, sino partes de ellas: piezas de recambio
que ayuden a reparar una médula espinal partida, un páncreas incapaz de surtir
insulina o un cerebro dañado por el alzhéimer o el párkinson.
A pesar de su potencial beneficioso, la
llamada clonación terapéutica se topó con el rechazo de ciertos colectivos,
debido a que la técnica exige crear embriones tempranos, que son destruidos para
obtener la fuente celular destinada a la regeneración de órganos. Por este
motivo, sectores conservadores, como el Vaticano y el Gobierno de George Bush,
aplaudieron el pasado noviembre la culminación de la reprogramación celular, que
ha detonado una segunda revolución de los clones.
Partiendo de células de la piel,
científicos de Japón y EEUU lograron obtener células pluripotentes –que no
originan individuos completos, pero sí cualquiera de sus tejidos– mediante un
rutinario proceso de modificación genética. Aunque el método de reprogramación
aún no es transferible a la clínica, por sus riesgos sanitarios, esta segunda
vía ha suscitado entusiasmo, por su sencillez.
Clones contra la extinción
La pasada semana, la compañía
estadounidense Advanced Cell Technology (ACT), pionera en clonación, anunció un
nuevo hito: la obtención de ratones clonados a partir de células de piel
reprogramadas (iPS). Según explicó Robert Lanza, director científico de la
empresa, el logro consistió en inyectar células iPS en embriones normales. Los
animales resultantes son quimeras o clones parciales; algunas de sus células
provienen del embrión y otras de las iPS, con lo que poseen tres padres
biológicos. Seleccionando ejemplares con óvulos y esperma procedentes de las iPS,
el cruce transmite a los hijos sólo el ADN de éstas.
Una aspiración práctica de este
concepto es recuperar especies en peligro de extinción. ACT colabora con
científicos chinos para clonar osos panda con células iPS. Algo similar pretende
el nuevo proyecto del rinoceronte anunciado por la Universidad de Edimburgo y al
que se ha unido Ian Wilmut, uno de los creadores de Dolly. Los investigadores
recogerán células de rinocerontes blancos septentrionales y los inyectarán en
embriones de los meridionales, para después seleccionar, de las quimeras, los
ejemplares que produzcan óvulos y esperma de la subespecie del norte. Así, la
segunda generación será pura.
Para Wilmut, la técnica es más
prometedora y práctica que la utilizada para dar vida a Dolly, que ACT ya ensayó
en 2000 para clonar el gaur, un bóvido asiático amenazado. En aquella ocasión se
consiguió un embarazo a término, pero el ternero sucumbió a los dos días. Por
entonces, ACT anunció que había llegado a un acuerdo con las autoridades
españolas para abordar la clonación del bucardo o cabra montés del Pirineo (Capra
pyrenaica pyrenaica), cuyo último ejemplar, una hembra llamada Celia,
murió por la caída de un árbol en enero de 2000. Una muestra de su oreja se
congeló antes de su muerte y se envió a ACT, pero la clonación fracasó.
No todo está perdido: las células de
Celia aún se conservan en tres laboratorios en Madrid y Aragón, según precisa
José Folch, jefe de la Unidad de Tecnología de Producción Animal del Centro de
Investigación y Tecnología Agroalimentaria de Aragón. Folch, que estuvo al
frente del proyecto del bucardo, es tajante al afirmar que esta línea está
“paralizada”. “Siempre se podrá reiniciar cuando las circunstancias sean
favorables”, lo que para este científico debería traducirse en “fondos, personal
y tiempo”. Mientras, las células de la última bucarda duermen el sueño de la
extinción, en un congelador.
Posibles quimeras humanas
La potencia de las iPS no acaba aquí.
Lanza advertía de que alguien podría tratar de obtener quimeras humanas. En un
ejemplo que ha utilizado repetidas veces, el director científico de ACT
ironizaba con la creación de bebés a la carta,
niños que llevarían, por ejemplo, un porcentaje de Einstein.
No obstante, lo que ha congelado los
aplausos de los sectores reticentes es que las iPS no sólo pueden producir
tejido nervioso o hepático, sino también células germinales –óvulos y esperma–.
Estos gametos artificiales podrían
proporcionar descendencia a parejas homosexuales o estériles, además de alumbrar
lo que algunos críticos llaman el “incesto supremo”: óvulo y esperma de la misma
persona.
Así, todos los caminos llevan al
embrión. El debate ha brotado en el Reino Unido, inmerso en un proceso de
regulación en este terreno. Aunque los expertos dudan de la viabilidad de los
gametos artificiales –al menos en los
próximos 20 años–, la ciencia es un fluido que no suele dejar ninguna grieta sin
explorar.
Fuente: publico.es, 22 de Abril
de 2008
-El día de la Tierra
El
Día de la Tierra , que se
celebra hoy en todo el mundo, es uno de los mejores ejemplos del poder de una
sociedad civil movilizada. Su promotor, el ex senador por Wisconsin Gaylord
Nelson, convocó el 22 de abril de 1970 una marcha multitudinaria en EEUU para
"agitar el establishment político y forzar la introducción del medio ambiente en
la agenda nacional". Fue una apuesta arriesgada, pero funcionó.
Aquel 22 de abril, 20 millones de ciudadanos se apropiaron de la calle para
demostrar la fuerza del movimiento ecologista. El Día de la Tierra consiguió
unir a republicanos y demócratas, a ricos y pobres, a urbanitas y agricultores.
El Gobierno de EEUU se vio obligado a crear la Agencia de Protección del Medio
Ambiente y a promulgar diferentes leyes sobre la limpieza del agua, la calidad
del aire y la protección de especies amenazadas.
La
sequía en España existe una grave carencia de lluvías
En 1990, el Día de la Tierra salió de su lugar de origen y se convirtió en
una reivindicación global. Hoy, más de 5.000 organizaciones ecologistas de todo
el mundo apoyan la iniciativa alumbrada por Nelson.
El pasado domingo, unas 15.000 personas se manifestaron en Madrid para exigir
a las administraciones públicas que actúen "ya" frente al cambio climático, en
un acto organizado para conmemorar el
Día
de la Tierra en España . El comunicado de los manifestantes, convocados por
cuarenta asociaciones ecologistas, sindicales y vecinales, retomó el espíritu
contestatario nacido el 22 de abril de 1970: "Reduzcamos las emisiones de
dióxido de carbono tanto como nos dicen los científicos, no los poderes
económicos", clamaron.
Fuente: publico.es, 21 de Abril de 2008
-Expertos españoles hallan soluciones a
un problema matemático de un siglo
Un grupo de investigadores catalanes se acaba de enfrentar
con éxito a uno de los problemas matemáticos más viejos e importantes que
quedaban por resolver, y que se llevaba resistiendo a científicos de todo el
mundo desde hace un siglo. Gracias al superordenador Finisterrae, situado en
Galicia y considerado entre los más poderosos del planeta, un equipo de la
Universidad Politécnica de Cataluña (UPC) ha sentado las bases para resolver, a
falta de que la comunidad internacional refrende sus resultados, el llamado
problema de los puntos de Fekete, uno de los desafíos matemáticos más
importantes de los últimos tiempos.
Puntos situados sobre distintas superficies, cuya disposición más
estable ha sido lograda con cálculos desde el ordenador Finisterrae
Los científicos españoles, encabezados por Enrique Bendito, usaron un
algoritmo que ellos mismos habían desarrollado hace unos años y mediante el cual
el supercomputador Finisterrae ha logrado alcanzar soluciones sin precedentes
para el problema de Fekete, el cual se encuentra en el número siete de la lista
Smale, que agrupa los retos matemáticos más importantes que aún no han podido
ser resueltos. El problema plantea cómo se han de distribuir una serie de
partículas sobre una superficie -en concreto, una esfera- para alcanzar una
configuración estable. Cuanto menor es la energía potencial del conjunto de los
puntos, más estable será la configuración, algo que, más allá del reto teórico,
se ha de tener en cuenta en la industria química para crear moléculas
estables.
"Hemos podido realizar con el Finisterrae cálculos que con ordenadores
normales no podíamos. Gracias a esto, se ha desvelado que tenemos un algoritmo
que permite resolver esta clase de problemas", ha indicado Bendito a elmundo.es.
El grupo de la UPC ha logrado soluciones para decenas de miles de puntos de
Feteke, mientras que los anteriores intentos de otros expertos se solían quedar
en los 1.000 o, como mucho, 2.000.
Gracias a estos resultados, Bendito y sus colegas confían en el problema de
Fekete, tal y como quedó establecido en la lista de Smale, podrá darse por
resuelto de forma oficial, pero esto no ocurrirá hasta que la comunidad
internacional dé su refrendo al equipo de la UPC.
El trabajo con el superordenador, que llevó dos semanas en febrero,
exigió unas 350.000 horas de cálculo; de haberse usado sólo una de las
CPUs del FinisTerrae, hubiera hecho falta nada menos que 40 años. En el cálculo
con un millón de puntos, 1.024 CPUs trabajaron en paralelo durante día y medio.
Las Islas Canarias han tenido siempre en su clima uno de sus mejores y más
importantes atractivos. "Y va a seguir siendo así", explica Emilio
Cuevas-Agulló, "aunque tengamos que ir adaptándonos a algunos cambios que ya
estamos viviendo como consecuencia del cambio climático".
El coordinador de la Delegación Territorial de la Agencia Estatal de
Meteorología (AEMET) en Canarias está preparando, junto a su equipo, nuevos y
mejores modelos, con mayor resolución, para ofrecer proyecciones climáticas que
permitan que la sociedad canaria se vaya adaptando a la nueva realidad de su
clima. La semana pasada, la Delegación Territorial de la AEMET presentó un
informe sobre este asunto que indica que las temperaturas, tanto en las islas
occidentales como en las orientales, subirán 0,5ºC en 2010, 1ºC en 2030 y 2ºC en
2060. A medida que ascendemos en la orografía la proyección de temperatura
indica también una subida: entre 1ºC a nivel del mar a 2,5ºC en cumbres para el
año 2030. En cuanto a las proyecciones de precipitación, muestran reducciones en
valor absoluto mayores para las islas con más precipitaciones, (islas
occidentales), aunque en este capítulo todavía existen grandes incertidumbres
con respecto a su evolución.
El
fenómeno de la calima producido por la arena del sáhara está siendo más
frecuente
Poco usuales e inesperados
Y es que fenómenos adversos como la tormenta tropical de El
Delta que azotó Tenerife hace cuatro años "no se lo esperaba nadie porque,
supuestamente, no se daban las condiciones necesarias para ello", explica el
experto. "Una tormenta tropical de este calibre sólo era previsible con
un mar cálido, y el Atlántico es demasiado frío. Pero el caso es que ha ocurrido
y eso nos lleva a pensar que puede volver a ocurrir y que las consecuencias del
cambio climático están detrás de este tipo de fenómenos", añade.
En el informe presentado por la delegación territorial del
AEMET se recogen datos que demuestran que se ha registrado un incremento
significativo de las temperaturas en el Archipiélago, en todos los niveles, a
partir de principios de los años ochenta. También se explica que, en los últimos
años, se ha producido un aumento en la frecuencia e intensidad de episodios
meteorológicos extremos, como olasde calor, calimas, lluvias y vientos intensos.
Y que ya se detectan en Canarias todos los parámetros característicos del cambio
climático.
El hecho de ser un territorio insular (rodeado de mar)
resulta una ventaja a pesar de que el océano también está sufriendo un aumento
en su temperatura. "El efecto amortiguador del mar es una realidad", explica
Emilio Cuevas, "porque todos los fenómenos adversos que está sufriendo en los
últimos años este territorio son mucho más fuertes en las estaciones que el
AEMET tiene en el interior que en las zonas costeras, donde los efectos se
suavizan mucho más".
El informe cita el ejemplo de las noches tropicales, que son
aquellas en las que la temperatura no baja de 20º centígrados. El viento o las
calimas, mientras tanto, son más intensas en las zonas de cumbre que junto a la
costa.
Ecologistas descontentos
El coordinador de la delegación territorial se niega a ser catastrofista
"porque Canarias va a seguir disfrutando de un clima benigno y de sus
privilegios". Sin embargo, alerta de que "lo que no se puede poner en duda" es
que determinados episodios meteorológicosque antes eran muy poco frecuentes en
las islas, como las olas de calor, calimas, lluvias y vientos muy fuertes, a
partir de ahora "van a estar mucho más presentes y que habrá que adaptarse a
ello".El movimiento ecologista más importante de Canarias, el colectivo Ben
Magec, cree que la insostenibilidad del modelo de transporte es una de las
razones principales de la contaminación y, por tanto, de las posibles
consecuencias del cambio climático que se están produciendo en Canarias.
Su portavoz, Antonio Hernández, denuncia que algunas islas, como la de
Lanzarote, carecen de transporte público; que otras como Fuerteventura se están
desertizando y que el archipiélago tiene una tasa de 700 coches por cada mil
habitantes, sólo por debajo deciudades como Madrid y Barcelona. La apuesta de
Ben Magec pasa por las energías renovables, "de las que sóloutilizamos un 5%
para el total de producción eléctrica".
Fuente: publico.es, 20 de Abril de 2008
-Las llamaradas solares
hacen temblar al Sol
El satélite de la
NASA/ESA SOHO muestra claramente como se expanden las ondas alrededor del
Sol tras producirse una llamarada solar que explota en la superficie de la
estrella. Estas observaciones les están dando a los físicos solares un nuevo
punto de vista desde el que pueden entender mejor los fenómenos producidos en el
sol y en otras estrellas.
El interior del sol
es un agitado maelstrom de gases ardientes. La turbulencia causa ondas que se
entrecruzan en la superficie solar, haciendo que ascienda y descienda en un
entramado de picos y valles. El SOHo ha demostrado ser una observatorio
excepcional para estudiar este fenómeno. Descubrir como las ondas se mueven
alrededor del sol ha proporcionado una valiosa información sobre las condiciones
reinantes en el interior de la estrella. Un tipo de oscilaciones llamadas las
oscilaciones de los cinco minutos, con una frecuencia de 3 milihertzios han sido
de una gran utilidad.
Según a una creencia
convencional, las oscilaciones de cinco minutos pueden ser vistas como si fuera
el sonido generado por una campana situada en el desierto al ser golpeada
azarosamente por granos de arena que el viento arrastra. Sin embargo, lo que
Christoffer Karoff y Hans Kjeldsen (Universidad
Asrhus, Dinamarca) observaron en sus datos fue diferente.
"La señal que vimos fue como si alguien ocasionalmente se
acercara a la campana y la golpeara. Esto nos indica que existe algo que no
logramos entender sobre el funcionamiento del sol"
Así que ellos empezaron a buscar al responsable de aquel
fenómeno y descubrieron una inesperada correlación con las llamaradas solares.
Había una relación entre el número de llamaradas solares y la fuerza de las
oscilaciones de cinco minutos.
"La correlación era tan fuerte que no había duda sobre
ello", dijo Karoff.
Diagrama frecuencia frente al tiempo de las
oscilaciones solares mediadas por SOHO. Los colores indican la fuerza de las
oscilaciones.
Las líneas horizontales más brillantes están
correlacionados fuertemente con las llamaradas, representadas en el panel de la
derecha (rayos X solares).
Estas líneas son más prominentes en la región de
alta frecuencia del espectro.
Un fenómeno similar es conocido en la Tierra después de
producirse grandes terremotos. Por ejemplo, después del terremoto de Sumatra-Andaman
todo el planeta vibró con las ondas sísmicas producidas. igual que si fuera una
campana, varias semanas.
SOHO
Las investigaciones no han acabado, ahora se busca saber
el mecanismo que hace que las llamaradas produzcan las oscilaciones. " No
estamos totalmente seguros de que las llamaradas solares generen las
oscilaciones globales" dijo Karoff.
En un contexto más amplio, la correlación sugiere los
astrónomos podrían monitorizar oscilaciones similares en otras estrellas gracias
a la detección de llamaradas emitidas. Karoff ya ha podido poner en práctica su
descubrimiento en otras estrellas parecidas al sol gracias al uso de
instrumentos de alta tecnología instalados en telescopios terrestres. En algunos
casos detectó signos de oscilaciones que podrían estar generados por llamaradas.
El científico dijo que necesitaba cientos de días para monitorizar esas
estrellas. Para ello se ayudará de las sondas CNES y COROT. El duro trabajo no
ha hecho más que empezar.
Pulsa
aquí para ver las llamaradas solares
captadas por SOHO.
Fuente:
esa.es, 18 de Abril de 2008
-¿Extraterrestres? poco
probables
Será muy difícil que los seres humanos nos enteremos si
compartimos el universo con otras formas de vida inteligente, de acuerdo a los
cálculos de un científico británico.
Un mundo habitado por seres inteligentes como la Tierra podría encontrarse a
distancias tan grandes que serían inalcanzables por la humanidad
Los seres inteligentes como nosotros somos una rareza en el universo, según
el profesor Watson
Sólo nos quedan mil millones de años para encontrar una especie tan
inteligente como la nuestra
Según el estudio del profesor Andrew Watson, publicado en la
Revista de Astrobiología del Reino Unido, las probabilidades de que alguna vez
los astrónomos detecten vida extraterrestre antes de que desaparezca la raza
humana son muy escasas. El problema, según Watson, es que las
posibilidades de encontrar algún tipo de vida en planetas similares a la Tierra
son remotas de por sí. Más difícil aún, dentro del campo de las
probabilidades, será encontrar seres complejos con una inteligencia
desarrollada.
Los argumentos de Watson, académico de la
Universidad de East Anglia, Inglaterra, se basan en el tiempo que le toma
evolucionar a una forma de vida primitiva hasta convertirse en seres complejos e
inteligentes. El período "habitable" en un planeta como la Tierra -estimado en
5.000 millones de años- difícilmente permitirá la evolución de vida compleja,
según Watson.
"Creemos que evolucionamos al final del período habitable de
la Tierra, y esto sugiere que nuestra evolución futura será poco probable", dice
Watson.
Según el especialista en temas científicos de la BBC Neil
Bowdler, la tesis de Watson se basa en pruebas matemáticas.
"La vida en la Tierra ha existido alrededor de 4.000 millones
de años, y los seres humanos aparecimos recién hace 200.000", explica Bowdler.
"A menos de que construyamos una nave espacial, no nos queda
mucho tiempo, ya que en 1.000 millones de años el Sol se calentará tanto que la
vida en nuestro planeta desaparecerá",
Las conclusiones de Watson apuntan que la evolución toma
mucho tiempo y dura muy poco, por lo tanto los seres humanos somos una verdadera
rareza en el universo.
Esperanzas
Según Watson, los astrónomos tienen que descubrir decenas de
miles de planetas con las mismas condiciones de la Tierra antes de que hallemos
un lugar que pueda acoger organismos sofisticados. Aunque las estadísticas
puedan resultar decepcionantes, los amantes de los extraterrestres no deberían
perder las esperanzas. Los astrónomos han hecho un progreso admirable en
los últimos tiempos y han detectado cerca de 300 planetas afuera de nuestro
sistema solar.
También han podido identificar vapor de agua y metano en un planeta que queda
a años luz de distancia, y no sería raro que encuentren evidencias concretas de
vida extraterrestre -por más primitiva que esta sea- cerca de casa, ya sea en
Marte o en alguna de las lunas de nuestro sistema solar. Los mil millones de
años que nos quedan a los seres humanos en la Tierra quizás nos den el tiempo
suficiente para comprobar al fin que en este vasto universo, no estamos solos.
Fuente: BBC Mundo, 17 de Abril de 2008
-Darwin online
La versión original manuscrita de la teoría de la
evolución del naturalista inglés Charles Darwin (1809-1882), presentada en su
monumental obra 'El origen de las especies', estará disponible a partir de hoy
en internet.
El primer borrador del escrito, considerado uno de los documentos más
importantes de la historia de la ciencia, se publicará junto a miles de
documentos del científico que han sido colgados en la red por la Universidad de
Cambridge (sur de Inglaterra).
"El
origen de las especies" en su primera edición en danés
Los documentos pueden ser consultados, de forma gratuita, en la página del
proyecto
'Darwin online'.
Según la Universidad de Cambridge, la publicación 'online' es la mayor de
este tipo e incluye alrededor de 20.000 artículos y casi 90.000 imágenes.
"Además del primer borrador de su teoría de la evolución, la vasta colección
de artículos relacionados con Darwin incluye miles de notas y borradores de sus
escritos científicos, así como notas de su expedición en el barco Beagle",
añadió.
Fotografías en familia
En la página web pueden encontrarse, igualmente, fotografías de Darwin y su
familia, recortes de prensa, críticas de sus libros e, incluso, un libro
de cocina de su mujer, Emma Darwin.
Charles Robert Darwin nació en Shrewsbury (centro inglés) en el seno de una
familia acomodada de la Inglaterra Victoriana.
Hijo y nieto de médicos, estudió durante dos años medicina en Edimburgo para
seguir luego estudios de teología en Cambridge, donde uno de los profesores, el
naturalista John Stevens Henslow, despertó su interés en las ciencias
naturales.
Por recomendación de ese profesor y con sólo 22 años se embarcó en el Beagle
como naturalista de una expedición alrededor del mundo que iba a durar casi
cinco años: desde el 27 de diciembre de 1831 al 2 de octubre de 1836.
Viaje silvestre
Ese viaje, en el que recorrió las costas atlántica y pacífica de Suramérica,
le permitió estudiar las aguas y corrientes oceánicas y la geología y vida
silvestre de muchos lugares de América Latina, así como hacer expediciones para
recoger especímenes de la flora y la fauna y ver como éstas variaban según los
distintos lugares.
Ya de vuelta en su país, influido por el geólogo Charles Lyell y el
economista Thomas Malthus, desarrolló su teoría de la selección natural: los
seres vivos tienen una ascendencia común y la diversidad de especies es
resultado de la acción de la selección natural a lo largo de los
milenios.
A su libro más famoso, 'El origen de las especies', publicado el 24 de
noviembre de 1859, siguió en 1871 'El Origen del hombre', que aplica su teoría
de la evolución al hombre, al que presenta como un animal emparentado con el
mono.
El padre de la teoría de la evolución murió en 1882, y sus restos están
enterrados en la abadía londinense de Westminster.
Fuente: elmundo.es, 17 de Abril de 2008
-Muere Edward Lorenz, el padre del Caos
Edward Lorenz, padre de la teoría del caos y
quien mostró cómo pequeñas acciones pueden provocar grandes cambios en lo que
podría ser conocido como el "efecto mariposa", falleció el miércoles a los 90
años debido a un cáncer, dijo el Instituto de
Tecnología de
Massachusetts.
Lorenz, un meteorólogo, descubrió en la década de 1960 que
las pequeñas diferencias en un sistema dinámico como la atmósfera podrían
desencadenar enormes cambios. En 1972 presentó un estudio titulado "Predictibidad:
¿El batir de las alas de una mariposa en Brasil provoca un tornado en Texas?".
Nacido en 1917 en West Hartford, Connecticut, Lorenz obtuvo
títulos en matemáticas de la Escuela de Dartmouth en 1938, de la Universidad de
Harvard en 1940, y títulos en meteorología del Instituto Tecnológico de
Massachusetts (MIT, por sus siglas en inglés) en 1943 y 1948. Mientras trabajaba
como hombre del tiempo para la División Aérea del Ejército de Estados Unidos en
la Segunda Guerra Mundial, decidió estudiar meteorología.
"Cuando era niño siempre estuve interesado en hacer cosas con
números y también estaba fascinado con los cambios en el clima", escribió Lorenz
en una autobiografía.
"Al mostrar que ciertos sistemas deterministas tienen límites
de predictibilidad formales, Lorenz puso el último clavo en el ataúd del
universo cartesiano y fomentó lo que algunos han llamado la tercera revolución
científica del siglo XX, pisándole los talones a la relatividad y la física
cuántica", dijo Kerry Emanuel, profesor de
ciencia atmosférica en
MIT.
"También era un perfecto caballero y a través de su
inteligencia, integridad y humildad fijó un muy alto estándar para las
generaciones siguientes", añadió Emanuel en un comunicado.
En 1991, Lorenz ganó el Premio Kioto de ciencias básicas en
el campo de tierra y ciencias planetarias.
El comité del premio dijo que Lorenz "hizo su más atrevido
logro científico al descubrir el 'caos determinista', un principio que ha
influenciado profundamente un amplio rango de ciencias básicas y provocó uno de
los más dramáticos cambios en la visión que la humanidad tenía de la naturaleza
desde Sir Isaac Newton".
Lorenz, quien disfrutaba del excursionismo y el esquí de
fondo, se mantuvo activo hasta dos semanas antes de su muerte en su hogar en
Cambridge, Massachusetts, dijo su familia. Dejó tres hijos y cuatro nietos.
Fuente: Reuters, 17 de Abril de 2008
-Abaratan el estudio del genoma humano
La lucha por poner la secuenciación del genoma humano al alcance de
cualquiera ha dado un paso de gigante inmortalizado esta semana en las páginas
de Nature. Allí se expresa en toda su gloria el logro de 454 Life Sciences, la
empresa que hace un año secuenció el genoma completo de James Watson, el
codescubridor de la estructura del ADN y el segundo ser humano después de Craig
Venter en mirar su propio genoma a la cara. Sólo que el de Watson ha salido
mucho más barato: de 100 millones de dólares a 1 millón, lo que al cambio actual
es una verdadera ganga, 620.000 euros.
Por supuesto sigue siendo una cantidad respetable. Pero teniendo en cuenta la
enormidad del esfuerzo y de la tecnología implicada supone un avance
considerable para que la secuenciación genética deje de constituir una
excentricidad científica, cuando no un lujo, para devenir algo operativo. La
clave es el paso del método secuenciador de Sanger, el que se utilizó para el
genoma de Craig Venter, al método 454.
Secuencias a gran escala
El sistema de Sanger requiere instrumentos muy voluminosos para ejecutar
complicadas operaciones casi de destilación proteínica, una sutil alquimia
deductiva que como mucho permite descifrar 67.000 bases en una hora. Con la
técnica 454, que actúa por pirosecuenciación y luminiscencia, se puede
determinar una secuencia de 20 millones de bases en poco más de cuatro horas y
media. Eso sale mucho más barato y es ideal para acometer secuencias a gran
escala.
Hasta el punto de que se atrevieron con un genoma humano individual completo. Al
profesor Watson se le hizo solemne entrega el 31 de mayo de 2007 de su propio
retrato genético diploide (comprendiendo el número completo de copias del
genoma, tanto las procedentes del padre como de la madre). Previa consulta del
interesado con un «consejero genético» -ya existen esas cosas, sí- ahora se
somete al escrutinio público en las páginas de Nature. Watson sólo se ha
reservado para su privacidad una alteración genética que implica cierta
propensión teórica a contraer el mal de Alzheimer.
Detalles así dan la medida de los riesgos incluso psicológicos que corren Watson,
Venter y otros pioneros estelares del ADN. Por un lado tienen la oportunidad de
«conocerse» por dentro como ningún ser humano lo ha hecho hasta ahora, de
encargarse medicamentos, dietas y hasta entornos vitales a medida. Por otro lado
está el vértigo de ver expuestos sus puntos flacos potenciales ante el público.
Un genoma público implica que uno es sospechoso de enfermedades que ni siquiera
ha contraído y que a lo mejor no contraerá nunca.
Estos riesgos no se corren por vanidad ni porque sí. La elección de estas
personalidades como conejillos de indias de los primeros secuenciadores del
genoma tiene un impacto publicitario evidente para la causa, y tiene incluso un
interés científico añadido. Hablamos de superestrellas de la ciencia, de mentes
de primera magnitud. Cualquier mutación o rareza suya interesa.
Más barata, más precisa
Además en este caso se han detectado muchas pautas originales. Como destaca
Richard A. Gibbs, máxima autoridad genética de la Universidad de Baylor, en
Texas, y jefe del estudio aparecido en Nature, la secuenciación 454 no sólo es
más barata sino más precisa. Detecta muchas más variaciones: si en el ADN de
Craig Venter se detectaron 3,3 millones de polimorfismos simples (variaciones
genéticas individuales), 600.000 de los cuales eran inéditos para la ciencia, en
el caso de Watson se han añadido 200.000 novedades más. Con la ventaja extra de
que se evita la destrucción de las proteínas estudiadas y también su alteración
por el efecto de bacterias que distorsionaban su desciframiento.
Descifrar el jeroglífico
Ahora el siguiente reto es cómo interpretar semejante alud de resultados. Los
investigadores genéticos avanzan de momento más a ciegas de lo que parece.
Todavía es pronto para traducir al pie de la letra las variaciones genéticas a
variaciones seguras de fenotipos, más allá de la propensión a determinadas
enfermedades. El genoma es un jeroglífico frondoso repleto de significados
todavía muy ocultos.
Por eso es tan importante secuenciar más y más genomas, para engordar las bases
de datos y dar más pistas a la ciencia. Michael Egholm, coautor del estudio
publicado en Nature y vicepresidente de 454 Life Sciences, afirma que este éxito
de su empresa es sólo un mojón en el camino que lleva a la secuenciación
genética de «rutina». Antes de acabar 2008 espera lanzar innovaciones
tecnológicas que permitan reducir más aún los costes económicos y la potencia
del proceso.
Fuente: ABC.es, 17 de Abril de 2008
-La NASA prolonga la vida de Cassini-Huygens
La NASA ha anunciado que extenderá durante dos años más la
misión de la sonda internacional Cassini-Huygens, cuyos "asombrosos
descubrimientos e imágenes han revolucionado el conocimiento de Saturno y sus
lunas", y que conforme a los planes previstos debería haber terminado en julio
de este año.
El anuncio, que como es habitual lo ha realizado el
Laboratorio de Propulsión a Chorro (JPL) de la agencia espacial estadounidense,
indica que la prórroga permitirá que la sonda complete otras 60 órbitas sobre el
planeta, y realizará decenas de aproximaciones a algunas de las 20 lunas que
giran en torno a Saturno.
Durante cuatro años de actividad continua, Cassini ha
transmitido casi 140.000 imágenes e información recogida durante 62 órbitas en
torno a Saturno, 43 aproximaciones a Titán y 12 más a las otras lunas. Más de
diez años después de su lanzamiento y casi cuatro años después de entrar en la
órbita de Saturno, Cassini es una nave espacial "saludable y robusta", en
palabras de la NASA.
Trabajo sin cesar
El JPL detalla que la nave realizará 26 aproximaciones a
Titán, siete a Encélado y una a Dione, Rhea y Helene respecticamente, en en
desplazamientos que incluirán estudios a los anillos de Saturno, su magnetosfera
y el planeta mismo.
"Esta ampliación no solo es una motivación para la comunidad
científica sino para que todo el mundo continúe descifrando los secretos de
Saturno", ha señalado Jim Green, director de la División de Ciencias Planetarias
de la NASA. "Los descubrimientos han sido la característica de su éxito junto
con las asombrosas imágenes que ha transmitido a la Tierra y que son
alucinantes", ha añadido.
Como afirma Bob Mitchell, director del programa de la nave en
JPL, "Cassini está trabajando excepcionalmente bien y nuestro equipo está
motivado por la perspectiva de otros dos años". Basados en la información que ha
transmitido la sonda, los científicos piensan que Enceladus alberga agua en
forma líquida bajo su superficie.
Esa información también señaló que Titán, la mayor de las
lunas de Saturno, es ahora como pudo haber sido la Tierra en el comienzo de su
evolución. Esa luna tiene lagos, ríos, canales, dunas, lluvia, montañas y
posiblemente volcanes.
Fuente:. adn.es, 16 de Abril de 2008
-La ONU predice un mayor aumento del
nivel del mar
El nivel de los océanos podría subir tres veces más de lo
previsto hasta la fecha, según los datos presentados durante la Asamblea General
de la Unión Europea de Geociencias (EGU, por sus siglas en inglés) que se
celebra en Viena.
Los nuevos cálculos, realizados por científicos del
Laboratorio Oceanográfico Proudman (Reino Unido), indican que hasta el año
2.100 el nivel del mar podría subir entre 0.8 y 1.5 metros, una previsión
muy superior a los 79 centímetros máximos calculados por el Grupo
Intergubernamental de Expertos sobre el Cambio Climático (IPCC por sus
siglas en inglés).Este órgano de científicos establecido por la ONU en 1988,
publicó en febrero del 2007 un estudio que vaticinaba que, a finales del
presente siglo, la cota de los océanos podría elevarse en entre 18 y 59
centímetros, debido al creciente deshielo de los casquetes polares. Según el
IPCC, esa cota podría elevarse incluso más, hasta los 79 centímetros, si los
hielos permanentes de Groenlandia se derritieran a una velocidad
proporcional a la del aumento de la temperatura del planeta.
La nueva previsión, presentada por Simon Holgate y
Svetlana Jevrejeva, es fruto del trabajo del Servicio Permanente de Medición
del Nivel del Mar, que recoge desde el año 2003 información sobre este tema
desde 2.000 centros de control en todo el mundo. Para Holgate, las actuales
previsiones del IPCC, que recibió en el 2007 el Premio Nobel de la Paz, son
consideradas como prudentes en los ambientes científicos.
Aparte de la desaparición de los hielos polares, la
disolución de los glaciares tiene también un fuerte impacto en la subida del
nivel oceánico. Durante la asamblea de la EGU, se han actualizado los datos
de la influencia de la fundición de los glaciares en este proceso,
elevándola desde los actuales 1,1 hasta 1,4 mililitros, según una
presentación de Grahan Cogley, de la universidad canadiense de Trent.
Si hace 50 años la extensión total de los glaciales
equivalía a la superficie de Francia, Bélgica e Inglaterra, hoy día el
equivalente a todo el territorio belga había desaparecido ya. El
calentamiento del planeta también está afectando a Groenlandia, donde, según
Marco Tedesco, de la Universidad de Nueva York, se está acelerando la
pérdida de la capa de hielo debido a que las temperaturas en la superficie
en esta región son cuatro grados superiores a lo normal.
La Asamblea de la Unión Europea de Geociencias, fundada
en 2002 para servir de foro de intercambio entre distintas ciencias
relacionadas con el medioambiente, reúne en Viena desde el pasado lunes y
hasta el viernes próximo a más de 8.000 científicos de disciplinas como la
geología, la climatología y la oceanografía.
Glacial derritiéndose
Fuente: elpais.com, 16 de Abril de 2008
-España presenta el primer desfibrilador con
control remoto
El Hospital Clínico de Barcelona ha colocado a un paciente de
58 años con insuficiencia cardíaca un desfibrilador, primero de sus
características en España, que permite controlar por internet y por vía
telefónica las constantes vitales, y que, en caso de emergencia, envía un
mensaje para la atención inmediata. El director del Instituto Clínico del Tórax,
Josep Brugada, que ha realizado el implante del dispositivo, ha explicado en
conferencia de prensa que la colocación del desfibrilador, el más sofisticado de
mercado en la actualidad, tuvo lugar el pasado día 8, de manera simultánea con
la de otros catorce, idénticos, en otros puntos del planeta. Este dispositivo,
que en estos momentos cuesta entre 18.000 y 22.000 euros, supone un avance en el
control de los pacientes con insuficiencia cardíaca grave a los que ya se les
implanta un desfibrilador automático que detecta las anomalías y sincroniza el
ritmo del corazón.
Desfibrilador
La novedad de este aparato radica en que
permite el control remoto del paciente gracias a la transmisión directa y en
línea del electrocardiograma, que se envía cada noche por Internet a una página
web y que el personal de enfermería consulta a la mañana siguiente. En caso de
que se produzca alguna emergencia, el dispositivo puede programarse para que
envíe una alerta mediante un mensaje corto de texto (SMS), lo que haría posible
una reacción inmediata. Se calcula que en España existen unas 500.000 personas
con una insuficiencia cardíaca severa, de las que unas 100.000 están afectadas
por una asincronía eléctrica, por lo que podrían ser candidatos a un dispositivo
como el presentado hoy.
Los afectados de insuficiencia cardíaca tienen
un alto riesgo de morir de muerte súbita, que en España causa cada año el
fallecimiento de 35.000 personas, 3.500 en Cataluña. Brugada ha subrayado que
una de las ventajas del dispositivo es que ofrece al paciente una seguridad casi
completa de que su corazón está bajo control y de que pueden detectarse de
inmediato incluso fallos del propio aparato (como la falta de batería o la
desconexión de un cable), lo que es imposible hacer con los desfibriladores que
no incluyen un sistema de transmisión automática de datos. El aparato, fabricado
por la empresa alemana Biotronik, permite también identificar patologías,
prevenir el empeoramiento de las condiciones cardíacas y mejorar la calidad de
vida de los enfermos. El paciente al que se ha colocado el nuevo dispositivo es
un hombre diagnosticado de una insuficiencia cardíaca por miocardiopatía
dilatada, una enfermedad en la que se reduce la capacidad del corazón para
bombear sangre a causa de la dilatación del ventrículo izquierdo.
La intervención para implantarle el
desfibrilador duró dos horas y tras un postoperatorio de un día se fue a su casa
con su medicación habitual. El desfibrilador utilizado por el Clínico incorpora
una batería de larga duración, de unos diez años, lo que mejora la calidad de
vida del paciente, que evitará tener que renovarse el aparato en un corto plazo
de tiempo.
El doctor Brugada ha advertido de que los
centros hospitalarios se enfrentarán en los próximos años al reto de gestionar
la ingente cantidad de datos sobre el estado de salud de sus enfermos con
insuficiencia cardíaca severa, una vez que se generalice este tipo de
dispositivos en línea, lo que ha calculado que ocurrirá en un par de años. Pese
a todo, ha destacado la ventaja que supone este aparato para abordar el control
de los enfermos de insuficienca cardíaca, afección que, según ha dicho, «mata
más que el cáncer».
«A los cinco años de un diagnóstico de
insuficiencia cardíaca, el 50% de los afectados ya ha fallecido», ha asegurado
este especialista.
Fuente: lavozdegalicia.es, RNE 15
de Abril de 2008
-Sustituyen la electricidad por rayos
infrarrojos para lograr ordenadores superrápidos
Ingenieros de la Universidad de Utah han dado un primer paso hacia la
consecución de ordenadores superrápidos que funcionen con un tipo de luz
infrarroja en vez de con electricidad. Han conseguido el equivalente a
cables que transportan y dirigen esta forma de luz, también conocida como
radiación terahercio o rayos-T, que se corresponde con la única porción
desaprovechada del espectro electromagnético.
"Hemos
dado el primer paso para fabricar circuitos que pueden guiar los rayos T",
explicó Ajay Nahata, responsable del estudio y profesor de ingeniería
electrónica. "Eventualmente -en un mínimo de diez años- esto permitirá el
desarrollo de circuitos superrápidos, con aplicación a los ordenadores y
las telecomunicaciones".
La electricidad se transporta a través de cables de cobre. La luz
utilizada para la comunicación se transmite a través de fibra óptica que
se despliega en diferentes 'canales' de información recurriendo a
dispositivos llamados guías de onda. En un estudio que se publicará esta
semana en la revista Optics Express, recogido por otr/press, Nahata y su
equipo anuncian el diseño de un hilo de acero inoxidable laminado con una
estampado de perforaciones que es capaz de transmitir, dirigir, segmentar
o combinar los rayos T.
"Una guía de onda es algo que permite transportar radiación
electromagnética de un punto a otro punto, o bien distribuirla a través de
un circuito", explicó Nahata.
Si los rayos T se utilizan en electrónica y telecomunicaciones, no sólo se
transmitirán de un dispositivo a otro, "sin que deberán ser procesados".
"En esto es donde reside la importancia de estos nuevos circuitos. Su
propósito final es desarrollar capacidades para que funcionaen más deprisa
que los actuales circuitos electrónicos, de modo que podamos tener
ordenadores más rápidos y también transmisión de datos a mayor velocidad
por Internet", declaró.
El espectro electromagnético, que abarca desde las bajas a las altas
frecuencias incluye: rayos gamma, rayos x, luz ultravioleta, luz visible
(violeta, azul, verde, amarillo, naranaja y rojo), luz infrarroja
(incluida la radiación de calor y los rayos T), las microondas, y las
frencuencias de radio o televisión.
El teléfono de fibra óptica y las líneas de datos utilizan ya luz
infrarroja cercana y una parte del espectro de luz visible. La única parte
del espectro que no se utiliza para comunicaciones u otros supuestos
prácticos es la frecuencia terahercio o radiación infrarroja lejana -los
también denominados rayos-T- que se localizan en el espectro entre los
infrarrojos medios y las microondas.
Debido a la saturación en el uso de buena parte del espectro para
servicios de telecomunicaciones ya existentes, los ingenieros estudian el
aprovechamiento de frecuencias terahercio, mucho más rápidas y que pueden
ser utilizadas en escáneres antiterroristas y sensores diseñados para
detectar armas biológicas o químicas. En este caso, el equipo de la
Universidad de Utah ha logrado un aprovechamiento para su utilización en
un funcionamiento futuro más rápido que el que actualmente ofrecen los
ordenadores convencionales.
Fuente: diario de Mallorca, 15 de Abril de 2008
-Hallado el árbol más antiguo del mundo
El árbol más antiguo del mundo, una pícea de 9.550
años que data de la era glacial, ha sido descubierto en la provincia de
Dalarna, en Suecia. La pícea solitaria de Noruega, que pertenece a la
especie que tradicionalmente se usa para decorar las casas europeas durante
Navidad, representa la planta viva más antigua identificada en el planeta.La
parte visible del árbol, de cuatro metros de altura, tiene
alrededor de unos 600 años, pero su sistema de raíces ha estado creciendo
por unos 9.550 años. Así lo asegura Leif Kullman, profesor del departamento
de ecología y ciencia ambiental de la Universidad de Umeå en Suecia y
director de la investigación. El arbusto, que fue encontrado en una altitud
de 910 metros, debe su increíble longevidad a la capacidad de
clonarse a si mismo. "Los tallos y el tronco de la pícea tienen una
vida útil de alrededor de 600 años; pero tan pronto éstos mueren surgen unos
nuevos de las reservas de la raíz" explica Kullman. "Es por esto que el
árbol tiene una expectativa de vida muy larga", añade. Los antiguos
remanentes de las raíces de la pícea fueron datados a través de la
técnica del radiocarbono. Estos análisis hacen parte de un estudio
que indaga sobre la manera en que los árboles poblaron Escandinavia una vez
la zona se había deshelado.
"Antes del hallazgo la concepción general hacía suponer
que estos árboles migraron al área hace unos 2.000 años, pero ahora
tendremos que reescribir los libros de textos", afirma Kullman. De ser
cierto esto, es posible afirmar que "la desglaciación ocurrió mucho
antes de lo que se cree" y que "incluso la era glacial pudo haber
sido mucho más corta de lo que hasta ahora se sabe", tal y como lo apunta el
científico.
Los efectos del cambio climático
En el estudio también se encontraron antiguos arbustos de
entre 5.000 y 6.000 años de edad. Los investigadores afirman que los
análisis de estos árboles podrían arrojar luz sobre cómo las plantas
responden actualmente al cambio climático. De hecho, el
calentamiento global ha simplificado la tarea de encontrar a los antiguos
coníferos de montaña. "Por muchos milenios estos árboles
sobrevivieron en la tundra de la montaña como arbustos de menos de un metro
de alto; ahora crecen como hongos y se pueden ver fácilmente", explica
Kullman.
Pero el cambio climático también podría haber acabado con
la vida de estas reliquias durante la época glacial. El equipo descubrió que
la arbolada en Suecia central subió unos 200 metros de altitud el siglo
pasado, lo que ha provocado grandes cambios en el paisaje.
"Algunas montañas bajas que no poseían tundra hace menos de cien años hoy
están totalmente cubiertas por bosque, lo que dificulta que sirvan de
refugio a las plantas más vulnerables", afirman los investigadores. Otro
factor que ha afectado la conservación de estos arbustos es la intervención
humana en sus entornos, en especial con actividades como la tala y
la demolición. Aunque los investigadores aseguran que es imposible
encontrar árboles más antiguos que este en Suecia, sugieren que los pinos de
Huon, ubicados en la isla australiana de Tasmania, pueden datar de más de
10.000 años atrás.
Picea solitaria de Noruega. Las raíces tienen 9950 años
Fuente: elmundo.es, 15 de Abril
-Albert Einstein y la
bomba atómica
¿Existiría la bomba atómica si no hubiera existido Albert
Einstein? Durante años se ha considerado que el padre de la teoría de la
relatividad lo era también de las tragedias de Hiroshima y Nagasaki. Ese
sería el lado oscuro de la ciencia y del genio. Sin embargo, una nueva
mirada apunta a otro reparto de responsabilidades.
Aunque se sabe que Einstein no participó directamente, o
no demasiado, en el logro físico de la bomba (ese «honor» le corresponde al
estadounidense J. Robert Oppenheimer), durante años se ha dado por hecho que
nada de aquello habría ocurrido si Einstein no hubiera escrito al presidente
Franklin Delano Roosevelt advirtiéndole del potencial bélico de la reacción
nuclear en cadena.
En las portadas
Einstein siempre minimizó la importancia de esta carta.
Pero en 1945 la revista americana «Time» llevó a su portada un hongo atómico
bajo la célebre ecuación E = mc2. La portada de «Newsweek», otra importante
publicación, reproducía directamente la cara de Einstein con la leyenda «El
hombre que lo empezó todo».
Hay que situarse en la época: los Estados Unidos se
debatían entre el horror y el orgullo. Que la bomba más temible de la
historia fuera americana no dejaba de ser un éxito. Y un éxito personal del
presidente Roosevelt, asesorado por el científico más grande de la historia,
nada menos. Sin embargo, la revista científica «Discover» desempolva ahora
detalles del caso que, aunque desmienten algunas excusas de Einstein -como
que él se limitara solo a firmar la carta a Roosevelt, cuando en realidad
trabajó activamente en su elaboración y tramitación-, avalan la tesis
central de que él no fue el verdadero culpable de aquella bomba.
No fue el primero
Para empezar «Discover» recuerda el dato sabido, aunque a
menudo olvidado, de que Einstein ni siquiera fue el primero en vislumbrar
las posibilidades de la reacción nuclear en cadena. La idea se le ocurrió a
Leó Szilard, un físico húngaro muy amigo de Einstein, judío como él,
asimismo refugiado en los Estados Unidos ante el ascenso de los nazis.
«¡Nunca lo había pensado!», dicen que dijo el genio cuando Szilard y otro
físico también judío y húngaro, Eugene Wigner, fueron a visitarle a su casa
en Peconic para hablarle del tema. Szilard y Wigner habían sabido que los
nazis estaban acaparando todo el uranio que podían en la que por aquel
entonces era la colonia belga del Congo. Sumaron dos y dos y llegaron a la
conclusión de que Hitler podía estar a un paso de la bomba atómica. Y
decidieron que había que advertir de ello a los belgas. Como a ellos les
conocían en su casa a la hora de comer recurrieron a Einstein, entonces ya
bastante famoso, respetado y profesor en Princeton. Entre los tres dieron
muchas vueltas antes de llegar a la conclusión de que su primer deber era
informar de sus temores al presidente de los Estados Unidos. Cuando por fin
llegaron a esa conclusión, a Einstein no se le ocurrió otra cosa que elegir
como intermediario al piloto Charles Lindbergh, condecorado por Hermann
Goering y firme partidario de que Estados Unidos se abstuviera de entrar en
la Segunda Guerra Mundial, aparte de ilustre antisemita. Cuando se dieron
cuenta del error buscaron a otro correo del zar. Pero entre una cosa y la
otra se les fueron meses. Eran los meses en que la Alemania nazi y la Unión
Soviética firmaban su pacto para repartise Polonia. Einstein y sus colegas
veían en los Estados Unidos la única tabla de salvación frente a Hitler. Su
idea no era animar a los americanos a lanzar bombas atómicas, sino a impedir
su lanzamiento desde Berlín. Pero la historia no siempre se ajusta a lo
esperado.
Fuente: ABC, 14 de Abril de 2008
-El CSN acusa a Ascó de minimizar la fuga
El Consejo de Seguridad Nuclear (CSN) ha reclasificado el
incidente de la fuga de partículas radiactivas ocurrida a finales de noviembre
en la central nuclear de Ascó (Tarragona), elevando el nivel del mismo de 1
(anomalía) a 2 (incidente). La decisión del CSN se produce al considerar que los
responsables de la central proporcionaron “información incompleta y deficiente
al organismo regulador”, así como que llevaron a cabo “un inadecuado control del
material radiactivo”.
Pueblo de Ascó (Tarragona) con la central nuclear detrás
Además, el organismo regulador está trabajando en la apertura
de un expediente sancionador a los responsables de la instalación nuclear con el
fin de “depurar responsabilidades”. Tras recibir información detallada
sobre el incidente, el CSN señala que “ya el pasado día 9 de abril –cuando el
organismo regulador pidió información a los responsables de la central– el
titular conocía que la información de actividad total vertida no era correcta y
no lo comunicó al CSN, pese a haber sido requerido reiteradamente”. El CSN
asegura que el impacto radiológico que se deriva de los nuevos datos conocidos
sobre el incidente “sigue siendo muy poco significativo para la población del
entorno de la central”, y que “se encuentra, en términos de dosis, por debajo de
los límites legales”.
Sin embargo, y “con el fin de verificar dicha valoración”, la
empresa responsable de la central realizará mediciones de radiactividad “a todas
las personas que han pasado por el emplazamiento desde el pasado 28 de
noviembre”, esto es, a entre 700 y 800 personas. Un grupo de escolares de Girona
visitó las instalaciones el 4 de abril. Hasta ayer se habían realizado análisis
a 579 personas, “sin encontrar en ningún caso indicios de incorporación de
material radiactivo”.
Vigilancia radiológica
De forma paralela, el organismo que preside Carmen Martínez
Ten pondrá en marcha una campaña de vigilancia radiológica independiente, y
seguirá investigando el suceso. La propia Martínez Ten comparecerá próximamente
en el Congreso para dar cuenta de todos los detalles.
Por su parte, el titular de la central, la Asociación Nuclear
Ascó-Vandellós II (ANAV), quiso dejar clara ayer la “baja significación
radiológica” de las partículas localizadas en el exterior de la planta,
contrastada por los datos obtenidos a través de sus sistemas de monitorización y
muestreo y por la red de vigilancia ambiental, informa Efe.
La entidad apuntó que los datos obtenidos del análisis de las partículas
localizadas y retiradas “confirman que la emisión es de baja significación y no
afecta ni a la salud de las personas ni al medio ambiente”. Además, según ANAV,
el 95% de las partículas dispersas se depositaron cerca del punto de emisión.
Fuente: publico.es, 14 de Abril de 2008
-Animales del futuro
Una exposición en Francia intenta
mostrar cómo será la fauna en nuestro planeta dentro de millones de años, basada
en proyecciones científicas y tomando en cuenta aspectos como cambios climáticos
y el movimiento de las placas terrestres.
Los visitantes del parque temático
Futuroscope, ubicado en la comunidad de Poitiers en el oeste del país,
participan de una especie de safari virtual donde conocen a varias especies que,
según sus creadores, podrían poblar la Tierra dentro de millones de años
Uno de ellos es el "babukari", una
mezcla de mandril con uakari (primate del género Cacajao que habita la selva
amazónica) que aparecería dentro de 5 millones de años y que según los
pronósticos científicos, viviría en una sabana seca donde antes existía bosque
tropical. Los animales fueron creados originalmente para una serie de televisión
llamada The Future is Wild producida por Discovery Channel. El
recorrido se hace a bordo de un vehículo y poco a poco los animales virtuales,
generados en computadora, aparecen ante los ojos del público, que cuenta con
binoculares integrados con cámaras de video.
A los visitantes también se les entrega
unos brazaletes con sensores que les permite interactuar con los animales del
futuro. Los vehículos cuentan con un sistema de localización integrado
para que cada ocupante tenga su propio campo de visión y se pueda "comunicar" de
forma autónoma con las imágenes de los animales. De esa manera los visitantes
pueden descubrir los futuros paisajes de la Tierra y la evolución de los
animales en 5, 100 y 200 millones de años. Los escenarios del futuro se componen
de frías y áridas estepas, una selva tropical, el fondo marino y una especie de
pantano.
Babosa de 30 centímetros de altura existiría
dentro de 200 millones de años. El agua será un elemento tan raro que la
piel se tornaría duray con escamas como un reptil
Aquí tenemos al placoteco, un roedor con pelo
denso y rígido, parecido al puercoespín
Este gran pájaro terrestre sería uno de los
más temibles cazadores de la Amazonia. Es el Cara-quuira
Volabrí es un descendiente de los peces
voladores, existiría dentro de 200 millones de años y con sus aletas
voladoras podría planear una distancia de hasta 100 metros
En 5 millones de años tras la desaparición de
las selvas tropicales, aparecerán los "Babukarís". Usarán sus colas para
comunicarse
El toratón, un animal de 20 metros de alto,
descendiente de las tortugas. Este sería el mayor animal terrestre
El
grusgrus vivirá en las altas montañas. Su plumaje de tonalidad azul-metálica
refleja los rayos del sol.
Criaturas
pequeñas marinas descendientes de los crustáceos. Su caparazón les protege
de sus depredadores
Calabón, pulpo arborícora
Adaptación
El medio ambiente y los animales
representados en esta exposición son fruto de una teoría desarrollada por
científicos británicos a partir de la evolución de los movimientos geológicos de
la Tierra, del clima, y de la capacidad de sobrevivencia de la fauna, que se
mudaría para adaptarse a un nuevo hábitat.
De esa manera los monos uakari
descenderían de los árboles de la Amazonía (que ya no existirían más) para
vivir en el suelo. Ya no usarían sus colas para balancearse entre las
ramas sino para comunicarse entre la alta vegetación. Otros de los
animales del futuro sería el "toratón" que evolucionaría a partir de la
tortuga gigante. En 100 millones de años, este reptil sería el mayor
animal terrestre con 20 metros de altura. Con 120 toneladas de peso
sería 40 veces más grande a un elefante, y dado que no tendría ningún
depredador como amenaza, perdería la mayor parte de su caparazón.
Comparación
En otro espacio de la exposición,
concebida por la científica Christiane Denys, profesora de zoología del Museo
Francés de Historia Natural, los animales del futuro son comparados a los del
presente y del pasado para ofrecer un panorama de la evolución de las
especies. Es la primera vez que se utiliza la tecnología de la "realidad
ampliada", que permite observar a los animales en la exposición, en el área
del entretenimiento. Hasta ahora se la había aprovechado a campos como la
medicina, para la realización de cirugías, la aeronáutica, la arquitectura y
el turismo.
Fuente: BBC Mundo, 13 de Abril de 2008
-Las profecías de la "física imposible"
Einstein dio grandes esperanzas a todos los científicos
que andan a la caza y captura de las teorías más extravagantes cuando
pronunció una de sus célebres frases: «Si al principio una idea no es
completamente absurda, no existe la menor esperanza de lograr algo a partir de
ella». En esa misma época, Einstein conseguía demostrar no sólo la existencia de
los agujeros negros, sino también la noción de que el tiempo discurre más
despacio cuanto más deprisa se viaja.
En la actualidad, uno de los físicos más prestigiosos del planeta ha
examinado, detenida y minuciosamente, algunas de las fantasías clásicas de la
ciencia ficción, como el teletransporte o la invisibilidad, llegando a la
convicción de que dichos fenómenos físicos podrían, también, llegar a
convertirse en realidad.
El profesor Michio Kaku, de la City University de Nueva York, ha descartado
la posibilidad de viajar en el tiempo hasta dentro de unos cuantos milenios, por
lo menos. Sin embargo, cree que tanto la fabricación de capas especiales que
hagan a una persona invisible como el teletransporte podrían ser
posibles en un futuro mucho más cercano.
El
profesor Michi Kaku de la City University de Nueva York mirando hacia el futuro
«En muchísimas ocasiones se ha asegurado que algo es
imposible, pero una o varias décadas después se ha demostrado su
viabilidad», afirma el profesor Kaku. En su nuevo libro, 'The Physics
of the Imposible' [La Física de lo Imposible], que acaba de publicarse en el
Reino Unido, el profesor Kaku analiza toda una serie de fenómenos, aparentemente
imposibles, y evalúa las probabilidades que tienen de llegar a producirse en la
realidad.
Teletransporte. Cuando Gene Roddenberry se
encontraba planificando los episodios iniciales de aquella serie de culto de
la ciencia ficción, Star Trek, los estudios Paramount, que financiaban dicho
proyecto, llegaron a la conclusión de que los efectos especiales que se
necesitaban para recrear el despegue y aterrizaje de las aeronaves eran
excesivamente costosos. Consecuentemente, Roddenberry se encontró ante la
necesidad de hallar una nueva fórmula que permitiera que sus personajes
pudieran aterrizar sobre la superficie de los lejanos e ignotos mundos que
tendrían que visitar. «Roddenberry, entonces, dijo: ‘Muy bien, les
trasladaremos a los diferentes planetas por medio de emisiones de partículas y
así nos ahorraremos toneladas de dinero’», asegura Kaku en su libro. Aquella
decisión, tomada con el exclusivo fin de ahorrar dinero, sirvió, en cambio,
para poner los cimientos del teletransporte, epítome de la forma de
desplazarse más característica de la ciencia ficción. Y, sin embargo, los
físicos están ya, de hecho, llevando a cabo prácticas de teletransporte en la
realidad. Tales experimentos se fundamentan en un fenómeno profundamente
extraño, denominado maraña cuántica, que los físicos ya han utilizado para
teletransportar un fotón a 142 kilómetros de distancia, que es la que separa
las islas de La Palma y Tenerife, en las islas Canarias.No obstante, el
profesor Kaku admite que los aspirantes a convertirse en nuevos capitanes Kirk
tendrán aún que esperar un par de siglos antes de poder hacer lo mismo. «De
hecho, los fotones no están realmente trasladándose de un lugar a otro, dado
que los fotones originales se destruyen. Lo que verdaderamente se materializa
al otro extremo del trayecto son unos fotones gemelos que tienen toda la
información de los fotones previos».
Invisibilidad. Una de las razones que
podrían explicar el hecho de que nadie se haya topado nunca con ningún viajero
procedente del futuro podría ser, tal como sugiere el propio el profesor Kaku,
que tales viajeros en el tiempo tendrían la capacidad de hacerse invisibles.
«La invisibilidad a la manera de Harry Potter, por medio de una especie de
capa, no es algo que actualmente se considere imposible», asegura el profesor
Kaku. Asimismo, en su libro evalúa este fenómeno como la primera tecnología de
ciencia ficción que, probablemente, se pueda hacer realidad. En su opinión, el
desarrollo más prometedor de todos los que están previstos en este campo es la
creación de una nueva y exótica sustancia llamada metamaterial. Eliminando
reflejos y sombras, dicha sustancia lograría que cualquier objeto se volviera
invisible.
Viajes en el tiempo. El profesor Stephen
Hawking, físico de la universidad de Cambridge, ha dedicado gran cantidad de
tiempo, a lo largo de toda su carrera, a demostrar que viajar en el tiempo es
algo imposible. Si fuera posible, razonaba el profesor Hawking, ¿por qué no
nos han visitado nunca viajeros procedentes del futuro? Sin embargo, el propio
profesor se ha visto forzado, asimismo, a llegar a la conclusión de que, en
realidad, no existe ninguna clase de impedimento en las leyes de la física que
imposibilite viajar en el tiempo. «Hawking cambió su manera de pensar hace
unos 10 años», señala Kaku. «No había ninguna forma de descartar que los
viajes en el tiempo se pudieran llegar a producir. Por lo tanto, ahora afirma
que, si bien viajar en el tiempo es posible, no resulta nada práctico». La
forma en que este fenómeno podría llevarse a cabo consistiría en hacer dicho
viaje tomando un atajo a través de un agujero de gusano, que conecte entre sí
a dos puntos, o extremos, situados en el espacio. Las leyes de la Física
indican que la intensa gravedad que se genera en un solo agujero negro es más
que suficiente para desgarrar la estructura del espacio-tiempo, haciendo
posible, en consecuencia, la aparición de los agujeros de gusano. «Lo que
nosotros, los físicos, pretendemos es crear nuestro propio agujero de gusano,
de tal manera que si alguien se desplazara a través de esta estructura, iría
para atrás en el tiempo», asegura el profesor Kaku.
Contacto con extraterrestres. Actualmente,
los científicos están disfrutando de las mejores oportunidades de toda la
Historia para poder ponerse en contacto con posibles extraterrestres. A pesar
de que la Humanidad lleva décadas escudriñando el cielo en busca de alguna
señal de vida exterior, dicha búsqueda ha sido, hasta el presente,
absolutamente asistemática. Los astrónomos de todo el mundo han logrado
detectar, hasta ahora, la existencia de alrededor de 300 planetas
pertenecientes a otros sistemas solares parecidos al nuestro, aunque estos
son, en general, gigantes gaseosos como Júpiter, lo que parece apuntar que no
existen demasiadas probabilidades de que se pueda albergar alguna clase de
vida en ellos. En la actualidad, los satélites están siendo muy útiles para
reforzar enormemente la capacidad de los científicos a la hora de detectar la
existencia de otros planetas parecidos a la Tierra. «Hasta estos momentos, tan
sólo hemos escrutado unas 1.000 estrellas, aproximadamente, y eso no es nada»,
afirmaba el profesor Kaku. «Pero, a partir de ahora, esperamos poder analizar
1.000 veces más datos que los que se han recogido en todos los barridos del
firmamento que se han venido llevando a cabo en el pasado. Y esa es la razón
por la que somos mucho más optimistas respecto a poder establecer contactos
con la vida extraterrestre». El profesor Kaku estima que un posible contacto
con alguna cultura alienígena podría producirse en tan sólo unas décadas.
Fuente:
elmundo.es, 14 de Abril de 2008
-Conozca a los animales del futuro
Una exposición en Francia intenta mostrar cómo será la fauna en nuestro
planeta dentro de millones de años, basada en proyecciones científicas y tomando
en cuenta aspectos como cambios climáticos y el movimiento de las placas
terrestres.
Los visitantes del parque temático Futuroscope, ubicado en la comunidad de
Poitiers en el oeste del país, participan de una especie de safari virtual donde
conocen a varias especies que, según sus creadores, podrían poblar la Tierra
dentro de millones de años. Uno de ellos es el "babukari", una mezcla de
mandril con uakari (primate del género Cacajao que habita la selva amazónica)
que aparecería dentro de 5 millones de años y que según los pronósticos
científicos, viviría en una sabana seca donde antes existía bosque tropical.
Los animales fueron creados originalmente para una serie de televisión llamada
The Future is Wild producida por Discovery Channel.
El recorrido se hace a bordo de un vehículo y poco a poco los animales
virtuales, generados en computadora, aparecen ante los ojos del público, que
cuenta con binoculares integrados con cámaras de video. A los visitantes
también se les entrega unos brazaletes con sensores que les permite interactuar
con los animales del futuro. Los vehículos cuentan con un sistema de
localización integrado para que cada ocupante tenga su propio campo de visión y
se pueda "comunicar" de forma autónoma con las imágenes de los animales.
De esa manera los visitantes pueden descubrir los futuros paisajes de la Tierra
y la evolución de los animales en 5, 100 y 200 millones de años. Los escenarios
del futuro se componen de frías y áridas estepas, una selva tropical, el fondo
marino y una especie de pantano.
Adaptación
El medio ambiente y los animales representados en esta exposición son fruto
de una teoría desarrollada por científicos británicos a partir de la evolución
de los movimientos geológicos de la Tierra, del clima, y de la capacidad de
sobrevivencia de la fauna, que se mudaría para adaptarse a un nuevo hábitat.
De esa manera los monos uakari descenderían de los árboles de la Amazonía
(que ya no existirían más) para vivir en el suelo. Ya no usarían sus colas para
balancearse entre las ramas sino para comunicarse entre la alta vegetación.
Otros de los animales del futuro sería el "toratón" que evolucionaría a partir
de la tortuga gigante. En 100 millones de años, este reptil sería el mayor
animal terrestre con 20 metros de altura. Con 120 toneladas de peso sería
40 veces más grande a un elefante, y dado que no tendría ningún depredador como
amenaza, perdería la mayor parte de su caparazón.
Comparación
En otro espacio de la exposición, concebida por la científica Christiane
Denys, profesora de zoología del Museo Francés de Historia Natural, los animales
del futuro son comparados a los del presente y del pasado para ofrecer un
panorama de la evolución de las especies. Es la primera vez que se utiliza
la tecnología de la "realidad ampliada", que permite observar a los animales en
la exposición, en el área del entretenimiento. Hasta ahora se la había
aprovechado a campos como la medicina, para la realización de cirugías, la
aeronáutica, la arquitectura y el turismo.
Fuente: BBC MUNDO, 13 de Abril de 2008
-Llega a Alemania el último
transbordador ruso después de un mes de viaje
Últimos tramos que tuvo que atravesar la nave soviética
El último transbordador espacial soviético
del tipo Buran ha cubierto sin incidencias y ante la mirada de miles de curiosos
los cuatro kilómetros que le separaban de su destino final, el Museo de la
Técnica de Espira.
El transbordador había llegado el viernes a la ciudad de
Espira, en el oeste de Alemania, tras una travesía por el Rin a bordo de una
gabarra especial procedente del puerto holandés de Rotterdam, penúltima etapa de
un viaje que comenzó hace un mes en Barhein. El último tramo
hasta el museo, situado a unos cuatro kilómetros del muelle, comenzó a primera
hora del sábado con el desembarque del transbordador, una maniobra muy
aparatosa y compleja que fue seguida por miles de personas.
Las dimensiones del transbordador, similar al avión
supersónico ruso Tupolev 144 y al Concorde francés, son igualmente
impresionantes, más de 17 metros de alto por 36 metros de largo
con un diámetro de 8 metros y cerca de 150 toneladas de peso. El transbordador
Buran, que empezó a ser desarrollado en los años 70, es el último
superviviente de una serie de 20 lanzaderas que la ya extinta Unión
Soviética construyó en la década de 1980 para asistir a la MIR, su estación
espacial permanente. Sin embargo, sólo uno de dichos aparatos llegó a volar al
espacio en 1988, para regresar a su base de Baikonur después de dar dos
vueltas de prueba a la Tierra, y la URSS acabó abandonando el proyecto
por problemas de presupuesto. El último Buran, con el número de serie 002, fue
expuesto en Sidney durante los Juegos Olímpicos en 2000, seguidamente trasladado
al emirato de Bahrein para otra muestra, tras la cual quedó en una
situación de práctico abandono.Gracias al esfuerzo de la sociedad de
amigos que apoya al Museo de la Técnica de Espira, se pudieron reunir los
10 millones de euros que han sido necesarios para comprar el
transbordador y organizar su traslado a Alemania.
El Museo de la Técnica de Espira, con unas instalaciones
cubiertas de más de 16.000 metros cuadrados y un recinto abierto de más de
150.000 metros, es uno de los más espectaculares del mundo. El
museo cuenta con unas 3.000 piezas, entre ellas el Boeing original de Lufthansa,
un Jumbo 747 a un gigantesco Antonov 22, cerca de 50 coches de época,
motocicletas, 20 locomotoras, 70 aviones y hasta submarinos de gran tamaño.
Fuente: elmundo.es, 13 de Abril de 2008
-Un
traje robótico para ancianos y discapacitados
Una empresa japonesa presentó hoy en un acto espectacular en
Tokio un robot-traje, una especie de esqueleto externo cibernético cuyo objetivo
es facilitar los movimientos de ancianos y disminuidos físicos. Cuando el
usuario se enfunda el invento, bautizado con el nombre de Hal, ve aumentada su
fuerza de manera considerable por lo que su creador, Yoshiyuki Sankai, cree que
tendrá una aplicación comercial en los servicios a la tercera edad. El robot,
parecido al de muchos ingenios propios del manga japonés, también podrá ser
usado en programas de rehabilitación para personas con discapacidad física, ya
que no hace falta hacer mucha fuerza para moverlo. Hal está equipado con varios
sensores que intuyen los movimientos del cuerpo, por lo que ayudaría a sus
usuarios a ejecutar las acciones que no podrían llevar a cabo por sí solos.
Demostración
El evento de presentación, celebrado en la sede del
Ministerio de Ciencia japonés, consistió en una demostración de las asombrosas
capacidades de Hal, fabricado por la empresa Cyberdyne. Sankai invitó al
secretario general del Instituto Nacional de Ciencia y Tecnología, Yoshitsugu
Harada, a que levantara con el brazo izquierdo cuantos sacos de arroz pudiera.
Harada dijo basta al segundo saco, ya que cada uno de los paquetes pesaba diez
kilos. Posteriormente el profesor Sankai colocó tres paquetes en el brazo del
robot, vestido por uno de sus colaboradores, que aguantó el peso de 30 kilos sin
ningún esfuerzo. Japón es uno de los países en los que la población envejece más
rápidamente, por lo que se estima que el sector de servicios para la tercera
edad vivirá próximamente un importante florecimiento. Durante la explicación
previa de su proyecto, el profesor Sankai reconoció que el anime (animación
japonesa) inspiró alguna fase del desarrollo del robot-traje Hal.
"El pasado sólo existe en el presente”, dice Timothy Darvill, arqueólogo
británico con cátedra en la Universidad de Bournemouth. Darvill está
acostumbrado a interpretar huellas prehistóricas, pero su trabajo actual tiene
una relevancia excepcional. Quiere probar una nueva teoría sobre el origen y
función de Stonehenge, el complejo de piedras neolíticas que se alza majestuoso
sobre la llanura de Salisbury, en el condado de Wiltshire, a 140 kilómetros al
oeste de Londres. Con su colega, el profesor Geoff Wainwright, dirige la primera
excavación que se autoriza desde 1964 en el más importante templo prehistórico
de las Islas británicas.
“Es una oportunidad única, no volverá a presentarse en toda
una generación. Las técnicas avanzan y es necesario excavar con absoluto rigor
para aprender más sobre el pasado”, explica Darvill frente a la zanja
rectangular –de dos por tres metros cuadrados– que comenzaron a cavar junto a
las míticas piedras el pasado lunes. Ambos profesores sostienen una curiosa
tesis. En el máximo apogeo de Stonehenge, entre 2500 y 1500 . C., creen que el
complejo funcionó como una especie de sanatorio, como un templo especial donde
acudían los antiguos europeos con la esperanza de curar sus heridas y
enfermedades. “La gente venía aquí por las mismas razones que los peregrinos
todavía viajan a Lourdes. Creían en las propiedades curativas de las piedras”,
defiende Wainwright, mientras separa capas de sedimentos en un rústico colador.
A sus 70 años, recién operado de la cadera, se le ve feliz entre las ruinas de
Stonehenge. “Nunca creí que conseguiría excavar entre estas piedras”, sonríe.
La investigación se centra en los pedruscos originales, las
llamadas piedras azules, que formaron el primer círculo y que volvieron a
utilizarse en sucesivas reconstrucciones del complejo. Proceden de un área
concreta de Gales, las colinas Preseli, y cada pieza pesa hasta cuatro
toneladas, 10 veces menos que los impresionantes conjuntos pedestres, en forma
de dintel, que dominan la estructura actual. Aún y todo, hacia el 2500 a. C., 80
piedras azules se transportaron unos 250 kilómetros hasta su nueva ubicación en
Wiltshire. Con la materia orgánica recogida ahora en la excavación –huesos,
carbón, astas de ciervos, caracolillos y otros restos neolíticos– se intentará
datar en el laboratorio la fecha exacta de su llegada a Stonehenge.
“Las piedras azules se aprecian, incluso hoy día, por sus
poderes curativos. Existen documentos de monjes medievales que recogen leyendas
orales de sus poderosos atributos. También hemos comprobado que se respetó la
distribución geológica al colocarlas en Stonehenge. Reprodujeron en este paisaje
inglés el microcosmos de Gales, para preservar las cualidades curativas de las
piedras”, observa Darvill.
Para Wainwright, Stonehenge fue el lourdes del neolítico.
Darvill lo compara con Santiago de Compostela: “Cuando llegaron los restos del
santo, se convirtió en un famoso centro de peregrinaje de enfermos. Sólo
entonces se extendió la creencia de que Santiago era un importante enclave
sagrado. Sucedió lo mismo en Stonehenge con la llegada de las piedras azules”.
Ambos arqueólogos están convencidos de que las piedras galesas esconden el
secreto del complejo neolítico. Seguirán excavando hasta mañana, pero el foso ya
está aportando indicios de la importancia que esos viejos bloques tuvieron en el
pasado.
Las piedras azules parecen insignificantes frente a las
gigantescas piezas de arenisca dura –las llamadas piedras sarsen– del círculo
exterior del complejo. Alzados en posiciones singulares o con dos piedras
enlazadas por un bloque horizontal, perfectamente encajado, preservan su
compleja estructura global, en círculo y en herradura. “Las piedras sarsen son
decorativas, adornos adicionales para marcar la importancia y riqueza del
enclave. Yo diría que son representaciones de dioses”, añade Darvill, antes de
volver a la zanja excavada, en busca de hallazgos.
Darvill y Wainwright marchan a contracorriente con su tesis
de que Stonehenge fue un centro de peregrinaje de enfermos y discapacitados del
neolítico europeo. Reconocen que hubo enterramientos en su fase inicial –cuando
el recinto se delimitó con sus característicos foso y terraplén y se levantaron
tótems de madera, hacia el 3000 a.C.–, pero ambos sostienen que la sustitución
de la madera por piedras azules convirtió el primitivo templo en el gran
sanatorio de la antigüedad. “Era un templo corriente, como muchos otros de la
zona, pero adquirió renombre en Europa por los poderes curativos de las
piedras”, explica el profesor Darvill.
Las piedras están alineadas en un meticuloso trazado, en
armonía con los movimientos del Sol, cuyos efectos son particularmente visibles
en los solsticios de verano e invierno. Nada se dejó al azar en la disposición
de las piedras, con un eje lineal del noreste al suroeste que permitió a los
habitantes del entorno familiarizarse con las distintas estaciones del año. En
sus orígenes, por tanto, Stonehenge sería un templo del Sol o un observatorio de
sus movimientos, junto a los de la Luna y las estrellas, según coinciden los
expertos. Más allá, las explicaciones sobre su función difieren totalmente.
La conclusión de Darvill sí es clara: “Stonehenge no fue un
memorial, un espacio para los muertos. Fue un enclave para la población viva”.
Fuente: publico.es, 12 de Abril de 2008
-Comer carne hecha en el laboratorio ya no es ciencia ficción
Te comerías un filete crecido en un tanque de acero inoxidable? Cuando en el
año 2003 los primeros científicos hablaron de la posibilidad de generar grandes
cantidades de carne artificial para alimentar a la Humanidad
parecía un relato de ciencia ficción. Ahora, por primera vez, los expertos lo
están planteando en términos de mercado. Un informe presentado en el
Primer
Simposio Internacional de Carne In Vitro, celebrado en Noruega esta
misma semana, plantea la posibilidad de que la carne producida artificialmente
esté en las estanterías de los supermercados en un futuro cercano para competir
con la carne tradicional si se aplican una serie de criterios técnicos. Según
estos expertos, esta
carne
“cultivada” podría resolver algunos de los desafíos más importantes de la
Humanidad en las próximas décadas, como el aumento de la población
o el impacto de la expansión de la ganadería en el
medioambiente. La propia ONU está interesada en el posible desarrollo de esta
técnica, dada su previsión de que la población mundial pase de los 6.200
millones actuales a 9.000 millones en los próximos 40 años, y
la falta de recursos para todos.
Una producción rentable
El informe presentado en Noruega (ver
PDF) prevé situar el coste de producción de carne artificial en torno los
3.500 euros por tonelada frente a los 1.800 euros de la carne
de pollo no subvencionada, un precio que le permitiría competir por una parte
del mercado. Para ello, la futura industria debe superar algunos retos, como la
mejora de las tecnologías o enfrentarse a la mentalidad de los
consumidores, que podrían mostrarse reticentes a consumir este tipo de
productos. En las nuevas factorías cárnicas, los tejidos musculares se
desarrollarían en unos tanques de gran tamaño denominados
biorreactores, en los que la carne crecería durante semanas. El
cultivo de estas partidas de carne arranca con una primera célula aislada que se
divide sucesivamente en millares de nuevas células hasta generar grandes
cantidades de tejido muscular que podrían ser consumidas por las personas sin
ningún peligro.
Muestra de una hamburguesa hecha con carne artificial
Aceptación del consumidor
Los científicos reunidos en Noruega admiten que una buena parte de la
población no está aún mentalmente preparada para consumir carne in
vitro. De hecho, prevén que una porción considerable de los costes de esta
industria incipiente se irían en la creación de campañas de
concienciación basadas en las supuestas bondades de esta carne: no
tiene enfermedades, su producción contamina mucho menos y no provocará
sufrimiento a los animales.
El dilema ético se plantea por el hecho de que este tipo de carne no nos
parece "natural". Algunos especialistas, como el ingeniero estadounidense
Paul Kosnik, sostienen que la carne in vitro es tan poco
natural como lo pueda ser el yogur. Tan natural, asegura, "como meter a 100.000
pollos en jaulas y suministrarles una buena dosis de antibióticos".
De momento, los resultados conseguidos distan mucho de parecerse a un buen
chuletón de Ávila. La composición de un filete es el resultado
de una combinación de músculos, grasa y tejidos conjuntivos, cuya complejidad no
ha podido ser reproducida sobre una placa de Petri. Como prueba, tal y como
recoge la revista
Wired, destaca el hecho de que los asistentes a este primer Simposio
Internacional no se han alimentado de sus propias creaciones de laboratorio,
sino que se han pasado tres días de restaurante en restaurante, atiborrándose de
salmón noruego.
Fuente: adn.es, 12 de Abril de 2008
-Omega Centauri: una galaxia en miniatura
Omega Centauri
El Observatorio Interamericano en
Cerro Tololo, en Chile, y el telescopio 'Spitzer' en el espacio han captado
conjuntos de millones de estrellas que giran en torno a la Vía Láctea, ha
informado el Laboratorio de Propulsión a Chorro (JPL) de la NASA. Llamado
Omega Centauri, el grupo de estrellas es como una galaxia en miniatura y el
mayor y más brillante de los llamados "cúmulos globulares" que giran en
torno a la constelación que alberga a nuestro Sistema Solar. Según Martha
Boyer, astrónoma de la Universidad de Minnesota (EEUU), la imagen lograda a
través de las cámaras infrarrojas de 'Spitzer' y las de luz visible del
telescopio del Cerro Tololo, permite desentrañar algunos misterios
del universo.
"Ahora podemos ver qué estrellas se forman del polvo
cósmico y podemos comenzar a entender cómo se forma ese polvo y dónde va
cuando es expulsado de una estrella", señaló.
Los conjuntos globulares son los cuerpos más antiguos del
universo. Sus estrellas tienen más de 12.000 millones de años y, en la
mayoría de los casos, se formaron en los albores del Universo, señaló JPL en
un comunicado. El caso de Omega Centauri es especial, porque sus estrellas
son de edades diferentes y albergan diversos tipos de metales o elementos
pesados. Según los astrónomos, esto podría deberse a que tuvo su
origen en una galaxia enana absorbida por la Vía Láctea.
Gigantes rojas
En la imagen de Omega Centauri, los puntos rojos y
amarillos son estrellas detectadas por el telescopio 'Spitzer'. Se trata de
estrellas mayores y con más polvo cósmico, llamadas 'gigantes rojas'.
Las de color azul son menos evolucionadas, como nuestro
propio sol, y fueron captadas tanto por 'Spitzer' como el telescopio del
Cerro Tololo, dijo JPL.
"Cuando las estrellas envejecen y maduran hasta
convertirse en gigantes rojos, forman granos de polvo cósmico que
desempeñan un papel crucial en la evolución del universo y la
formación de planetas rocosos", como la Tierra, dice Jacco Van Loon,
investigador de la Universidad de Keele, en Inglaterra, en un informe sobre
las imágenes publicado por la revista 'Astronomial Journal'. Recientemente,
el telescopio espacial Hubble y el Observatorio Gemini en Cerro Pachón
(Chile), descubrieron evidencias de que Omega Centauri alberga un agujero
negro de tamaño mediano.
Fuente: elmundo.es, 11 de Abril de 2008
-La
pesca en peligro
El aumento de la temperatura de los océanos, su contaminación y
sobreexplotación ha puesto en peligro la vida marina y la pesca, según han
afirmado los expertos que participan en la Conferencia Global de los Océanos,
Costas e Islas, que se celebra en Hanoi (Vietnam).
Según el informe presentado durante la conferencia de Hanoi, esos tres
problemas son comunes en los 64 ecosistemas marinos que han estudiado los
especialistas, y son las principales causas de que el 75% de los bancos de pesca
haya desaparecido.
Rápido calentamiento
El informe señala que en 16 de las 64 áreas marítimas estudiadas "la
aceleración del calentamiento es dos y cuatro veces mayor a la que estableció de
promedio el Grupo Intergubernamental sobre el Cambio Climático (IPCC) en 2007".
Es en los mares del Báltico y de China Meridional, especialmente en sus aguas
del norte que bañan la costa de China y la península coreana, donde se ha
registrado un mayor aumento de la temperatura durante el último cuarto de siglo,
de acuerdo al citado informe. Durante la conferencia, que concluyó hoy tras
cuatro jornadas de sesiones, los expertos se centraron en la identificación de
medidas para aminorar los riesgos que corren los ecosistemas marinos.
Asia necesita paradas biológicas
Recomendaron sobre todo a los países de Asia, en cuyos mares se captura más
del 70% de la producción mundial de pescado, que sigan el ejemplo de otras
naciones desarrolladas que imponen cada año periodos de veda para algunas
especies marinas.
Durante la última década, los conflictos entre las flotas pesqueras asiáticas
han aumentado en número e intensidad debido al declive de los bancos de pesca.
Demasiados barcos para capturar cada vez menos peces y el aventurarse a
pescarlos, a menudo más allá de los límites marítimos, supone un problema global
que se agrava en Asia, donde se encuentran seis de las naciones del mundo con
mayor dependencia de la pesca, un medio de vida para unos cien millones de
personas, la mayoría de ellas de los países menos desarrollados. Al mismo tiempo
que se modernizan, las flotas pesqueras asiáticas, y sobre todo las de China,
Japón y Corea del Sur, también crecen para responder a la mayor demanda de
pescado. La Organización de Naciones Unidas para la Agricultura y la
Alimentación (FAO) estima que la demanda de pescado en el mercado chino crecerá
de aquí al año 2030 un 84%, y un 60% en los países de Asia Meridional.
Fuente: EFE, 11 de Abril de 2008
-Las más singulares raíces de España
La
biodiversidad española es una de las más ricas de Europa. Es también una de las
más sorprendentes. Los árboles, en concreto, son una buena muestra de esa
belleza y ese afán de supervivencia. Hace seis años un grupo de siete
especialistas se propuso hacer un completo censo de las maravillas arbóreas
españolas. Ahora, tras bucear en viejos inventarios del antiguo ICONA y en
catálogos de comunidades autónomas, realizar numerosas visitas y recibir la
colaboración altruista de muchos aficionados, han logrado reunir en un catálogo
a más de 3.500 árboles singulares.
La presidenta de la
ONG ecologista que impulsó la iniciativa (Bosques sin Fronteras), Susana
Domínguez, explica que para calificar a cada árbol de singular se tuvo en cuenta
su altura, perímetro, edad y rareza en la forma, así como su leyenda o historia.
Con los datos del inventario forestal, se obtuvieron los rangos medios de
dimensiones de cada especie (con sus características de tamaño propias). Los
ejemplares que superaban los máximos se consideraron singulares.
Los pinos, hayas o robles son los árboles autóctonos más altos, pero destaca
también la Palmera de Ingenio, en Gran Canaria (36 metros), o el Laurel Canario
de La Gomera (33 metros). En perímetro, los castaños y olivos se llevan las
medallas, aunque los más gruesos son el Drago de Icod (16,4 metros) y el
Viñátigo de La Gomera (15,7 metros); para rodearlos hacen falta 10 personas.
Los centenarios
En edad, el tejo de Rascafría (Madrid), con más de 1.400 años, es el abuelo de
España; casi duplica la edad de sabinas, olivos, castaños y encinas que superan
los ocho centenarios. Algunas de estas joyas, las más longevas, vivieron las
guerras de Reconquista frente a los árabes; otras, más jóvenes, asistieron a los
enfrentamientos de la Independencia de principios del siglo XIX.
Todas las comunidades autónomas tienen sus árboles singulares y sus especies
autóctonas. En el Norte, los bosques se han talado menos y los árboles han
crecido menos. En Galicia, por ejemplo, hay más árboles legendarios, pero de
menores dimensiones. En Castilla y León las talas para crear pastos han dejado
árboles solitarios que destacan en el horizonte. Por su parte, en las
comunidades del sur peninsular, al tener un clima más benigno, los ejemplares
tienen más tiempo para crecer y alcanzan mayor altura. Madrid tiene muchos
ejemplares (293) porque, pese a ser una comunidad pequeña, ha contado con muchos
más estudios.
La mayor sorpresa que se llevó la presidenta de Bosques sin Fronteras durante el
estudio se produjo durante la búsqueda de uno de los olivos más longevos y con
mayor perímetro del mundo. "En un inventario de ICONA de 1973 aparecía recogido
un olivo en Ibiza de 10,5 metros de perímetro y fuimos a comprobarlo", rememora.
Viajaron a Ibiza y tras seis horas de búsqueda por una finca privada, cuando ya
creían que el árbol habría muerto o habría sido talado, vieron una llamativa
copa de olivo. "El árbol estaba completamente abandonado, rodeado de ramas secas
que impedían ver su tronco, que apareció, impresionante, cuando lo limpiamos",
recuerda. Para conocer la edad exacta del olivo midieron sus anillos, pero esta
especie los tiene muy irregulares y pueden dar lugar a fechas erróneas, así que
analizaron sus aceitunas, una variedad tan antigua que ya ni se utiliza ni se
conoce hoy día. Se estima que tiene unos 800 años.
Entre los árboles de formas más extraordinarias, Domínguez se queda con la
Sabina de El Hierro, que abatida por los vientos "parece tumbarse derrengada".
Más de 400 encinas singulares
De los más de 3.500 individuos endémicos singulares, 439 son encinas (Quercus
ilex). Parece lógico, es el árbol por excelencia de España, el más representado
y el que más superficie ocupa. Les siguen por presencia los pinos (400), sobre
todo Pinus pinae (143); robles (357); castaños (Castanea sativa, 152); olmos (Ulmus
minor, 146); tejos (Taxus baccata, 140) y chopos (Populus sp., 111). Todos y
cada uno de ellos tiene una historia y forman parte viva del Patrimonio Natural
del país.
Fuente:
publico.es, 11 de Abril de 2008
-Un
nuevo traje robótico inventado por los japoneses
Una empresa japonesa ha presentado hoy en un acto espectacular en Tokio un
traje robótico, una especie de esqueleto externo cibernético cuyo objetivo
es facilitar los movimientos de ancianos y disminuidos físicos. Cuando el
usuario se enfunda el invento, bautizado con el nombre de HAL (miembro
asistente híbrido, en sus siglas en inglés), ve aumentada su fuerza de
manera considerable por lo que su creador, Yoshiyuki Sankai, cree que tendrá
una aplicación comercial en los servicios a la tercera edad. El robot,
parecido al de muchos ingenios propios del manga japonés, también podrá ser
usado en programas de rehabilitación para personas con discapacidad física,
ya que no hace falta hacer mucha fuerza para moverlo. HAL está equipado de
varios sensores que intuyen los movimientos del cuerpo, por lo que ayudaría
a sus usuarios a ejecutar las acciones que no podrían llevar a cabo por sí
solos.
Demostración de fuerza
El acto de presentación, celebrado en la sede del Ministerio de Ciencia japonés,
ha consistido en una demostración de las asombrosas capacidades de HAL,
fabricado por la empresa Cyberdyne. Sankai ha invitado al secretario general del
Instituto Nacional de Ciencia y Tecnología, Yoshitsugu Harada, a que levantara
con el brazo izquierdo cuantos sacos de 10 kilos de arroz pudiera. Harada ha
dicho basta al segundo saco. Posteriormente, el profesor Sankai ha
colocado tres paquetes en el brazo del robot, vestido por uno de sus
colaboradores, que ha aguantado el peso de 30 kilos sin ningún esfuerzo.
Inspirado en los dibujos animados
Japón es uno de los países donde la población envejece más, por lo que se estima
que el sector de servicios para la tercera edad vivirá próximamente un
importante florecimiento. Durante la explicación previa del proyecto, el
profesor Sankai ha reconocido que el anime (dibujos animados japoneses) ha
inspirado alguna fase del desarrollo de HAL.
Fuente: EFE, elperiodico.com, 11 de Abril de 2008
-La
enfermedad de Parkinson, un reto para los investigadores
"Los tratamientos
disponibles en la actualidad son muy efectivos, pero son sintomáticos; no
detienen el avance de la enfermedad de Parkinson". Así resume José González
Castaño, del Departamento de Metabolismo y Señales Celulares del Instituto de
Investigaciones Biomédicas Alberto Sols de Madrid, las actuales armas para
combatir la que constituye la segunda patología neurodegenerativa más frecuente
en las personas mayores de 65 años.
El desconocimiento de las causas de esta dolencia, cuyo día mundial se celebra
hoy, es probablemente el principal freno para el desarrollo de alternativas
terapéuticas que permitan curarla o, incluso, erradicarla antes de que empiecen
a manifestarse los primeros síntomas. En palabras de Gurutz Linazasoro, director
del Centro de Investigación de Parkinson de la Policlínica Gipuzkoa de San
Sebastián, hay que tener en cuenta que se trata de una patología "muy compleja,
incluso podríamos hablar de más de una enfermedad". Además, se sabe que están
implicados factores tanto genéticos como ambientales. El avance científico está
resultando más lento de lo que se esperaba hace algunos años. En opinión de José
López Barneo, catedrático de Fisiología del Instituto de Biomedicina de Sevilla,
uno de los retos para acelerar el es "el desarrollo de nuevos modelos animales
en los que se produzca una muerte celular progresiva y lenta, como en los
humanos.
Se sabe que cuando aparecen los síntomas ya han muerto en torno al 50% de las
células productoras de dopamina de la zona cerebral conocida como sustancia
negra y que este proceso tiene lugar en un periodo de entre cinco y diez años.
El Parkinson aparece por la degeneración de los ganglios basales - y, más
concretamente, de la sustancia negra-, áreas neuronales específicas situadas en
la base del cerebro encargadas de la coordinación de los diferentes grupos
musculares, entre otras funciones. El principal neurotransmisor de estas
neuronas es la dopamina. Constituye una patología incapacitante y de progresión
lenta que ha sido popularmente asociada al temblor, pero también provoca
bradicinesia (lentitud en los movimientos) y rigidez creciente de los músculos.
Asimismo, son habituales los síntomas no relacionados con el movimiento, como la
ansiedad, la depresión, la irritabiliad, la lentitud de pensamiento o los
problemas de memoria.
Aunque aún queda un largo camino hacia la prevención y la curación de la
enfermedad, la diversidad de las investigaciones emprendidas y los cuantiosos
recursos económicos que se están destinando auguran un futuro cargado de
esperanza para los más de cuatro millones de afectados en el mundo, 100.000 de
ellos residentes en España. El proyecto que aglutina a un mayor número de
científicos en España es el Centro de Investigación en Red de Enfermedades
Neurodegenerativas (Ciberned).
Búsqueda de la causa se intensifica
El Parkinson sólo es hereditario en aproximadamente un 10% de los casos. Se han
identificado unos 10 genes implicados, pero tras la euforia inicial de este
descubrimiento se comprobó que, en realidad, las claves genéticas de esta
patología siguen ocultas. De hecho, esos genes no están alterados en las
personas con la forma más habitual - la no familiar- de la patología. Un posible
origen de la dolencia es el estrés oxidativo. "En modelos animales y en personas
drogodependientes que consumieron droga adulterada con un compuesto tóxico (MPTP)
está bien demostrado que el estrés oxidativo produce la muerte de las neuronas
dopaminérgicas y una sintomatología similar a la de la enfermedad de Parkinson",
señala González Castaño.
En condiciones normales, nuestras neuronas están preparadas para aguantar éste y
otros tipos de agresiones. Por eso, la pérdida de mecanismos de protección
antiestrés oxidativo sería una explicación plausible para la neurodegeneración,
pero la investigación en este terreno aún no es concluyente. Otra explicación
reside en la agregación y degradación de proteínas. Un problema observado en
casi todas las enfermedades neurodegenerativas es que las neuronas acumulan en
su interior (y a veces fuera) proteínas mal plegadas.
"Las proteínas, para su correcto funcionamiento, tienen que tener una estructura
determinada", explica el investigador de Madrid. "Si esa estructura cambia, por
acción de agentes externos a la célula o porque el gen que codifica una proteína
está alterado, entonces la forma que adquiere está alterada". La consecuencia es
que ya no se moverá libremente por la célula y tenderá a juntarse con otras
proteínas que, como ella, tienen una estructura alterada.
En el caso del Parkinson, estas acumulaciones están fundamentalmente
constituidas por la proteína denominada sinucleina, que se deposita en las
neuronas formando estructuras que se denominan cuerpos de Lewy.
"Estas proteínas con forma alterada, solas, en 'comandita' (unas cuantas juntas)
o en gran número producen seguramente el daño en la función neuronal y,
consecuentemente, la muerte neuronal", expone González Castaño. Pero hay varias
preguntas que debe responder la ciencia. Por ejemplo, aún no se sabe con certeza
qué pone en marcha el programa de muerte neuronal: la proteína sola, los
pequeños o los grandes agregados de sinucleina.
José Ángel Obeso, neurólogo de la Clínica Universitaria de Navarra, plantea otro
interrogante: "Desconocemos si los cuerpos de Lewy que observamos acaban matando
a las neuronas o si se encuentran sólo en las células que han sobrevivido al
proceso y, por lo tanto, son protectores". Su hipótesis es que podrían tener un
papel positivo, pero esa protección se perdería cuando se produce una
acumulación excesiva de proteínas.
Este médico también considera que hasta que no se conozcan las causas de la
patología no se podrá avanzar más allá de los actuales tratamientos de
reposición de la dopamina perdida. Esta es la línea que sigue su grupo. Lo ideal
sería poder ver qué ocurre en cada célula y en los agregados mediante técnicas
de neuroimagen. Hoy en día sólo es posible observar la evolución cerebral a gran
escala con técnicas como la resonancia magnética; los análisis microscópicos se
realizan tras la muerte del paciente.
Futuras dianas terapéuticas contra el Parkinson
El tratamiento actual se basa en la administración de levodopa y otros
medicamentos que obtienen resultados muy buenos en las etapas iniciales de la
patología, pero no evitan su progresión y a largo plazo sus efectos ya no son
tan positivos. Por eso, uno de los retos fundamentales es el desarrollo de
medicamentos neuroprotectores, es decir, que protejan a las neuronas y eviten
que mueran. En este capítulo se han hecho muchos progresos y hay multitud de
productos en investigación. El tiempo dirá si finalmente cumplen todas las
expectativas. Durante una época hubo una apuesta muy fuerte por la vitamina E
como terapia preventiva. Sin embargo, los resultados de los ensayos clínicos
para probar esta hipótesis no han logrado mostrar un efecto neuroprotector. Los
denominados factores neurotróficos se perfilan como uno de los mejores métodos
para intentar mantener "vivas" a las neuronas. Uno de ellos es el GDNF y otro la
neurturina. "Nuestro cerebro los produce en pequeñas cantidades. Ahora se
intenta averiguar si a mayores dosis mejora su función", precisa López Barneo.
Se pueden administrar a través de virus modificados (para inactivar su capacidad
infectiva), con trasplantes de células que los incluyan o inyectándolos
directamente en el cerebro (con una especie de cánula). Las evidencias
preliminares de estas estrategias en humanos son bastante positivas. El equipo
de López Barneo ha comprobado su eficacia en 12 pacientes a los que se les
realizó un trasplante de células del cuerpo carotídeo (situado en el cuello),
que producen mucha dopamina. El reemplazo del neurotransmisor fue la intención
inicial de esta investigación, pero recientemente han comprobado que estas
células "también son ricas en GDNF", asevera el científico. "Creemos que los
beneficios observados se deben fundamentalmente a esto último", añade.
Por otro lado, este mismo grupo sevillano descubrió hace unos meses, en
experimentos con ratones, que en el cuerpo carotídeo hay células madre. Si este
hallazgo se confirma en humanos, se podría amplificar el cuerpo carotídeo y, de
esa manera, inyectar un mayor número de células. Las terapias celulares están
siendo objeto de una intensa actividad experimental tanto en animales como en
persona. Pero los logros no siempre siguen una línea recta. A veces se producen
efectos inesperados que obligan a replantear la trayectoria y, al mismo tiempo,
proporcionan valiosas pistas para futuras indagaciones.
Un buen ejemplo se encuentra en dos estudios publicados la semana pasada en la
revista 'Nature Medicine'. El trasplante de células fetales productoras de
dopamina se efectuó en una zona del cerebro distinta a la afectada por el
Parkinson. Sin embargo, al cabo de un tiempo se comprobó que los individuos
sometidos a este tratamiento presentaban agregados de proteínas en la zona del
injerto. Todo parece indicar que la patología tiene la capacidad de expandirse
hacia las nuevas células terapéuticas.
Nanotecnología
El grupo de Linazasoro, en colaboración con el Parque Tecnológico de Miramón de
San Sebastián, se ha embarcado en otro fascinante viaje hacia el futuro: la
nanotecnología. Esta ciencia de lo muy pequeño proporcionará herramientas de
diagnóstico y terapéuticas. Así, se podrán liberar fármacos en lugares
específicos del sistema nervioso. Al actuar directamente sobre una zona
concreta, sus efectos secundarios en el resto del organismo serán mucho menores.
Asimismo, esta tecnología ayudará a mejorar las condiciones de cultivo de las
células que posteriormente se utilicen en trasplantes.
Fuente:
elmundo.es, 11 de Abril de 2008
-Nuevas imágenes de una Luna condenada
Fobos, una de las dos lunas de Marte, tiene los días contados. La fuerza
gravitatoria del planeta le está haciendo perder altura y en unos pocos millones
de años (de 30 a 80) caerá sobre su superficie, o bien se desintegrará, para
formar un anillo de escombros, parecido al de Saturno. Entretanto, aún tiene
mucho que ofrecer. La sonda Mars Reconnaissance Orbiter (MRO) de la NASA ha
tomado las imágenes de mayor calidad de Fobos hasta ahora y en los próximos años
el satélite será objeto de estudio y exploración. El científico Alfred McEwen,
uno de los responsables de la sonda, explica: “Fobos tiene mucho interés, porque
puede contener mucho hielo y materiales ricos en carbono”. Las nuevas imágenes
ayudarán a definir cómo surgió y cómo ha evolucionado. En 2009, Rusia encabezará
el estudio del satélite, cuando lance una sonda que tiene previsto aterrizar
sobre Fobos y regresar a la Tierra con muestras de su superficie. Otros
proyectos aún más ambiciosos plantean que esta luna marciana se convierta en
destino para los astronautas, como paso intermedio en la conquista humana de
Marte.
Se
puede observar en las fotos los detalles de Fobos. Su superficie está marcada
por los impactos de los meteoritos. Las distintas coloraciones hacen pensar en
diferencias de composición. Las tonalidades más azuladas podrían corresponder a
materiales más recientes
Historia de Fobos
De momento, las imágenes de la MRO muestran con gran calidad parte de la
historia de Fobos. Como rasgo más destacado se observa el cráter Stickney, con
sus nueve kilómetros de diámetro; es el vestigio de un impacto que a punto
estuvo de despedazar el satélite, que sólo tiene 22 kilómetros de diámetro. En
las paredes del cráter los científicos han podido ver incluso lo que parecen
corrimientos de tierra. En el resto del satélite, probablemente un
asteroide perdido atrapado por la gravedad marciana, se observan cadenas de
cráteres, fruto de años de bombardeo de un cuerpo que no tiene una atmósfera que
lo proteja. Algunos de estos pequeños agujeros pudieron ser provocados por los
restos de metralla despedidos tras el impacto de meteoritos contra Marte. Las
nuevas imágenes fueron tomadas por la cámara HiRISE (Experimento Científico de
Imagen de Alta Resolución) de la MRO desde una distancia de 5.800 kilómetros.
Fuente: publico.es, 10 de Abril de 2008
-El
primo de la Tierra en la constelación de Leo
Todavía no entendemos la vida en la Tierra y cada vez damos
más pasos para descubrila fuera de nuestro planeta. El último ha sido el
descubrimiento de un nuevo planeta extrasolar de pequeñas dimensiones en la
constelación de Leo. Así lo ha manifestado hoy Ignasi Ribas, investigador del
Consejo Superior de Investigaciones Científicas (CSIC), quien junto a Andreu
Font, han presentado ese nuevo planeta, denominado GJ 436c, que es de tipo
rocoso, tiene una masa de cinco tierras, y se encuentra a 30 años luz de la
Tierra.
El hallazgo, que aparece publicado en el último número de la
revista
Astrophysical Journal Letters , "es un pasito más" para encontrar planetas
con una superficie similar a la Tierra y a una distancia de su estrella que le
permita tener las características adecuadas para albergar vida.
Primos, no clones
Ribas ha augurado que un descubrimiento de ese tipo podría
ocurrir dentro de una década, aunque en ningún caso se tratará de un "clon" de
nuestro mundo. El astrofísico ha explicado que para que un planeta se defina
habitable debería estar a una distancia de su estrella que le permitiese tener
una temperatura adecuada para la vida y, además, disponer de agua líquida en su
superficie. Ignasi Ribas ha destacado que la importancia de su descubrimiento
radica en que se trata de un planeta de pequeñas dimensiones, aproximadamente
cinco masas terrestres, que podría ser el más pequeño descubierto hasta el
momento. Actualmente sólo se conocen unos cuatro o cinco que estén por debajo de
diez la masa de la Tierra, a los que se denomina "super-tierras", pues la mayor
parte de los aproximadamente 280 planetas descubiertos hasta el momento son
gigantes gaseosos del tamaño de Júpiter.
Además, el hallazgo es también importante porque la técnica
utilizada por el equipo español es novedosa respecto a las usadas hasta ahora,
pues es el primero encontrado por las perturbaciones ejercidas sobre otro
planeta del mismo sistema. Esta técnica "tiene una proyección de futuro bastante
importante para descubrir planetas pequeñitos que sean capaces de perturbar a
otros más grandes, de un tamaño alrededor de una masa terrestre".
Nuevas vías
Los investigadores han conseguido explicar la existencia del
exoplaneta mediante simulaciones informáticas, después de detectar que
perturbaba a otro planeta interior de la estrella CJ 436, causando cambios en su
órbita. En 2004, un grupo de investigadores norteamericanos estudió esa estrella
y descubrieron un planeta a su alrededor, con una masa 22 veces superior a la
Tierra, que describe una órbita ligeramente elíptica, algo difícil de explicar
por los científicos.
A mediados del pasado año, un equipo suizo detectó la
existencia de tránsitos (movimientos por delante de la estrella y que sean
visibles desde la Tierra) causados por ese planeta, que no se había observado en
el anterior estudio. A raíz de ello, el equipo dirigido por Ribas decidió
estudiar las dos características singulares de ese sistema planetario: su órbita
elíptica y la ausencia de tránsitos en 2004 y su descubrimiento tres años
después. Los científicos españoles predijeron la existencia de un pequeño
planeta que orbitaba esa estrella y que perturbaba al planeta interior causando
cambios en su órbita. El nuevo exoplaneta sería probablemente "un poquito más
grande que la tierra", quizá un 50% más, y sus particularidades son que gira
alrededor de su estrella de forma rápida, ya que solo tardaría 5,2 días
terrestres en dar la vuelta.
Por el contrario, su periodo de rotación es "relativamente lento" comparado
con el de la Tierra (4,2 días terrestres), lo que quiere decir que su
climatología sería bastante curiosa.
Fuente: publico.es, 9 de Abril de 2008
-Aborígenes en Las Palmas de Gran Canaria
Las obras de excavación para un tendido eléctrico que desarrollan en un sector
de la acera de la calle Isla de Cuba, comprendido entre 29 de Abril y
Secretario Artiles, han permitido sacar a la luz un fragmento cerámico de
indudable factura aborigen.
Se trata de un asa perforada, correspondiente a una vasija de cerámica
pintada, y que apareció enterrada bajo la arena, señalándose además la
presencia de material malacológico (lapas y ostrones), sin que pueda
determinarse la relación entre ambos elementos. Informado el servicio de
Patrimonio Histórico a través de CANARIAS7, técnicos del Cabildo de Gran
Canaria se desplazaron al lugar indicado. Allí levantaron acta del hallazgo y
anotaron su localización, descartando en principio la fertilidad arqueológica
de dicho espacio, afectado con anterioridad por movimientos de tierras. No se
apreció la presencia de estructuras o de otros materiales arqueológicos.
Lugar del hallazgo
Se da la circunstancia de que apenas se excava en esta zona de la ciudad,
aparece el sustrato arenoso, demostrativo de los amplios arenales que cubrían
esta parte de la Isla, en un espacio que abarcaba desde la playa de Las
Canteras, a barlovento, hasta las mismas murallas de la ciudad antigua. Por
ello, la presencia de material arqueológico en la zona adquiere mayor
significación, pues resulta indicativa de la presencia de población aborigen,
en un espacio en principio poco apto para un asentamiento permanente.
Precisamente la Carta Arqueológica de Las Palmas de Gran Canaria, señala la
existencia de una amplia área con evidencias arqueológicas de los antiguos
canarios, más hacia el sur, en las inmediaciones de la Avenida de Mesa y
López, aunque hasta el presente no había referencias de materiales
arqueológicos en esta zona.
Este hallazgo hace patente la necesidad de llevar adelante la Carta
Arqueológica del subsuelo de la capital grancanaria, proyecto que se encuentra
en fase avanzada, y además la necesidad del seguimiento y vigilancia de las
excavaciones y desmontes que se ejecuten a lo largo del término municipal, en
razón de la posible presencia de materiales arqueológicos o paleontológicos.
Fuente: Canarias
7, 9 de Abril de 2008
-Ciberataques.
¿cómo en el 11-S?
Algunos comentaristas se asombraron cuando, hace poco menos de un año, un
alto funcionario del Ministerio de Defensa de Estonia, Mijaíl Tammet, le dijo a
la BBC que ambas situaciones eran comparables. En ese momento, Estonia
acusaba a Rusia de haber lanzado un ataque electrónico sin precedentes en su
contra, a raíz de las diferencias entre ambos países por la decisión del primero
de trasladar el monumento de un soldado ruso de Tallin, su capital.
Michael Chertoff, director del Departamento de Seguridad Nacional de EE.UU.
Ahora, el director del Departamento de Seguridad Nacional de Estados Unidos,
Michael Chertoff, hizo una comparación similar, durante una presentación en la
mayor conferencia internacional sobre seguridad informática, RSA 2008, que tiene
lugar en San Francisco, California.
Chertoff dijo que las graves amenazas al ciberespacio son "equivalentes a lo
que este país sufrió trágicamente el 11-S".
Según él, los ataques cibernéticos pueden transformarse en una "guerra
devastadora" y causar daños similares al "peor tipo de destrucción física".
Chertoff instó a los "mejores y más brillantes" especialistas del sector
privado a colaborar con el gobierno para proteger a las redes informáticas de
posibles ciberataques organizados.
Tomamos las amenazas al ciberespacio tan en serio como las amenazas al mundo
material", dijo.
Chertoff puso como ejemplo los ataques electrónicos a Estonia, el año pasado,
y señaló que acciones similares contra las redes financieras o los sistemas de
control del tráfico aéreo podrían tener enormes consecuencias.
"Imagínense un ataque sofisticado contra nuestros sistemas financieros, que
provocara su parálisis", dijo.
"Esto conmocionaría los principios de confianza en que se basa nuestro
sistema financiero", añadió.
Chertoff anunció que el fundador de la empresa Twiki.net, Rod Beckstrom,
encabezará un nuevo grupo que coordinará los esfuerzos del gobierno federal para
proteger las redes informáticas.
Estonia
El año pasado, durante varias semanas, Estonia fue víctima de ataques
informáticos coordinados. Los ciberpiratas secuestraban páginas de sitios
gubernamentales y las redirigían hacia sitios de propaganda rusa. La
situación llegó a ser tan crítica que la Organización del Tratado del Atlántico
Norte (OTAN) se vio obligada a intervenir. Mijaíl Tammet, quien estaba a cargo
de la seguridad informática del país, le dijo a la BBC que "Estonia depende en
gran medida de la internet. Tenemos un e-gobierno (gobierno electrónico), un
gobierno sin papeles, sin documentos escritos".
"Todos nuestros servicios bancarios se hacen por internet. Incluso elegimos
nuestro parlamento por internet", añadió.
Rusia negó haber estado involucrado en este "terrorismo cibernético".
Fuente: BBC Mundo, 9 de Abril de 2008
-El
futuro en Japón en manos de los robots
Los robots podrían realizar el trabajo de 3,5 millones de personas en el
avejentado Japón para 2025, a juicio de un grupo de expertos, para ayudar
así a evitar la escasez de trabajadores conforme se vaya reduciendo la
población activa del país, según ha explicado un grupo de expertos.
Según las estimaciones del Gobierno, Japón se enfrentará en 2030 a un
descenso del 16% de su fuerza de trabajo al tiempo que se multiplicará el
número de ancianos del país. Estos datos provocan dudas sobre quién hará el
trabajo en un país que no está acostumbrado ni se muestra dispuesto a
contemplar la posibilidad de recibir inmigración a gran escala. El grupo de
expertos, la
Machine
Industry Memorial Foundation, afirma que los robots podrían ayudar a
ocupar los puestos libres y en lugar de que cada robot sustituya a una
persona, sugiere que lpodrían utilizarse para ahorrar tiempo y permitir que
la gente se concentre en ocupaciones más importantes. En 2025, Japón podría
ahorrarse 2,1 billones de yenes (unos 13.150 millones de euros) en pagos de
seguros a sus ancianos si utilizara robots que vigilasen la salud de las
personas mayores para que no tengan que depender del cuidado médico humano,
apunta la fundación en su informe.
En 2025, el 40% de la población se habrá jubilado
Los cuidadores se ahorrarían más de una hora al día si los robots ayudaran a
cuidar a niños y ancianos e hicieran parte del trabajo de la casa, añade. Así
por ejemplo, las tareas de los robots podrían incluir desde leer libros en voz
alto hasta ayudar a bañar a los mayores.
Kiyomori, el robot samurai
"Los mayores están retrasando su jubilación hasta los 65 años, se están
construyendo centros de día para que más mujeres puedan trabajar durante el día
y hay un movimiento para aumentar la cuota de trabajadores extranjeros. Pero
nada de esto puede compensar la reducción de la fuerza de trabajo", ha afirmado
Takao Kobayashi, uno de los responsables del estudio. "Los robots son
importantes porque podrían ayudar de alguna manera a aliviar esa escasez en la
fuerza laboral".
La tasa actual de fertilidad en Japón es de 1,3 hijos por mujer, un dato que
queda muy lejano del nivel necesario para mantener la población. Además, el
Gobierno calcula que el 40% de la población tendrá más de 65 años en 2025.
Kobayashi ha apuntado que aún se necesitan cambios para que los robots tengan un
gran impacto en la fuerza de trabajo. "Los costes son elevados, sus funciones
tienen que mejorar y después está la mentalidad de la gente", ha reconocido. "La
gente tiene que estar dispuesta a hacer uso de los robots".
Fuente: adn.es, 8 de Abril de 2008
-Los científicos descubren diferencias en
la conexión entre neuronas
Por primera vez un
equipo de científicos del Reino Unido ha observado el modo en que están
conectadas las células nerviosas del lado izquierdo y derecho en una parte del
cerebro llamada habénula. Se espera que el estudio, financiado parcialmente con
fondos comunitarios, proporcione más indicios sobre el modo en que las
asimetrías cerebrales afectan a nuestro comportamiento cognitivo, emocional y
social.
Nuestro cerebro está
compuesto por dos mitades, la derecha y la izquierda, conectadas por masas de
fibras nerviosas que permiten que los "mensajes" se transmitan entre ellas. Por
ejemplo, la parte derecha del cerebro normalmente se encarga de las emociones,
mientras que la parte izquierda controla tareas más analíticas como el
procesamiento del lenguaje.
Sin embargo, hasta ahora se sabía muy poco sobre la conexión de células
nerviosas individuales y su efecto en estos procesos. "No cabe duda de que la
mitad derecha y la mitad izquierda del cerebro procesan diferentes tipos de
información, pero se sabe muy poco sobre las diferencias que existen en el
sistema de circuitos del cerebro", comentó el profesor Stephen Wilson del
University College de Londres. "Una posibilidad es que se pueden encontrar tipos
totalmente diferentes de neuronas en la parte izquierda y en la derecha.
Asimismo, ambos lados podrían contener los mismos componentes básicos pero
conectarlos de modos diferentes."
Con el fin de investigar esto, el profesor Wilson y su equipo de investigadores
examinaron las células nerviosas de la mitad izquierda y derecha en una parte
del cerebro llamada habénula. Con el uso de una electroporación focal para
expresar una proteína de fluorescencia verde (GFP) unida a la membrana en
neuronas individuales o en pequeños grupos de neuronas habenulares, los
investigadores fueron capaces de visualizar la morfología completa de estas
células en el cerebro intacto.
Observaron que hay dos clases de neuronas habenulares y que ambos tipos pueden
encontrarse tanto en la mitad izquierda como en la derecha. Sin embargo,
mientras que la mayoría de las células del lado izquierdo tienen axones en forma
de espiral o fibras nerviosas en forma de corona abovedada, estas neuronas no
son muy comunes en la parte derecha. En cambio, la mayor parte de las células
del lado derecho forman espirales planas, las cuales se forman sólo y
ocasionalmente en la mitad izquierda.
"Del mismo modo que un ingeniero puede crear circuitos electrónicos diferentes a
partir de los mismos componentes electrónicos, las mitades izquierda y derecha
del cerebro usan los mismos tipos de neuronas pero en combinaciones diferentes",
explicó Isaac Bianco, uno de los investigadores implicados en el estudio.
Los circuitos habenulares de la izquierda y de la derecha conectan con la misma
parte del cerebro, y los investigadores descubrieron que esta zona cerebral
puede bien combinar señales de la parte izquierda y derecha o bien ocuparse de
ellas de manera independiente.
"A pesar de que el lenguaje se procesa principalmente en la parte izquierda del
cerebro humano, las personas no hablan sólo con una mitad de la boca. El cerebro
debe contener circuitos que recogen información de la parte izquierda y de la
derecha y que la envían a las zonas encargadas de descifrar esta información en
ambas partes del cuerpo", afirmó el profesor Wilson.
El estudio, publicado en la revista de acceso abierto Neural Development, forma
parte de un proyecto mayor financiado con fondos comunitarios y titulado "Evolution
and development of cognitive, behavioural and neural lateralisation" (EDCBNL).
El objetivo de este proyecto es proporcionar un mejor entendimiento del impacto
de las asimetrías cerebrales sobre nuestros comportamientos cognitivo y social.
Fuente: Cordis,
7 de Abril de 2008
-Acuerdan en Bangkok una ambiciosa agenda de trabajo para reducir el dióxido de
carbono
Unos 1.200 delegados
de 163 naciones han aprobado en Bangkok la agenda de las negociaciones de un
nuevo acuerdo para combatir de manera más certera y completa el cambio climático
a partir de 2012, cuando venza el Protocolo de Kioto.
Tenemos todos los
elementos del plan de acción de Bali", destacó el serbio Andrej Kranjc, uno de
los representantes de la Comisión Europea (CE) en la reunión, en referencia a la
"Hoja de Ruta" aprobada en diciembre en esa isla indonesia. El llamado por
algunos "Kioto 2" seguirá negociándose en Alemania en junio y lo primero que se
tratará será la transferencia de tecnología de los países industrializados a los
emergentes. Las naciones en vías de desarrollo se han negado en estos cinco días
de debates en la capital tailandesa a aceptar controles o reducciones de sus
emisiones de gases contaminantes mientras los países ricos no se comprometan en
firme con sus ayudas financieras.
En agosto se celebrará otra reunión en Ghana que abordará, según se decidió, la
deforestación y la reforestación, apartados que los científicos consideran
esenciales para combatir el aumento de las temperaturas del planeta. La
propuesta de Japón de negociar recortes de dióxido de carbono por sectores,
introducida en Bangkok, arrancó el rechazo de delegaciones como la de China o la
India y se ha dejado para agosto, a pesar de la fuerte presión que ha ejercido
la representación nipona. El grupo de trabajo decidió aplazar a 2009 las
discusiones sobre las obligaciones de Estados Unidos, a la espera de que el
presidente norteamericano que emane de las elecciones que se celebrarán en
noviembre será más favorable a aceptar compromisos que el actual, George Bush.
Estados Unidos es el único país industrializado que se ha negado a ratificar el
Protocolo de Kioto, que entró en vigor en 2006 para actuar sobre las emisiones
de dióxido de carbono, metano, óxido nitroso, hidrofluorocarbono,
perfluorocarbono y hexafluoruro sulfúrico.
La última reunión de la Convención Marco de las Naciones Unidas sobre el Cambio
Climático de este año se celebrará en Polonia, en diciembre. El otro grupo de
trabajo, con el cometido de supervisar el cumplimiento de los acuerdos de Kioto,
aprobó con menos problemas que el anterior explorar vías para reducir las
emisiones de gases contaminantes en aviones y barcos, un volumen que representa
entre el 5 y el 8 por ciento del total de las emulsiones que causan el efecto
invernadero. La Unión Europea (UE), que impulsaba la iniciativa junto a Noruega,
hubiera deseado un compromiso más ambicioso, pero al menos el conseguido supera
las reticencias de las naciones emergentes y les arranca el compromiso de
estudiar la opción. El bloque europeo, uno de los frentes que ha buscado mayores
compromisos en la reunión de Bangkok, acordó en 2007 reducir en un 20% sus
emisiones de CO2 para 2020. Las delegaciones de Brasil y Sudáfrica propusieron
la alternativa de que las naciones industrializadas adoptaran recortes y las
emergentes abordasen controles.
Otro punto de controversia surgió con la propuesta del Banco Mundial de que se
aprobase la creación de fondos especiales para que los estados en vías de
desarrollo accedan a créditos con los que poder financiar las reformas
necesarias. Los afectados y las organizaciones ecologistas acusaron al
Banco Mundial de tratar de controlar la financiación de la lucha contra el
cambio climático, esfuerzo que los científicos y empresarios calculan que
costará miles de millones de dólares. Las ofertas del Banco Mundial de
establecer un Fondo para Tecnología Limpia de entre 5.000 y 10.000 millones de
dólares y otros de 500 millones de dólares para adaptación se quedaron sobre las
mesas de trabajo. A pesar de las grandes diferencias expuestas en Bangkok
y que vaticinan un largo, difícil y tortuoso camino de negociaciones, el
propósito de esa reunión se ha cumplido: conseguir una agenda de trabajo.
Fuente: EFE, 7 de Abril de 2008
-La UE
ha subestimado la amenaza climática en sus objetivos
James Hansen, uno de los mayores expertos en clima de la
NASA, y otros ocho investigadores internacionales acaban de publicar en internet
un demoledor informe en el que se indica que la Tierra se encamina a una
catástrofe climática si no se reduce la cantidad de dióxido de carbono en la
atmósfera a 350 partes por millón (ppm).
El problema es que, actualmente, los objetivos de reducción de emisiones de
la Unión Europea, que son los más restrictivos del mundo, se conforman con 550
ppm. Hansen ya viene advirtiendo desde hace tiempo que habría que rebajarlos
hasta 450 ppm, pero su nuevo estudio le ha echo cambiar de opinión: "Me
he dado cuenta de que era una cifra muy alta".
La
nueva investigación ha tenido en cuenta los datos extraídos de muestras
rocosas extraídas de los fondos oceánicos, las cuales guardan en su interior un
registro del dióxido de carbono en la historia geológica de la Tierra.
Sus resultados indican que un descenso hasta las 425 ppm causó el
enfriamiento del planeta durante la Edad de Hielo. Por ello, los investigadores
concluyen que en ese rango el clima es muy susceptible a las variaciones
de CO2 atmosférico, y alertan de que ahora nos encontramos en las 385
ppm, "ya en la zona peligrosa".
"Si nos quedamos en 450 ppm [es decir, el objetivo que ahora demandan la
mayoría de activistas y científicos climáticos] durante bastante tiempo, es
probable que se derrita todo el hielo. Eso es un aumento del nivel del
mar de 75 metros", ha explicado Hansen al diario 'The Guardian', que
adelantó los resultados de su estudio.
"Lo que hemos descubierto es que el objetivo hacia el que todos estábamos
apuntando es un desastre, un desastre garantizado", añade Hansen, quien
protagonizó
una encarnizada polémica con el Gobierno de EEUU hace unos años tras
denunciar que los estrategas de comunicación de la NASA habían tratado de
silenciarle.
Al margen de estos desencuentros, Hansen es muy popular en el ámbito
climático desde principios de los 80, cuando comenzó a alertar en las
principales publicaciones científicas sobre los peligros del calentamiento
global. Es
investigador
en la Universidad de Columbia, desde donde gestiona el neoyorquino Instituto
Goddard, adscrito a la NASA.
Fuente: elmundo.es, 6 de Abril de 2008
-Restos de canibalismos entre antiguas
galaxias enanas
Un equipo internacional de astrónomos ha identificado
gigantescas corrientes de estrellas en la periferia de dos galaxias
espirales próximas y por primera vez, ha obtenido una visión panorámica de
un fenómeno de “canibalismo” galáctico en el entorno de la Vía Láctea. La
detección de estos gigantescos fósiles estelares corrobora las predicciones
del modelo cosmológico de la materia oscura fría, que sugiere que las
galaxias espirales actuales se formaron a partir de la fusión de sistemas
estelares menos masivos. La primera de estas estructuras de escombros
envuelve a la galaxia NGC 5097, situada a 40 millones de años luz de
distancia de la Tierra y formada a partir de la destrucción de una de sus
galaxias enanas satélites hace unos 5.000 millones de años. Según los
investigadores, la galaxia enana ha perdido ya la mayoría de su masa en
forma de estrellas, cúmulos estelares y materia oscura. Todo ello ha quedado
distribuido a lo largo de su órbita y ha dado lugar a una estructura de
fósiles galácticos que se entrecruzan de manera compleja y cuyo radio supera
los 150.000 años luz. "Nuestros resultados ofrecen una perspectiva externa
inédita de este espectacular fenómeno alrededor de galaxias espirales y
demuestran que los halos (el exterior de las galaxias) aún contienen fósiles
de galaxias enanas, una oportunidad única para estudiar las últimas etapas
del ensamblaje de galaxias como la nuestra", sostiene David Martínez,
investigador del Instituto de Astrofísica de Canarias (IAC) que lidera el
equipo que ha llevado a cabo las observaciones.
En su rastreo, los astrónomos no han sido capaces de
encontrar el cuerpo principal de las galaxias devoradas, por lo que suponen
que podrían estar completamente destruidas en la actualidad. "Estas
corrientes estelares son muy difíciles de detectar y son muy poco densas en
estrellas, lo que les confiere un aspecto fantasmal. De hecho, al
estar relacionadas con la muerte de una galaxia enana, podrían considerarse
como los fantasmas de galaxias ya desaparecidas", comenta Martínez.
El equipo ha descubierto otra gigantesca y tenue
corriente en forma de bucle en la galaxia NGC 4013, situada a casi 50
millones de años luz de distancia en la constelación de la Osa Mayor. Su
fantasmal séquito estelar se proyecta a más de 80.000 años luz desde el
núcleo y está compuesto por viejas estrellas pobres en metales.
Aunque su geometría tridimensional es desconocida, posee
una estructura muy similar a la corriente de marea Monoceros, un anillo
estelar que circunda la Vía Láctea y que se formó por la destrucción de una
galaxia enana hace tres mil millones de años. Jorge Peñarrubia,
astrofísico teórico de la Universidad de Victoria (Canadá) y miembro del
equipo, es un experto en modelar estas corrientes estelares. Según
Peñarrubia, "el ajuste de los modelos teóricos a estas estructuras nos
permite reconstruir su historia y describir una de las componentes más
misteriosas y controvertidas de las galaxias:la materia oscura".
Galaxia espiral NGC 5097 rodeada por los restos de la galaxia fagocitada
Fuente: Diario 21, 5 de Abril de 2008
- Ciberespionaje, la privacidad de la OTAN y la nuestra en
peligro
Aquí van algunas de las interesantes noticias leías en algunos periódicos
digitales sobre el acceso a información privada o invasión de la intimidad que
internet ha hecho posible:
La OTAN se refuerza contra los ataques cibernéticos
La OTAN ha creado equipos especiales encargados de actuar en caso de ataques
cibernéticos tras la agresión severa que sufrieron el año pasado los portales de
internet del gobierno de Estonia, miembro de la Alianza Atlántica, informó este
viernes un alto responsable de la organización.
"Ésta ha sido una amenaza muy clara y la OTAN ha respondido de una forma muy
eficaz y rápida, y ha encontrado los medios para reforzar sus sistemas", declaró
este responsable, que no quiso revelar su identidad, en el cierre de la cumbre
de la Alianza Atlántica en Bucarest.
El responsable calificó los ataques de "experiencia muy concreta" que condujo
a un cambio importante en la reflexión sobre este asunto por parte de la OTAN,
que respondió por ejemplo creando un Centro de Excelencia de Defensa Cibernética
en Tallín, Estonia. El país báltico cuenta con el apoyo en este proyecto de
Estados Unidos, Alemania, España, Italia y Rumanía.
"En primer lugar (desde los ataques de 2007) hemos definido lo que es un
ataque cibernético. También hemos desarrollado varias medidas para actuar en ese
caso, incluyendo el envío de equipos de respuesta a los países afectados",
explicó.
Para "administrar las consecuencias" de un eventual ataque de ese tipo, la
Alianza también creó equipos listos para intervenir en 24 horas en los países
afectados. Ya se habían creado equipos similares para ataques químicos,
biológicos o radiológicos.
Pero el responsable de la OTAN aseguró que un eventual ataque en internet
contra uno de los miembros de la Alianza Atlántica no desencadenaría una
respuesta militar. "Estamos lejos, muy lejos de ese tipo de escenario", aseguró.
Dos estadounidenses demandan a Google por fotografiar su casa
Una pareja de Pittsburgh, en Pensilvania (EEUU), ha demandado a Google por
intrusión en su esfera privada a través del servicio "Street View" del buscador,
que asocia fotografías de las calles de las grandes ciudades del país a su
conocido servicio de mapas. La prensa estadounidense recoge hoy las
declaraciones de Aaron y Christine Boring, que acusan a Google de "invasión
intencionada" de su privacidad al haber registrado con una furgoneta erizada de
cámaras la calle donde viven, pese a que está claramente marcada con una señal
de zona privada.
Los Boring señalan en la demanda, que fue presentada el 2 de abril, que la
inclusión de una foto de su casa en "Street View" de Google les ha causado
"sufrimiento mental" y ha reducido el valor del inmueble, que adquirieron en
2006 por "una considerable cantidad de dinero". Indicaron que su deseo de
privacidad "fue un componente principal en su decisión de adquirir la
propiedad". La prensa de EEUU ha accedido a documentos públicos sobre la
propiedad y afirma que los Boring pagaron 163.000 dólares por su casa. La pareja
pide una indemnización de 25.000 dólares y la destrucción de las imágenes de su
vivienda.
Pese a sus intenciones, lo único que han conseguido los Boring es que las
fotografías de su casa hayan sido enlazadas desde miles de sitios web del
planeta.
Casa
de los Boring que se ha vuelto muy popular
gracias a las protestas de sus dueños y a Google
Polémica entre Estonia y Moscú
Durante casi dos meses, los portales de internet del gobierno estonio fueron
objeto de ataques en 2007, supuestamente procedentes de Rusia. Estos ataques se
produjeron después de que Estonia decidiera desplazar un monumento de la era
soviética de Tallín a un cementerio militar.
La decisión fue motivo de protestas en la capital estonia.
Mientras el gobierno estonio responsabilizó de los ataques a varios jóvenes
piratas informáticos de origen ruso, residentes en el país, se sospecha que la
mayoría de los ataques procedieron de Rusia, fuera de la jurisdicción de
Estonia. Moscú negó toda implicación en los hechos, si bien las autoridades
estonias acusaron a sus pares rusas de no cooperar en la investigación.
Fuente: adn.es, 5 de Abril de 2008
-Vía libre para el primer transplante de cara en España
Nadie diría, a primera vista, que Pedro Cavadas (Valencia,
1965) es uno de los cirujanos reconstructivos más prestigiosos del mundo. Su
juventud, su indumentaria informal y la forma llana en la que se expresa pueden
hacer pensar a su interlocutor que se encuentra más bien ante un aventurero, un
montañero o el encargado de un safari africano. Pero las manos le delatan.
Grandes, dotadas de dedos finos y precisos, las manos de Cavadas serán claves
para que el cirujano salga airoso en los próximos meses de un gran reto:
realizar con éxito el primer trasplante de cara en España.
Tras saltar a la fama por algunos de sus logros, como el
primer trasplante bilateral de manos del mundo en una mujer o el injerto de un
brazo amputado en una pierna para mantenerlo vivo hasta su posterior reimplante,
este cirujano señala que ya tiene el visto bueno de la Organización Nacional de
Trasplantes (ONT) para realizar el primer trasplante de cara en España. Se trata
de una intervención que sólo se ha realizado en dos ocasiones en mundo, ambas en
Francia, si se descarta un supuesto tercer caso realizado en China que, según
este especialista, “no cuenta” porque no está bien documentado en la literatura
científica.
El trasplante que se propone llevar a cabo Cavadas es
técnicamente similar al primero del mundo, llevado a cabo con éxito el 27 de
noviembre de 2005 en Amiens (Francia) por un equipo encabezado por los
especialistas Bernard Devauchelle y Jean-Michel Dubernard. No obstante, Cavadas
advierte de que el caso que tiene entre manos es complejo y “tiene muchas pegas”
al margen de la cirugía. Mientras que en el caso de Isabelle Dinoire, la mujer
francesa que se convirtió en la primera trasplantada de cara del mundo, el
origen del traumatismo fueron los mordiscos de su perro, que le arrancaron parte
del rostro, el paciente que operará Cavadas padece una enfermedad rarísima que
el cirujano prefiere no citar para no dar pistas que pudieran servir para
identificar al receptor.
“El caso requiere un régimen anestésico peculiar y es tres
veces más complicado que el causado por un traumatismo, sobre todo por el manejo
de la enfermedad”, explica el especialista, que añade que él y su equipo están
estudiando mucho el caso para no cometer errores, en primer lugar por el
paciente, y en segundo porque va a tener repercusión. “No podemos fallar, aunque
si te arriesgas, te arriesgas, pero hay que atarlo todo mucho”, apunta.
No obstante, en este caso, el balance riesgo-beneficio es
favorable al paciente, ya que sufre una pérdida facial “más allá de lo que es
reconstruible”. “Se pueden conseguir narices muy convincentes con tejido propio,
al igual que ocurre con las orejas o un labio –los dos no–, pero a partir de un
determinado tamaño del defecto, las técnicas con tejido propio no ofrecen buen
resultado, y ahí se considera el trasplante”, sostiene el médico.
En cuanto a los plazos para llevarlo a cabo, Cavadas espera
tenerlo todo listo para que se pueda buscar donante a finales de este año. “Eso
quiere decir que, en ese momento, lo tienes que tener todo solucionado, que el
receptor está al otro lado del teléfono y el equipo médico está listo para
empezar”, señala. Una vez alcanzada esa fase, el momento en que realmente tendrá
lugar el trasplante “es algo que no se puede planear”, agrega Cavadas, ya que en
cualquier momento puede llegar la llamada de los responsables de coordinación de
trasplantes anunciando que hay un donante potencial, y es entonces cuando todo
se pone en marcha.“En nuestro primer caso del trasplante bilateral de manos”,
recuerda, “nos llamaron tras llevar toda la mañana con una cirugía muy larga,
que terminó a mediodía. Después preparamos todo y empezamos a las siete de la
tarde para terminar a las seis de la mañana del día siguiente. Me habría
encantado empezar a las ocho de la mañana, pero es lo que hay. Si estás cansado,
ya descansarás”.
Un trasplante parcial
Por otro lado, Pedro Cavadas, que recibió a Público en la
clínica que lleva su nombre en la capital del Turia, confirma que su trasplante
de cara será parcial, al igual que el de los franceses, y cree que aún habrá que
hacer muchos de este tipo antes de atreverse a afrontar el primer trasplante de
rostro completo del mundo. A su juicio, esto se debe a un principio básico de la
práctica médica, y también de la vida: “No te metas donde luego no vas a poder
salir si hay problemas. En un trasplante de manos, si a los 20 años el paciente
las rechaza, se las quitas y se queda como estaba al principio, pero el
trasplante total de cara incluye los párpados, y si se pierde debido a un
rechazo estás dejando los globos oculares desprotegidos, y ese es un mal
problema porque un ojo sin párpado es un ojo perdido en un plazo no muy largo de
tiempo. Además, encontrar un donante de cara cuesta mucho”.
Precisamente, ésta es otra de las dificultades que hay que
superar para llevar a cabo una intervención de estas características: encontrar
un donante apropiado. “Es, probablemente, la donación más difícil; ya es
complicado encontrar donantes de manos, porque son órganos visibles con
emotividad asociada, así que no se sabe el tiempo que puede pasar desde que
estamos dispuestos y con todos los problemas técnicos solucionados hasta
encontrar un donante. Además, al tratarse de trasplantes singulares que tienen
repercusión, la familia del donante, de algún modo, puede acabar sabiendo quién
es el receptor”, añade.
En cuanto al trasplante en sí, tendrá lugar en el Hospital La
Paz de Valencia y supone un reto desde el punto de vista de la organización, si
bien “las doce horas de cirugía son un ratito comparado con todo lo demás”, como
la gestión de la medicación inmunosupresora, que es siempre “el precio a pagar
por el paciente trasplantado”. “Hay que engañar al cuerpo para que aguante y no
rechace un tejido de otra persona, y el único modo que sabemos para conseguirlo
es envenenar el sistema inmune del paciente, dejándolomedio desconectado para
que no reaccione violentamente contra el órgano trasplantado, aunque entonces
tampoco lo hace contra infeccionesy tumores”.
En esta misma línea, el cirujano maxilofacial Patrick H.
Warnke, de la Universidad de Kiel (Alemania), autor en 2004 del primer
trasplante de mandíbula regenerada por el propio paciente tras serle injertada
bajo el hombro, explica a Público que la medicina regenerativa, y sobre todo la
ingeniería de tejidos, será “la solución en el futuro para evitar las
enfermedades secundarias que pueden apareceren personas sometidas de por vida a
medicación inmunosupresora, como el cáncer”, la principal pega de los
trasplante.
Inmerso en solucionar problemas graves, Cavadas no quiere ni
oír hablar de la cirugía estética. El especialista, que reconoce que llegó al
campo de la cirugía reconstructiva “casi de rebote”, prefiere dejar esa
especialidad “para quien le guste”. “Es la cirugía de la banalidad y la
vanidad”, remacha Cavadas, que muestra su preferencia por la gente “con
problemas de verdad, que lo está pasando mal”. Por último, preguntado por sus
detractores, lamenta que “el ser humano vea siempre como agresivo el éxito de
otro”. “De acuerdo que no sea bueno, pero déjalo en neutro”.
El trasplante de antebrazos más
atrevido
Tras los buenos resultados obtenidos con el primer trasplante
bilateral de manos en una mujer en noviembre de 2006 –Alba Lucía Carmona– y de
otro caso posterior que también está evolucionando como se esperaba, Cavadas y
su equipo esperan poder realizar en los próximos dos meses, cuando surja un
donante, la primera operación de este tipo del mundo en el que el injerto se
realizará por encima de la altura de los codos.
Nunca se ha hecho antes un trasplante tan alto, y el cirujano
cree que el resultado será “bastante peor” que si se ejecutara a nivel de los
antebrazos. Aunque en principio la cirugía a emplear será menos compleja, ya que
a ese nivel hay menos músculos, nervios, venas y arterias, y además todos los
elementos son más grandes, el sangrado es mucho mayor,
al igual que el tamaño de las heridas y el resultado funcional.
“No se ha hecho todavía en el mundo, pero extrapolando lo que
ocurre con un reimplante de un antebrazo propio a ese nivel, el resultado será
mejor que una prótesis, pero no espectacular. El paciente [un hombre que sufrió
un accidente al recibir una descarga de corriente de alta tensión] podrá mover
el codo y hacer una pinza básica con la mano, que es mucho más de lo que se
consigue hacer con una prótesis, pero menos de lo que se puede hacer con un
trasplante a nivel del antebrazo”, apunta Cavadas.
La existencia de prótesis cada vez más avanzadas podría
modificar el panorama del mundo de los trasplantes en el futuro, al convertir
algunos en innecesarios. Por ejemplo, la existencia de prótesis de piernas y
manos hacen poco razonable la realización de trasplantes de miembros inferiores,
y también de los de una sola mano. En el caso de las manos, someter a un
paciente al riesgo que supone la medicación inmunosupresora es discutible que
sea beneficioso, ya que teniendo una sola mano sólo hay cuatro o cinco tareas
que no se pueden hacer, como por ejemplo abrir una botella.
“Someter al paciente a un riesgo de complicaciones serias o
la muerte no es justificable en estos casos”, señala el cirujano valenciano, que
cree que los trasplantes y las prótesis son dos vías “que avanzan en paralelo”.
“En los países donde hay enormes dificultades para conseguir donaciones, cuando
las prótesis estén bien desarrolladas podrían ser una opción más razonable, pero
en España es mucha mejor opción un trasplante”, concluye.
Fuente: publico.es, 4 de Abril de 2008
-El carguero Julio Verne se acopla a la
Estación Espacial Internacional con éxito
El vehículo espacial 'Julio Verne' se ha
acoplado a la Estación Espacial en la que ha sido la primera maniobra de una
nave europea totalmente automatizada y teledirigida desde la Tierra.
"Estoy completamente estufefacto", ha dicho tras la maniobra
el director de la ESA, Jaques Dordain, desde el centro de control en Toulouse,
Francia.
"Sabía que sería extraordinario, pero tener éxito en el
primer intento... creo que ha sido un increíble logro técnico", ha añadido
Dordain.
El
primer vehículo espacial europeo, con 10,3 metros de longitud y 4,5 de
diámetro fue lanzado el pasado 9 de marzo y alberga 7,7 toneladas de
todo tipo de suministro para los astronautas de la ISS: comida, ropa,
carburante, piezas de recambio, material para los experimentos, aire y agua.
Durante cerca de cuatro meses, permanecerá acoplado a la estación y utilizará
sus motores para corregir la órbita de la estación, compensando así sus pérdidas
de altura. En el mes de agosto, volverá a desacoplarse de forma totalmente
autónoma y dirigirá su trayectoria para desintegrarse en la atmósfera. Hay
previstas hasta cinco misiones del programa ATV (vehículos de transferencia
automatizados) hasta 2012, y la próxima tendrá lugar a finales de 2009. Cuando
los transbordadores de la NASA se jubilen, en 2010, los ATV europeos serán los
principales vehículos de carga de la ISS. Antes de completar la maniobra de
acoplamiento, el ATV se encontraba a 3,5 kilómetros de la ISS. Para llegar hasta
allí, utilizó diferentes sistemas, como los sensores denominados 'seguidores de
estrellas' y navegación relativa por GPS, que permite al vehículo utilizar las
medidas que recibe él mismo y las de la ISS para calcular la distancia entre
ambos. Pero una de las principales novedades ha consistido en el guiado mediante
sensores láser, que le han ayudado a encontrar la posición final con una
precisión de milímetros en el punto de contacto.
Fuente: elmundo.es, 4 de Abril de 2008
-2008 será más frío
El principal meteorólogo del mundo anunció que las temperaturas globales este
año serán más bajas que en 2007 debido a los efectos de enfriamiento del
fenómeno La Niña en el Pacífico.
Michel Jarraud, secretario general de la Organización Meteorológica Mundial
(OMM), dijo a la BBC que era muy probable que la actividad de La Niña
continuaría entrado el verano. Esto significa que la temperatura del planeta no
se habría elevado desde 1998, generando entre algunos dudas sobre la teoría del
cambio climático. Sin embargo, algunos expertos sostienen que las temperaturas
empezarán a aumentar muy pronto. La Niña y El Niño son dos corrientes naturales
en el océano Pacífico cuyos efectos son tan enormes que tienen impacto alrededor
del mundo.
Cuando el fenómeno El Niño ocurre, se calienta el planeta; cuando sucede La
Niña, se enfría. Este año, el Pacífico está en las garras de una poderosa
Niña. Ha sido responsable de lluvias torrenciales en Australia, inundaciones en
Bolivia y de algunas de las temperaturas más bajas regitradas en regiones
nevadas de China. Jarraud manifestó a la BBC que muy probablemente el
efecto continuaría durante el verano, bajando las temperaturas en todo el mundo
una fracción de grado.
Enfriamiento en el Pacífico provocado por la Niña
Esto quiere decir que las temperaturas no se habrán elevado
globalmente desde 1998, cuando El Niño calentó el planeta. Un grupo minoritario
de científicos se pregunta si el calentamiento global ya llegó a su tope y la
tierra ha probado ser más resistente a los gases del efecto invernadero de lo
que se había pronosticado.
Jarraud dice que ese no es el caso - las temperaturas en
1998 estarían bien por encima del promedio para este siglo. Además,
expertos del Centro de Pronósticos Hadley en Exeter, Inglaterra, dicen que
podríamos esperar un registro récord de temperaturas altas dentro de los
próximos cinco años, asociado probablemente con otro episodio de El Niño.
Fuente: BBCMundo, 4 de Abril de 2008
-América habitada antes de lo que se creía
El informe de la investigación publicado por la revista 'Science'
señaló que el excremento fósil o coprolito fue descubierto en las cavernas
Paisley, en el estado de Oregón.
Esos coprolitos revelan que había seres humanos 1.200 años antes de la
cultura Clovis, que era considerada hasta ahora la más antigua en el
continente, dijo el estudio. Además, reveló que esos seres humanos tenían vínculos
genéticos con Siberia o con Asia, indicó el informe que también reveló que
los científicos realizaron un estudio del ADN mitocondrial de las muestras de
material genético extraído de los coprolitos.
Los excrementos encontrados
El
coprolito fue descubierto en las cuevas de Paisley
'El material de Paisley representa el ADN más antiguo
que se haya recogido en las Américas, manifestó Eske Willerslev,
director del Centro de Genética Antigua de la Universidad de Dinamarca.
'Se han descubierto otros sitios anteriores a Clovis, pero no se encontró en
ellos ADN, principalmente porque se encontró material orgánico humano',
indicó.
Ese material genético fue descubierto en 2004 en las cavernas por el
arqueólogo Dennis Jenkins, del Museo de Historia Natural y Cultural de
Oregon. La cultura Clovis se inició hace entre 13.200 y 12.900 años, según
una evaluación de sus restos publicada en 'Science' en febrero de este año.
Los científicos analizaron seis coprolitos que contenían ADN y
utilizaron el proceso de data mediante radiocarbono con un acelerador
espectrométrico de masa y un calendario calibrado entre 1.300 y 14.300 años.
Tres de las seis muestras de excremento fósil también contenían ADN de
animales similares a zorros rojos, coyotes o lobos. Según los científicos,
es probable que los primeros habitantes de la región comían esos animales o
estos orinaban sobre las heces humanas. Los análisis también indicaron que
los coprolitos eran de seres humanos clasificados en los grupos genéticos
comunes en Siberia y el este de Asia, señaló el informe.
Según Jenkins, hasta ahora no se sabe quiénes eran esos seres humanos que
habitaban en las cavernas de Oregón. Añadió que en el lugar no se han
encontrado restos de otro tipo por lo que tampoco se puede establecer si
existió una vinculación cultural o tecnológica con los seres humanos de
Clovis.
'En este momento sabemos que probablemente llegaron desde Siberia o del este
de Asia. También sabemos lo que comían', agregó.
Fuente: terra.es, 4 de Abril de 2008
-Las imágenes del "Tsunami" solar
El evento fue registrado por las naves espaciales de la misión STEREO, diseñadas
para realizar imágenes en tres dimensiones del Sol.
Naturalmente este tipo de tsunami no acarrea agua, sino una ola de presión
que viaja a través del astro a mucha velocidad. Los detalles del
acontecimiento se dieron a conocer en la Reunión Nacional de Astronomía del
Reino Unido en Belfast, Irlanda del Norte. En el tsunami solar, una gran
explosión como una expulsión de masa en la corona, genera un pulso de presión
que se propaga hacia afuera en un patrón circular.
Momento de la explosión
Sonda STEREO estudia el sol
Arriba,en el video se puede observar la emisión
de plasma
tomada por la sonda TRACE
"Energía fenomenal"
El año pasado hubo un tsunami solar que duró cerca de 35 minutos, alcanzando
su máxima velocidad 20 minutos después de la explosión inicial. El co-autor
David Long, del Colegio Trinity de Dublín (TCD), asegura que "la energía
liberada por estas explosiones es fenomenal; en una fracción de segundo se
desata el equivalente a dos mil millones de veces el consumo de energía
mundial".
"En media hora vimos como el tsunami cubrió casi la totalidad del disco
solar, recorriendo casi un millón de kilómetros desde el epicentro", dice Long.
Peter Gallagher, también del TCD, dice que la onda expansiva se desplazó
exactamente igual a un tsunami en la Tierra.
"Una serie de depresiones y crestas en la presión causa que se propague hacia
afuera. Pero en el Sol esto sucede en el gas caliente", explica Gallagher.
"Cuando hablo con una persona en una habitación, mi voz es transportada por
ondas de presión en el gas que se encuentra entre nosotros; más o menos pasa lo
mismo en el Sol".
Sin embargo Gallagher añade que no es exactamente lo mismo porque en el Sol
también existen campos magnéticos que ayudan a las ondas a moverse. Por eso el
fenómeno es conocido como una onda magneto-acústica.
Problema teórico
Los tsunamis solares fueron descubiertos hace casi una década por la misión
SOHO. Sin embargo las observaciones no cuadraban con la teoría, ya que las
ondas viajaban a muy baja velocidad. Tras el lanzamiento de la misión
STEREO en 2006, los científicos fueron capaces de recibir imágenes de alta
velocidad del Sol. Al observar nuevamente un tsunami el año pasado, las
imágenes coincidieron con las predicciones teóricas.
"Pudimos ver por primera vez como esta onda se propaga desde la superficie
del sol hasta su atmósfera", comenta Gallagher.
Incluso los investigadores pudieron ver como la ola de presión rebotaba en
regiones irregulares de la atmósfera solar, generando reflexiones o patrones de
difracción, exactamente lo mismo que sucede con los tsunamis cuando chocan
contra la costa en la Tierra.
Una especie de astrolabio o cuadrante del siglo XIV fue encontrado en el año
2005 en el suelo de un viejo mesón de las afueras de Canterbury. Desde su
descubrimiento sorprendió a los expertos que lo estudiaron por la variedad de
cálculos que se pueden realizar con el artilugio. Especulan los arqueólogos que
es posible que un mercader perdiera la, que llaman, calculadora de bolsillo
cuando estuvo en la posada, posiblemente camino de Londres.
Ahora ha vuelto a ser noticia porque su futuro no está claro. Esta maravilla del
medievo podría caer en manos privadas y abandonar el museo en el que se
encuentro ahora.
El hallazgo ha cambiado los esquemas sobre lo que se pensaba que era la
astronomía y matemática de la Edad Media. Los estudios que se están
realizando con el objetivo finalizarían en caso de que alguien se hiciera con
él.
El cuadrante se subastó en el año 2007 por un precio de 350 mil libras. De
momento, se desconoce quién lo ha comprado. El "United Kingdom’s Reviewing
Committee on the Export of Works of Art and Objects of Cultural Interest"
recomendó a la ministra de cultura Margaret Hodge que el permiso para la
exportación del cuadrante debería ser pospuesto hasta junio de este año dada la
importancia que tiene la pieza. La intención de este retraso fue la de
darle tiempo al British Museum para conseguir el dinero necesario y así poder
hacerse con el cuadrante, o sea, necesita las 350 mil libras para por lo menos
igualar la oferta.
Los astrolabios parecían ser instrumentos en los que se incluían muchos
conocimientos. La mayoría de los astrolabios son más complejos y grandes que el
encontrado, además incluían otras funciones como cálculos astrológicos y otras
aplicaciones más académicas. El hallado cerca de Canterbury posiblemente tenía
un uso más sencillo y cotidiano. Es posible que se tratara de un raro
instrumento de la época. El dueño, posiblemente un cura o un comerciante. debió
tener conocimientos de astronomía para usarlo. Es destacable dentro del
astrolabio un águila utilizada para señalar la fecha de la Semana Santa.
Los investigadores han relacionado este astrolabio "cotidiano" con el tratado
sobre astroonmía de Geoffrey Chaucer (el escritor de los cuentos de Canterbury)
en el año 1391. Es posible que el uso de este tipo de objetos y el conocimiento
sobre astronomía y astrología no estuviera restringido a unos pocos, estando más
extendido de lo que se creía.
El Museo Británico necesita 350 mil libras para evitar que se lleven este
astrolabio
Fuente: Nature, 2 de Abril de 2008
-Científicos británicos crean embriones híbridos de vacas y
humanos
Por primera vez en Europa, científicos de la Universidad de Newcastle han creado
embriones híbridos a partir de los óvulos de una vaca y con el material genético
de células de la piel de humanos. Este equipo persigue el desarrollo de nuevas
terapias para enfermedades que en la actualidad no tienen cura como el
Parkinson. La ventaja de la técnica es la facilidad para conseguir óvulos de
animales en los que se insertaría el ADN humano para posteriormente desarrollar
tratamientos
Según un comunicado ofrecido por la Universidad de Newcastle, el doctor Lyle
Armstrong presentó en una conferencia celebrada en Israel el pasado 25 de marzo
los datos preliminares de este trabajo. Aunque, como han explicado por
televisión, todavía requieren pasar por un sistema de revisión propio de estas
investigaciones, los científicos han conseguido crear embriones humanos a partir
de células almacenadas y óvulos de vaca. Los embriones obtenidos sobrevivieron
hasta tres días y contenían 32 células, según informa la página web de la BBC, y
son parte de un estudio en el que se quiere lograr embriones de seis días para
después extraerles células madre y estudiar con ellas una amplia variedad de
enfermedades.
Científicos ingleses han conseguido embriones humanos a partir de células de
vaca. ¿Que nos deparará el futuro?
Los embriones híbridos, mezcla de humanos y animales, son únicamente parte
de una investigación y en ningún caso está permitido su desarrollo más allá
del día 14. El objetivo de estos investigadores es obtener un mayor número
de líneas celulares a partir de esos embriones para desarrollar tejidos y
estudiar enfermedades específicas como el Alzheimer, Parkinson o la
diabetes.
La técnica por la que se pueden conseguir embriones híbridos es la misma con
la que se han obtenido embriones clonados humanos: la transferencia nuclear,
más conocida como clonación terapéutica. En este caso en lugar de utilizar
óvulos humanos, los investigadores tomaron óvulos de vacas, y material
genético de células humanas de la piel.
En la actualidad, otros grupos que están realizando trabajos de clonación
terapéutica tienen el inconveniente de la escasez de óvulos para desarrollar
estos experimentos. Sin embargo, con los embriones híbridos este problema
desaparece porque los óvulos se obtienen de animales.
No es la primera vez que científicos crean embriones híbridos. En 1998, un
grupo de investigadores, dirigido por Michael West, de Advanced Cell
Technology de Massachusetts (Estados Unidos) ya presentó el primer embrión
procedente también de un óvulo de vaca y células humanas. También en 2003,
científicos chinos declararon haber logrado resultados similares con óvulos
procedentes de conejos.
Sin embargo, nunca se llegó a conocer más sobre estas investigaciones, quizás en
parte por la política estadounidense, muy restrictiva a la hora de dirigir
fondos públicos a la investigación con embriones humanos, y la dificultad de
emplear la técnica de la transferencia nuclear con éxito.
Una ley en proceso
El anuncio de los científicos de la Universidad de Newcastle se produce,
precisamente, cuando Reino Unido se encuentra en un intenso debate en torno a su
nueva ley de embriones, una revisión de la norma de 1990. De aprobarse, este
proyecto de ley autorizará explícitamente la creación de embriones híbridos como
los creados por la Universidad de Newcastle.
Hasta ahora, la Autoridad de Fertilización Humana y Embriología (HFEA) ha sido
la encargada de lidiar con este espinoso tema. Pero ni siquiera este organismo
le resultó fácil la decisión. Los investigadores de Newcastle, junto con otro
equipo británico del King's College, habían solicitado realizar este tipo de
investigación ya en 2006.
Tras mucho debate (y teniendo en cuenta que una ley reproductiva con más de tres
lustros no recogía ni por asomo esta técnica tan reciente), los expertos de la
HFEA decidieron hacer una consulta pública sobre el tema. Sólo después de que
diferentes expertos diesen una opinión favorable, la agencia aprobó la medida.
El pasado 17 de enero, finalmente, anunciaba que había autorizado los dos
proyectos solicitados. "Me alegro de que la HFEA finalmente se haya dado cuenta,
después de un año y medio, de la importancia que el trabajo de nuestro grupo y
del de Newcastle", dijo entonces Stephen Minger, científico del King's.
"Ahora que tenemos la licencia, podemos empezar el trabajo tan pronto como sea
posible", dijo, por su parte, Lyle Armstrong, de la Universidad de Newcastle.
Sus primeros resultados han surgido apenas dos meses después.
Fuente: elmundo.es, 2 de Abril de 2008
-Los biocombustibles pierden la etiqueta ecológica
A los biocombustibles cada vez les resulta más difícil llevar colgada la
etiqueta de fuente de energía ecológica. La culpa es del creciente número de
expertos, investigadores y ecologistas que cuestionan su capacidad para reducir
las emisiones de CO2, y hablan los efectos de deforestación y de aumento de las
desigualdades que pueden causar.
Según Roderic Miralles, presidente de la sección de Biocarburantes de la
Asociación de Productores de Energías Renovables (APPA), "países como Alemania o
España producen entre el 10% y el 20% de su capacidad instalada, algo inaudito,
porque por un lado se nos acusa de tener una gran influencia en la subida de
precios y por otro mantenemos plantas sin operar por la inestabilidad del
sector". Además, el sector continental de biocombustibles tiene que luchar
contra las miles de toneladas altamente subvencionadas que entran en Europa
procedentes de Estados Unidos.
Jorge Riechmann, del equipo técnico del Instituto Sindical de Trabajo, Ambiente
y Salud (ISTAS) de Comisiones Obreras, prefiere no mostrar a los biocombustibles,
de partida, como ecológicos. "No todo aprovechamiento de la energía renovable
resulta sostenible. La idea de sustituir la gasolina y el gasóleo por
carburantes elaborados a partir de la biomasa sólo sería buena con muchos menos
vehículos de motor en el planeta y mucho menor uso de los mismos; es decir, con
otro modelo de transporte", sostiene.
Uno de los cuestionamientos que se ponen a los objetivos de la UE es que para
cubrir los porcentajes establecidos (que ahora superan escasamente el 2%) habrá
que poner en cultivo millones de hectáreas, y no todas en Europa. La Agencia de
Evaluación Ambiental de los Países Bajos, en un estudio publicado el mes pasado,
cuantificaba entre 20 y 30 millones las hectáreas necesarias para abastecer de
biocombustibles el 10% de la demanda en 2020. "El sistema de libre comercio
conllevará que la UE produzca sólo la mitad de los cultivos necesarios, mientras
que la otra mitad se importará", concluía.
El cultivo y producción en terceros países, la roturación de terrenos vírgenes,
el empleo de maquinaría pesada para la plantación y recolección, la utilización
de fertilizantes y plaguicidas y el transporte hacia los lugares de
procesamiento y consumo cuestionan la contribución de los biocombustibles en la
lucha contra el cambio climático y, por el contrario, hacen pensar que, incluso,
pueden favorecer el aumento de las emisiones. Así lo piensa, no sólo el
instituto holandés, sino organizaciones ecologistas como Greenpeace y Amigos de
la Tierra y varios estudios publicados recientemente en la revista Science.
El Instituto para la Diversificación y Ahorro de la Energía (IDAE), dependiente
del Ministerio de Industria, advierte de que la política de la UE va mucho más
allá de los porcentajes. "Nunca antes se había llegado tan lejos con la
exigencia de sostenibilidad, hasta el punto que los biocombustibles reciben un
peor trato que la producción agrícola tradicional o los carburantes fósiles,
para los que no existen esas exigencias".
La nueva directiva europea de energías renovables dice que no se podrán
etiquetar como biocombustibles los que utilicen materias primas de bosques
vírgenes, praderas y áreas protegidas o de la conversión de humedales y zonas de
silvicultura, ni los que emitan por encima de un 35% menos de GEI que los
combustibles fósiles. "Esto supone primar el uso de carburantes fósiles",
asegura el IDAE.
En cualquier caso, las investigaciones para mejorar los biocombustibles siguen
en marcha. Y avanzan. "Entre las muchas direcciones en las que se trabaja, está
la de atender a las características de cada mercado. Por ejemplo, en el norte de
Europa, habrá un desarrollo viable y sostenible en torno al aprovechamiento de
los residuos forestales y de las fábricas de pasta de papel. En el sur de Europa
habrá que pensar en aprovechamientos o plantaciones que no supongan una alta
demanda de agua. Es decir, adaptarse a la geografía y la climatología para
producir de forma sostenible", asegura Luís Cabra, director corporativo de
Tecnología e Ingeniería de Repsol YPF y presidente de la Plataforma Tecnológica
Europea de Biocarburantes.
Fuente: El País, 2 de Abril de 2008
-El fin de los transbordadores espaciales actuales costará
8600 empleos
La retirada de los transbordadores espaciales de la NASA en
2010 supondrá el recorte de 8.600 puestos de trabajo, según una estimación hecha
pública hoy por la agencia estadounidense. De ellos, unos 8.000 corresponden a
contratistas privados, mientras que los restantes serán funcionarios de la
propia agencia. Las instalaciones más afectadas por la pérdida de empleos serán
el Centro Espacial Kennedy –donde operan los
shuttle–, en Cabo Cañaveral (Florida), que podría perder 6.400 de sus
8.000 contratados, y el Centro de Ensamblaje Michoud de Nueva Orleans –donde se
fabrican los tanques de combustible–, en el que desaparecerán 1.300 de sus 1.900
empleos.
El portavoz de la NASA, William Gerstenmaier, alertó de que
se trata de una estimación preliminar, que se verá modificada dentro de un año
dependiendo de varios factores; en primer lugar, dado que el próximo noviembre
cambiará el inquilino de la Casa Blanca, será necesario esperar a que el nuevo
Gobierno se defina en materia de política espacial. Por otra parte, Gerstenmaier
indicó que una parte de los trabajadores afectados podrían recolocarse en las
oportunidades que se abran con el despliegue del programa Constellation, que
reemplazará a la generación shuttle,
mientras que al menos un 25% de los contratados serían aptos para la jubilación.
El programa Constellation, que incluye el desarrollo de los cohetes Ares y la
cápsula Orion, será el encargado de llevar astronautas a la Luna y Marte en las
próximas décadas. Comenzará a operar en 2015.
El congresista republicano de Florida Dave Weldon dijo que
las cifras son una muestra de que el plan espacial del presidente Bush es
inadecuado y está mal financiado.
Fuente: publico.es, 2 de Abril de 2008
-Phoenix lista para el aterrizaje
Por el momento todo va muy bien con la sonda Phoenix. Hace unos días se
probaron la cámara Stereo y del Brazo Robótico y parecen que están listas para
funcionar. Además se finalizó el llamado 'Operational Readiness Tests', las
pruebas de ensayo para comprobar que todo está preparado para la misión en
Marte. La nave está en buen estado de salud y el equipo está haciendo un gran
trabajo. Se han simulado los primeros 8 días de trabajo en Marte, para
asegurar que la gente, los comandos y el soporte está en orden y preparados. A
comienzos del mes de mayo, unos días antes del aterrizaje se realizará otro
ensayo global.
La primera semana en Marte servirá para tener a la sonda Phoenix lista para
hacer ciencia. Se evaluará el estado de los instrumentos y los sistemas de
abordo. Lleva una semana aproximadamente comprobarlo todo, pero mientras tanto
tomaremos algunas buenas imágenes de Marte y haremos algo de ciencia mientras
prosigue el trabajo de ingeniería. Lo último en la sonda ha sido
adquirir una imagen en falso color de la pala que se encuentra dentro de la
bio-barrera, tomada con la cámara RAC del brazo, tras viajar más de 500
millones de kilómetros hacia Marte. Esta es la misma toma que pudimos ver tras
el lanzamiento hace seis meses.
Imagen de la pala
obtenida por una de las cámaras de la sonda
Fuente:
sondasespaciales.com, 1 de Abril de 2008
-¿Qué nos impide ir a Marte?
Los rayos cósmicos son tan peligrosos y se sabe tan poco de ellos
que es improbable que personas vayan a Marte o incluso de regreso a la luna
hasta que se encuentren mejores formas de proteger a los astronautas, dijeron
varios expertos.
Si
queremos habitar algún día Marte tendremos que protegernos de las radiaciones
cósmicas
Además, la NASA no está financiando adecuadamente los
experimentos correctos para descubrir cómo protegerse, dijo una comisión del
Consejo de Investigación Nacional de Estados Unidos.
"Uno de los mayores asuntos es que realmente han reducido el financiamiento a
los temas biológicos", dijo en una entrevista telefónica el astronauta
retirado James van Hoften, quien presidió la comisión.
"Es difícil para ellos cuando no reciben
nuevos fondos. Ellos están usando datos antiguos", agregó -incluidas
investigaciones hechas con sobrevivientes de las bombas nucleares que se
lanzaron contra Japón durante la Segunda Guerra Mundial.
Según van Hoften, "dado el conocimiento actual y lo que se sabe hoy de la
protección contra la radiación, poner a alguien en ese tipo de ambiente
violaría los actuales requerimientos que tiene la NASA".
La comisión de expertos acordó que las actuales normas de seguridad de la NASA
contra la radiación pueden proteger a los astronautas e instaron a la agencia
espacial estadounidense a mantenerlas vigentes. El volumen de la Tierra, su
atmósfera y campo magnético protegen a la vida de la radiación solar y los rayos
cósmicos que viajan a través del espacio. Los astronautas sólo cuentan con
una pequeña capa protectora.
Van Hoften lo sabe por experiencia personal. "Conocí la radiación espacial de
primera fuente como miembro de la tripulación a bordo del Transbordador Espacial
Challenger en abril de 1984. '¿Qué diablos es eso?' pregunté después de ver lo
que parecía un rayo láser blanco que pasaba rápidamente a través de mis ojos",
escribió van Hoften en la presentación del informe.
"'Oh, sólo son rayos cósmicos', dijo Pinky Nelson, mi compañero de
caminata espacial y físico especializado. La idea de que partículas de alta
energía originadas en un evento cósmico distante pasaran fácilmente a través del
transbordador y a través de mi cabeza me hizo pensar que eso no podía ser
saludable. La verdad del asunto es que no lo es", agregó.
Sin lugar donde esconderse Los rayos cósmicos incluyen radiación cósmica galáctica y
partículas solares.
"Puedes poner murallas muy gruesas y no te protegerán de eso", dijo van Hoften.
"Mientras más joven eres es peor", agregó, porque al igual que con muchos tipos
de radiación puede tomar muchos años para que el daño provoque una enfermedad.
Cualquier misión a Marte que utilice la tecnología actual tardaría unos tres
años, dijo van Hoften. Ese tiempo en el espacio expondría a los astronautas a
muchísima radiación.
"En realidad no ha recibido la difusión que requiere. En la comisión discutimos
sobre esto por un largo tiempo antes de decir cualquier cosa", agregó.
Las expulsiones de partículas peligrosas desde el sol se pueden pronosticar,
pero los astronautas deberían protegerse en zonas especialmente cubiertas
de los transbordadores o estaciones espaciales y podrían dejar de cumplir tareas
importantes, indicó la comisión. Agregar más protección puede hacer a la nave
espacial demasiado pesada y demasiado cara, agregó el reporte del consejo, una
las Academias Nacionales de Ciencia independientes que asesoran al gobierno
federal. El reporte, encargado por la Dirección de Misión de Sistemas de
Exploración de la NASA, sostiene que la radiación representa riesgos de cáncer y
otros problemas de salud durante varios años después de que los astronautas
regresan a la Tierra.
Mientras la ESA se prepara para
mandar astronautas a Marte
La Agencia
Espacial Europea (ESA) ha preseleccionado a cerca de 40 voluntarios para
realizar un simulacro de vuelo a Marte, una misión en la que varias
personas estarán confinados en un habitáculo similar a una nave durante el
tiempo que duraría un viaje real al planeta rojo.
"Unas 80 personas, entre las que
figuraban diez mujeres, pasaron la primera fase del proceso de selección.
Después de una conversación telefónica con los voluntarios, fueron
elegidas unas 40 personas", señaló Elena Feichtinger, portavoz de la ESA
en Rusia, citada por la agencia Interfax.
Toda la información y los datos
médicos de los candidatos se encuentran a disposición del
Instituto de Problemas Biomédicos (IMPD),
de la Academia de Ciencias de Rusia. A mediados del próximo mes de mayo,
representantes de la ESA y médicos rusos seleccionarán en la
ciudad germana de Colonia a entre 8 y 10 candidatos. En la última
fase del proceso de selección, los voluntarios deberán pasar un examen
clínico y un entrenamiento en Moscú como integrantes de la 'tripulación'
ruso-europea, según informa Efe.
Posiblemente así será el momento de la
llegada a Marte
En julio del año pasado, cuando el plazo de inscripción
aún seguía abierto, la ESA y el IPMB informaron de que habían recibido más de
5.000 solicitudes de voluntarios de 28 países para participar en el proyecto, de
las cuales cerca de 200 cumplían los criterios de selección. Feichtinger recordó
que tanto en el proyecto, conocido como
'Marte-500' y de 520 días
de duración, como en los ensayos previos, de 105 días, participarán cuatro
candidatos rusos y dos europeos, mientras que el resto de voluntarios europeos
formará parte de la tripulación suplente. Los seis voluntarios permanecerán un
total de 520 días, el tiempo del viaje de ida y vuelta a Marte, más una
estancia de 30 días en la superficie marciana, en un simulador. El
experimento ruso se desarrollará en cinco módulos de 550 metros cúbicos, con la
configuración, instrumentos y equipos que podría haber en las futuras naves
interplanetarias.
El viaje tripulado al planeta rojo es una meta ya
establecida en los programas espaciales de Estados Unidos, Rusia, China y los
países miembros de la ESA.
Fuente: terra.es, elmundo.es, 1-3 de Abril de 2008