|
|
|
NOTICIAS CIENTÍFICAS
--Nuevas Noticias Próximamente--
TITULARES DE LAS NOTICIAS DEL MES
Friederich Nietzsche: ciencia y cultura sobre arenas movedizas
Un ex peón israelí resuelve un problema matemático planteado hace 40 años
Extraen un riñón por la vagina de una mujer con cáncer
Desarrollan una nueva forma de extracción de energía del mar
Los biocombustibles son un callejón sin salida, según un experto británico
La NASA inicia las pruebas de los primeros cohetes para ir a la Luna
Un proyecto de la UE aspira a lo último en miniaturización: máquinas moleculares
El "nobel" de las matemáticas premia un trabajo sobre simetrías
El cocodrilo prehistórico de Pernambuco
Se derrumba una placa de hielo de 500 kilómetros cuadrados en la Antártida
Primeras imágenes de satélite de las emisiones de dióxido de carbono por regiones
Un humano de más de un millón de años en Atapuerca
Mientras unos piensan en mandar hombres a Marte, a los rovers se les acaba el presupuesto
Los volcanes de Venus son parecidos a los de la Tierra
Logran la transmisión sin cables más rápida de la historia
El planeta pierde cada día una masa forestal equivalente a 40000 campos de fútbol
¿Por qué los seres humanos creen en Dios?
"Mars Odyssey" descubre depósitos de sal en Marte
Hubble detecta moléculas orgánicas en un planeta extrasolar
Internet nuevo campo de batalla
La NASA confirma la reducción del espesor de las capas más antiguas del hielo Ártico
Descienden menos de lo esperado las emisiones de dióxido de carbono en España
300000 años separan a sapiens y neandertales
El enigmático "ojo del huracán" en Venus
Un yacimiento en Granada revela indicios del primer homínido europeo
El mayor experimento del mundo
Spitzer detecta grandes cantidades de moléculas orgánicas y vapor de agua
La NASA hace sus primeros ensayos con la cápsula Orión
La agencia Efe reescribe la ciencia: el dióxido de carbono es contaminante
La nave espacial "Endeavour" parte hacia la Estación Espacial Internacional
Hallan nuevos esqueletos de homínidos enanos
Cambio climático: la desaparición del Ártico, la muerte de focas y el temporal en Europa
El chip que imita al cerebro humano
La conquista del mar en Gran Canaria
Hallan los restos de un lago habitable en Marte
Un robot nunca sustituirá a un cirujano
Leer la mente escaneando un cerebro
"Que la evolución sea ciega pone nerviosa a mucha gente"
Venus y Marte más casi idénticos en las capas altas de la atmósfera
Las playas canarias pueden retroceder 50 metros por el cambio climático
El número de muertes por la mala calidad del aire se puede cuadriplicará
Un buque japonés de 200 metros estudia el origen de los terremotos y los tsunamis
El "hobbit" indonesio no es una especie humana
Avalanchas de hielo y polvo en el polo norte marciano
Las sondas sufren unas extrañas anomalías en sus velocidades
Las mujeres prefieren a los solteros durante los días más fértiles del ciclo
Las bacterias hacen llover en todo el mundo
El futuro y la obra de arte hecho robot
-Friederich Nietzsche: ciencia y cultura sobre arenas movedizas
Nitezsche |
«Vallejo escribiendo de la soledad mientras se muere de hambre hasta la muerte; // la oreja de Van Gogh rechazada por una puta; // Rimbaud huyendo al África en busca de riquezas y hallando un incurable caso de sífilis; //Beethoven por siempre sordo; / Pound arrastrado a través de las calles en una jaula; // Chaterton bebiéndose el veneno para las ratas; //el cerebro de Hemingway que chorrea y cae dentro de un vaso con jugo de naranjas; //Pascal abriéndose las venas en la bañera; //Artaud encerrado en el manicomio;// Dostoievsky empujado hacia el muro // Lorca fusilado al borde del camino por la guardia civil española: Eso es lo que quieren: un maldito show /una cartelera de neón encendida en medio del infierno. Eso es lo que quieren, /ese montón de aburridos inarticulados protegidos, monótonos amantes de los carnavales»
|
Friedrich Nietzsche, a través de “Sobre Verdad y Mentira en sentido Extramoral y la Gaya Ciencia”, intenta mostrar cómo el edificio de la ciencia se alza sobre la arena movediza del origen ilógico del lenguaje que le sirve como vehículo para expresar sus “verdades”. Según este autor vivimos pensando bajo la influencia de los efectos de lo ilógico. Nos encontramos profundamente sumergidos en ilusiones y ensueños; nuestra mirada se desliza sobre la superficie de las cosas y percibimos “formas”, en ningún caso nos acercamos a la verdad. Entre dos esferas totalmente distintas como lo son el sujeto y el objeto no existe ninguna expresión adecuada, sino una conducta estética, un extrapolar alusivo, un traducir balbuciente a un lenguaje completamente extraño. La esencia de las cosas no se manifiesta en el mundo empírico. Es esa fuerza mediadora la que nos permite poetizar e inventar. “…conocer es simplemente trabajar con la metáfora favorita de uno… la construcción de metáforas es el instinto fundamental del hombre.”
Con la metáfora del edificio de la ciencia sobre la arena movediza de lo ilógico, Nietzsche intenta echar por tierra razones últimas, certezas, dogmas, valores, que constituían el fundamento de la realidad y del conocimiento. Aborda el problema de la verdad estableciendo una conexión con el lenguaje. Muestra su carácter metafórico y su enmascaramiento de la verdad; ésta surge del tratado de paz que los hombres consideran necesario para constituir una sociedad. En ese mismo momento se fija lo que ha de ser “verdad”; “…se ha inventado una designación de las cosas uniformemente válidas y obligatorias.” Se establecen los cánones de lo verdadero y de lo falso, pero lo cierto es que estos cánones también surgen en el seno de una convención: el lenguaje. Por lo tanto “el poder legislativo del lenguaje proporciona las primeras leyes de verdad, pues aquí se origina por primera vez el contraste entre verdad y mentira.”
Lo verdadero y lo falso se fijan en el marco de las normas lingüísticas. De esta manera Nietzsche muestra el carácter doblemente convencional de la verdad. Verdad que en su génesis conlleva la mentira y el error, por ser precisamente una metáfora nacida del lenguaje que a su vez es incapaz de “apresar” la esencia de las cosas. Si la palabra queda definida por su carácter doblemente metafórico; es la copia en sonidos de una impresión sensible: un impulso nervioso se extrapola en una imagen, primera metáfora, y esa imagen se transforma en un sonido: segunda metáfora; en consecuencia el lenguaje es en esencia metafórico. La palabra no designa la cosa, no expresa la realidad: “…se limita a designar las relaciones de las cosas con respecto a los hombres y para expresarlas apela a las metáforas más audaces.” Pero en esta relación no se aprehende la esencia de las cosas, ella es fruto de la necesidad de humanizar el mundo, de interpretarlo desde una visión humana.
Sin embargo el hombre tejió una complicada red de conceptos con los cuales creyó alcanzar la verdad; los creyó universales y necesarios, y los opuso al mundo primitivo de las intuiciones con la intención de configurar un mundo más humano, más regular y más lógico. Para Nietzsche, los conceptos se han formado dejando de lado lo individual, lo real, olvidándose que derivan de una metáfora, e incluso que ellos mismos son metáforas olvidadas. Por lo tanto no son más que ficción, engaño, ilusión, por haber nacido como olvido pero también porque tiene como base a la metáfora. En la Gaya Ciencia, Nietzsche dice que sólo basta inventar nuevos nombres para crear nuevas cosas.
Para crear el “mundo verdadero” el hombre debió inventar primero la verdad, él mismo debió concebirse como un ser sencillo, transparente, sin contradicciones. Junto a ese mundo verdadero creó el “mundo aparente” y se vio en la obligación de falsear no sólo al mundo sino a sí mismo. Transportó erróneamente las categorías de la razón a la realidad, olvidando que sólo se trataba de ficciones que habían servido para hacer soportable el mundo.
La instauración de ese “mundo verdadero”, establece la oposición realidad-apariencia, que bajo la perspectiva de Nietzsche quedará anulada al fragmentar la noción de verdad y al tomar a la vida toda como apariencia.
Nietzsche se coloca fuera del paradigma de la racionalidad, violenta la lógica, instaura dicotomías no excluyentes. De ahí que el “mundo verdadero” sea para él, el resultado de un largo error: el hombre necesitó encontrar razones a la existencia, mitigar la angustia ante el caos, y para no sufrir se vio en la necesidad de inventar un mundo “más humano” y “sin contradicciones.” Las ficciones pasaron a constituirse en las verdades más profundas. Pero esta búsqueda incansable de lo imperecedero, de la no contradicción fue para Nietzsche una oposición a la vida, a tal punto que definió a la verdad como un principio destructor que acaba con la voluntad de vivir.
El hombre vive con cierta calma y seguridad, “gracias a que se olvida de sí mismo como sujeto creador, y por cierto como sujeto artísticamente creador; pero si pudiera salir, aunque sólo fuese un instante, fuera de los muros de esa creencia que lo tiene prisionero, se terminaría en el acto la conciencia de sí mismo.” Cuando el hombre vive de manera inconsciente su papel de creador, cree que el lenguaje y los conceptos que arma, dicen el mundo verdadero, y cree en su yo como el origen de todos sus pensamientos. Sin embargo si fuese consciente de que es interpretado y pensado por el propio lenguaje cuya esencia es metafórica, perdería toda sustancialidad, transformándose en ficción, sin unidad, sin identidad.
Imaginación
Si bien el autor que nos ocupa señala que las verdades son ficciones útiles para
la autoconservación de la especie, el mismo principio de conservación es una
ficción más. En la “Gaya Ciencia”, afirma con claridad: “no poseemos órgano
alguno para el conocimiento, para la verdad; sólo sabemos o creemos saber lo que
conviene que sepamos en interés del rebaño humano, y hasta lo que llamamos en
este caso utilidad no es más que una creencia, un juego de la imaginación o tal
vez esa necedad funesta que algún día hará que perezcamos.”
Para Nietzsche algo es verdadero no porque sea útil, sino porque creemos en su utilidad. Reconocemos a algo como “verdadero” por la creencia, por la fe en ello, por el grado de antigüedad que lo convirtió en condición vital. La creencia es una instancia fundamental que está en la base de toda perspectiva.
No olvidemos que para Nietzsche el conocimiento parte del error de creer que existe una verdad exterior al sujeto que puede ser revelada, por eso le opone la interpretación como posibilidad de crear nuevas formas de ver el mundo sin estar supeditados a la verdad. Así, el mundo ya no aparece como objeto de conocimiento sino como objeto de creencia. La verdad se fragmenta en perspectivas; no existe una “verdad absoluta”sino una pluralidad de perspectivas sobre las cosas. Se destruye el mundo de las esencias; la “esencia, pasa a ser una opinión sobre la cosa, una atribución de sentido.”
Las cosas son lo que son para mí; no poseen una naturaleza independiente de aquél que las concibe; la realidad se reduce exactamente a esta acción y reacción particulares de cada individuo respecto al conjunto. Ya no nos es necesario seguir ciegamente las ideas creadas por los doctrinarios del fin de la existencia que configuraron el mundo verdadero tratando de instaurar la racionalidad a toda costa.
Ante nosotros, dice Nietzsche, camina un ideal particularmente seductor, lleno de riesgos. El ideal de un espíritu que de manera ingenua y en virtud de un poder exuberante, se burla de todos los criterios que hasta ahora fueron las cosas supremas de la humanidad, y que en realidad no fueron más que peligro, decadencia, rebajamiento y ceguera que nos llevaron al olvido de nosotros mismos.
Hay que liberar al hombre de todos los valores falsos devolviéndole el derecho a la vida y a la existencia. En ella es donde esos valores tradicionales pierden su poder, tal como lo expresa Nietzsche en su ineludible proclamación “Dios ha muerto”. El libre pensador debe olvidar los viejos conceptos y la moral que justifican la decadencia personal. La razón que parece ennoblecer al hombre con el tiempo se vuelve vulgar y necesita de ese grado de locura que la regenere. No es la locura la contrapartida de la razón, sino la creencia de que tenemos la verdad. Creencia que inspira aversión y frena el ritmo de los procesos espirituales; impacienta a los poetas y artistas en quienes irrumpe esa ansia de locura. Solo estos pueden ponerle ritmos a las palabras, renovarlas y pintar los pensamientos con nuevos colores. Por tal motivo Nietzsche exhorta a que la nueva filosofía se inspire en la poesía; porque es a través de la cadencia rítmica de las palabras como pueden despertarse las pasiones.
En nuestra pasión por conocer se ocultan el héroe y el bufón, descubrirlos nos permitirá gozar de la sabiduría y despertar nuestro instinto creador. Instinto que nos permite mantenernos por encima de las cosas y de la moral instaurada por los héroes. Necesitamos de la tragedia y la comedia. La risa y la alegría no le quitan sensatez a nuestros pensamientos, por el contrario reírse, lamentarse y maldecir son impulsos necesarios para contrarrestar la continua reaparición de esos eternos fundadores de morales y religiones: los héroes.
Es necesario encontrarle un sentido a
la vida, no debemos seguir pensando simplemente en la satisfacción de
necesidades vitales. Es hora de acabar con el mito positivista de la ciencia que
sólo pensaba en brindarles bienestar a las personas. La nueva filosofía debe
instaurar un nuevo pensamiento: la cantidad de placer debe estar en proporción
directa a la cantidad de displacer.
Para aniquilar la “realidad” no basta denunciar, es necesario crear, y para ello
es propicio abolir ese mundo ilusorio y falso que ha ignorado lo vital.
Nietzsche reclama el triunfo de los ideales dionisíacos mediante la utilización
metafórica del lenguaje como expresión de la voluntad de poder. Claro que
también es consciente que será necesaria una salud más vigorosa y tenaz. El
dionisíaco en tránsito hacia la obra de arte vital, será el que vive en
constante riesgo ante el carácter meloso y blando del sospechoso intelectual que
confirma el estado de las cosas, o lo que es lo mismo el Poder, con sus teorías
cobardes.
Es indudable que la teoría de Nietzsche revaloriza la capacidad creadora de la especie humana. En este sentido son una aportación invalorable al estudio del lenguaje y a la creación artística. Ambos productos de la actividad humana.
La particular mirada de Nietzsche sobre el lenguaje termina fragmentando la noción de verdad haciéndole perder el sentido, e introduce la idea del perspectivismo que le permite al hombre y al mundo recuperar su multiplicidad, su contradicción, su sin sentido, su falta de fundamento. Ruptura que admite al hombre y al artista en particular traspasar los límites impuestos por la forma literal del lenguaje, a través de la construcción de metáforas que llevan en sí una nueva visión, una nueva organización del universo, aclarando que lo realmente nuevo son las asociaciones que permiten ese nuevo orden.
Lo que puede ser pensado debe ser ciertamente una ficción, por eso la apariencia, la ilusión y la ficción no han de ser censurada, sino que deben permitir inventar irrealidades. La ficción se convierte en una matriz generadora de sentidos susceptible de infinitas interpretaciones. Con ella Nietzsche nos propone un nuevo tipo de razón que penetre en la zona de la irracionalidad del ser humano. Se trata de una razón narrativa, más compleja y delicada, que pueda referirse a la complejidad de lo humano y a sus posibilidades de experimentar la realidad. En contraposición al arte subordinado al logos, propone el triunfo de los ideales dionisíacos, mediante la utilización metafórica del lenguaje como expresión de la voluntad de poder, es decir, propone que el artista no reprima sus pasiones, o lo que es lo mismo lo vital. Esta libertad de la que habla Nietzsche, no puede sorprendernos si tenemos presente que en la historia muchos creadores la han buscado en el opio o la embriaguez.
Fuente: sunchaleshoy.es, 31 de Marzo de 2008
-Un ex peón israelí resuelve un problema matemático planteado hace 40 años
Avraham Trahtman no estaba buscando la fama en el momento de resolver el denominado problema de la ruta coloreada, un enigma matemático que tenía desconcertados a los más expertos matemáticos desde hacía cerca de cuatro décadas.
Sin embargo, debido no sólo a su edad –tiene 63 años– sino, también, a los antiguos trabajos que había ejercido en el pasado como peón y guardia de seguridad, Trahtman ha conseguido atraer sobre sí la atención de muchos especialistas en este ámbito científico, habiendo llegado, en la actualidad, a convertirse en una especie de luminaria de las ciencias matemáticas.
Dicho en términos más adecuados para las personas legas, el problema de la ruta coloreada, planteado por primera vez en el año 1970 por un equipo de matemáticos dirigido por los norteamericanos de origen israelita Benjamin Weiss y Roy Adler, presuponía que era posible crear un mapa universal en el que se proporcionaran las correspondientes direcciones hacia un punto determinado y sin importar el lugar desde el que se comenzara a buscar. Los expertos aseguran que la solución hallada por Trahtman podría tener importantes aplicaciones en el campo de la cartografía.
En el dibujo se puede observar se puede ver que saliendo desde un círculo cualquier
y siguiendo una ruta azul-rojo-rojo., azul-rojo-rojo, azul-rojo-rojo, se llega siempre al círculo amarillo
"Supongamos que alguien se encuentra perdido en una ciudad en la que nunca había estado anteriormente y tiene que hallar la casa de un amigo, pero en las calles de dicha ciudad no existe ninguna clase de señal indicativa. Y, a pesar de ello, consigue dar con la dirección", ha asegurado Stuart Margolis, colega del doctor Trahtman en la Universidad Bar-Ilan de Tel Aviv.
"En los círculos matemáticos, solemos hablar de ‘resultados maravillosos’ cuando se consiguen soluciones tan magníficas como inesperadas. Expresado, incluso, en términos legos, eso es algo absolutamente contrario a las expectativas lógicas, aunque, ciertamente, algunas veces ocurre", señala Margolis. El propio doctor Trahtman ha hablado sobre su solución al enigma: "La gente suele contemplar las cosas desde puntos de vista sumamente complicados. Y yo me limité a crear un simple algoritmo".
Pero, en el caso del doctor Trahtman no se trata, tan sólo, de mencionar el hecho de que su solución al problema le haya proporcionado el poder disfrutar del estatus de una gran celebridad, sino que es preciso destacar, asimismo, cuáles fueron sus orígenes.
Trahtman nació en el año 1944 en la ciudad de Yekaterinburg, en la Rusia central, y se dedicó a estudiar matemáticas "porque era la única cosa que podía hacer allí". Estando en la Universidad Técnica Estatal de los Urales, donde era profesor adjunto, dedicó todo su tiempo al campo del álgebra, disciplina muy pasada de moda por aquel entonces.
En 1992, el doctor Trahtman se unió a la ola de emigrantes judíos que aprovecharon la oportunidad de la descomposición de la Unión Soviética para solicitar la ciudadanía israelí.
Sin embargo, y a pesar de que la Ley de Retorno israelí prometía la residencia en aquel país para todos aquellos cientos de miles de rusos de ascendencia judía, dicha ley no garantizaba el mantenimiento en su nuevo país del anterior estatus de quienes se habían acogido a ella.
En consecuencia, y tal como le ocurrió a muchas otras personas, el doctor Trahtman tuvo que ponerse a trabajar de peón o como guardia de seguridad antes de que, finalmente, lograra volver a trabajar en el campo de las matemáticas, en esta ocasión como profesor interino. Más adelante, le fue concedido un puesto como investigador en la Universidad Bar-Ilan, después que el doctor Margulis le recomendara para ello ante el departamento de matemáticas de dicha institución.
Hoy día, el doctor Trahtman rara vez viaja hasta Tel Aviv, dado que prefiere trabajar desde su casa de Jerusalén. Y fue allí, precisamente, donde dio con la solución al famoso enigma.
"No podía creérmelo. La primera cosa que hice fue comprobarlo, intentando hallar alguna clase problema en la solución. Pero era todo muy simple, y no había ninguna clase de dificultad", ha asegurado el propio Trahtman.
El doctor Trahtman anotó la solución del enigma con un simple lápiz y sobre seis hojas de un cuaderno de notas. «Pensé que nadie iba a creer que un viejo como yo hubiera logrado hacer aquello. Y, ahora, hablan más sobre mi edad que acerca de mi solución al problema», comenta.
Fuente: elmundo.es, 31 de Marzo de 2008
Científicos estadounidenses aseguran que un ayuno de 48 horas hace que las células sanas de ratones de laboratorio aumenten su resistencia a la quimioterapia, mientras que la de las cancerosas disminuye
Científicos de la Universidad del Sur de California (USC) han desarrollado un método basado en el ayuno que promete revolucionar la lucha contra el cáncer y que permitiría supuestamente aumentar las dosis de quimioterapia sin sufrir efectos secundarios.
El equipo del biólogo italiano especializado en envejecimiento Valter Longo halló que, al someter a un organismo -por ahora han probado con ratones- a un ayuno de 48 horas, las células sanas concentran su escasa energía en su supervivencia, lo que las hace más resistentes a la quimioterapia que las cancerosas.
Una "bala mágica"
La investigación, que comenzó hace cuatro años, vio la luz hoy en la revista científica PNAS Early Edition y ya ha sido calificada por muchos médicos como un gran avance en la batalla contra los tumores.
"Todo el mundo estaba buscando la 'bala mágica', que dañase sólo las células tumorales y no atacase las sanas. Nuestra propuesta es diferente. ¿Por qué no se dejan tranquilas las células cancerosas y se protege el resto de la quimioterapia?", explicó a Efe Valter Longo, director de las investigaciones.
El uso del ayuno como arma defensiva ante el cáncer supone un giro copernicano en el enfoque de los tratamientos contra esta enfermedad que llega desde el campo de la biología.
"Normalmente un oncólogo te diría que una buena alimentación ayuda a superar el cáncer, pero desde el punto de vista del envejecimiento, sabes que la restricción calórica favorece la conservación de las células", dijo el científico. Fernando Safdie, médico argentino miembro del equipo de Longo, describió el fenómeno.
Células sanas más fuertes
"En esa situación, las células utilizan la poca energía que tienen para protegerse, en lugar de reproducirse por ejemplo, lo que las hace más resistentes", dijo Safdie a Efe, un enfoque que ya ha sido denominado como el "escudo mágico".
"Por ahora hemos realizado experimentos con ratones y ha funcionado. En los próximos seis meses tendremos los resultados de los tests en células humanas" indicó Longo, que se mostró muy optimista con respecto a estas pruebas.
"A pesar de las diferencias entre el organismo del ser humano y el de los ratones, el principio que sustenta la teoría va a funcionar ya que el comportamiento de células sanas y células cancerosas es muy similar, al margen del individuo", aseguró.
Efectos más limitados en humanos
Longo señaló, no obstante, que el mayor grado de sofisticación del cuerpo humano hará que el nivel de protección frente a la quimioterapia será inferior al conseguido en ratones o levaduras.
"No se necesita aumentar la resistencia celular en miles de veces como en el caso de levaduras. En seres humanos esperamos incrementarla por veinte", dijo Longo, para quien este avance mejorará drásticamente los tratamientos.
"En la actualidad se aplican dos sesiones de quimioterapia cada tres semanas para tratar un cáncer de próstata. Ahora imaginemos que se puede hacer esto veinte veces todos los días con unos limitados efectos secundarios", declaró el investigador.
"Por supuesto, no se querrá hacer esto todos los días, pero sí cada tres o cuatro con el fin de evitar los efectos secundarios de la quimioterapia y creo firmemente que será efectivo ante cualquier tipo de cáncer y funcionará, aunque en diferente grado, en todos los pacientes", matizó.
"Es difícil imaginar que no vayamos a conseguir alguna protección en el corto plazo, porque por definición cualquier célula cancerosa está incapacitada para defenderse", sentenció Longo.
Los investigadores de la USC esperan que a partir de ahora oncólogos de todo el mundo empiecen a aplicar este descubrimiento en sus propias investigaciones.
"Realmente cualquier experto puede hacer sus propias pruebas y mi esperanza es que alguien me llame en un año y me diga: así es cómo funciona con un cáncer de mama en los estudios que hemos hecho en España o en otros países", confesó Longo.
Fuente: adn.es, 31 de Marzo de 2008
-Extraen un riñón por la vagina de una mujer con cáncer
El Hospital Clínic ha realizado una operación pionera en Europa al extraer un riñón a través de la vagina a una mujer de 66 años que padecía un cáncer renal, según ha explicado hoy el doctor Antonio Alcaraz, natural de castril (Granada), coordinador del equipo que ha realizado esta intervención.
Alcaraz ha señalado que la operación, una nefrectomía transvaginal, se llevó a cabo el pasado 10 de marzo y consistió en la extirpación de un riñón a través del orificio vaginal mediante laparoscopia, una intervención que no deja cicatrices externas y que reduce al mínimo el tiempo de recuperación.
Se trata de la primera operación de este tipo que se lleva a cabo en Europa y la segunda en todo el mundo, después de una similar realizada hace unos meses en Brasil. La nefrectomía transvaginal es una técnica que permite la extracción del riñón con tan sólo dos pequeñas incisiones en el abdomen de aproximadamente un centímetro cada una. Además, requiere otra incisión que no es visible en la parte interna de la vagina, por la que se extrae el riñón .
Gran precisión
Rufina Gilo, paciente operado |
Para llevar a cabo la intervención se introdujo por la vagina una óptica flexible de gran precisión, y por dos pequeñas incisiones en el abdomen el instrumental para separar el riñón y sacarlo, envuelto en una bolsa para evitar la contaminación de tejido. El doctor Alcaraz ha destacado que a diferencia de la laparoscopia, con la nefrectomía transvaginal se aprovecha el orificio vaginal y se trabaja desde el canal del parto para extraer el tumor, una masa que en este caso medía 13 centímetros de alto, 8 de ancho y 5 de profundidad. Rufina Gilo, la paciente operada, una cacereña que vive en Mataró (Barcelona) desde hace 45 años y que es madre de tres hijos, ha explicado que está estupendamente y que nunca pensó que fuera tan bien la intervención, y que incluso el mismo día que se le dio el alta puso la mesa, hizo la comida y hasta planchó de madrugada. La mujer, que está curada según han remarcado los médicos, dice que no tenía miedo antes de ser intervenida porque sabía que se lo tenían que quitar, "y cuanto antes mejor", y que todavía no está segura de que no tenga que tomar ningún medicamento, aunque lo médicos le dicen que no. Hasta ahora, los especialistas en urología del Hospital Clínic hacían nefrectomías asistidas por laparoscopia para tratar quirúrgicamente este tipo de tumores renales, una técnica que ha dado grandes resultados en los últimos seis años y que ha permitido mejorar la atención al paciente, ya que se reduce el dolor postoperatorio y la estancia en el hospital. Sin embargo, a pesar de las ventajas, la laparoscopia requiere, como en la cirugía tradicional, una incisión abdominal para extraer el riñón , que provoca una cicatriz de unos seis centímetros. |
Candidatas a usar esta tecnología
Mujeres que han tenido hijos y con tumores de menos de unos diez centímetros son las candidatas a ser intervenidas con esta nueva tecnología, que se lleva cabo en menos de dos horas, y se estima que unas 25 podrían ser operadas en los próximos meses. El mismo facultativo ha anunciado además que quieren aplicar esta técnica, en el plazo de un año, en las extracciones de riñón que se hacen a donantes de órganos vivos.
La técnica mínimamente invasiva con la que se ha operado a esta mujer se enmarca en el programa NOTES (Natural Orifice Transluminal Endoscopy Surgery), que implica el abordaje quirúrgico a través de los orificios naturales del cuerpo. Hasta ahora en el hospital Clínic, y dentro del programa NOTES, ya se han realizado con éxito dos intervenciones pioneras en España, la extracción de la vesícula biliar a través de la boca, y una intervención para el tratamiento del reflujo gastroesofáfico. Además de Antonio Alcaraz, jefe del Servicio de Urología, han participado en esta intervención la uróloga María José Ribal, Alejandro Molina, residente de Urología, la anestesista Concepción Monsalve, la instrumentista Ana Palacio, y Francesc Carmona, Jefe del Servicio de Ginecología del centro.
Audio de "España Directo" de RNE
Fuente: Ideal.es, RNE, 31 de Marzo de 2008
-Desarrollan una nueva forma de extracción de energía del mar
A finales de marzo próximo, una zambullida en las aguas de la costa oeste de Bretaña va a hacer mucho ruido: la empresa francesa Hydrohelix Energie va a colocar en el fondo del mar un prototipo industrial de turbina que empezará a producir electricidad explotable gracias a una fuente inagotable y prometedora: las corrientes marinas.
Han hecho falta años y años de balances energéticos y de tanteos para realizar un sueño que saltaba a la vista. El mar es una fuente de inmensa energía, pero aprovechar esa fuerza es más difícil y, de hecho, Francia cometió un desaguisado enorme en ese intento, en los años sesenta del siglo pasado: una inmensa central eléctrica construida para explotar las mareas se ha convertido en un fiasco para el ecosistema, sin por ello aportar una solución duradera en términos de producción.
Lo de ahora va en serio: tras los primeros prototipos en Reino Unido y Noruega, ingenieros tránsfugas procedentes del mundo de las hidroeléctricas fluviales han inventado turbinas ligeras que, colocadas en el fondo del mar, cerca de las costas y en lugares donde se registran fuertes corrientes concentradas en puntos determinados, pueden arrojar un balance energético óptimo con un mínimo impacto medioambiental.
Uno de esos ingenieros es el codirector de Hydrohelix Energie, Hervé Majastre. Su start-up ecologista ha recibido respaldo financiero del Gobierno regional de Bretaña, el Gobierno provincial de Finisterre y la Agencia estatal de Control de la Energía (Ademe ) francesa para la fabricación e instalación del prototipo industrial de la central eléctrica del fondo del mar.
“Nuestros cálculos indican que podemos producir 5.000 megavatios en los tres emplazamientos calificados de muy propulsivos”, señala Majestre, recordando que esa potencia representa nada menos que 25 teravatios/hora. Y el ingeniero ecologista insiste, además, en que ese volumen representaría un 5% de la producción de energía francesa “real y actual”.
El lastre de Sabella
Sabella |
La turbina, bautizada Sabella,
lleva un lastre que le permite permanecer fijada al fondo del mar a unos 20
metros bajo la superficie. Mide unos 5,5 metros de alto –3 de ellos para la
hélice en sí– y girará sólo a unas 50 revoluciones por minuto para producir
directamente electricidad a 50 herzios. Y ello gracias a la instalación de
100 polos. En esa innovación reside toda la eco-compatibilidad de Sabella : en vez de tener que girar 30.000 revoluciones por minuto –como sus primas en manos de grandes firmas que también trabajan en la llamada energía hidroliana–, Sabella gira de manera estable y lenta. De momento, la energía del prototipo de HydroHelix será disipada en unas resistencias, con el objeto de poder medir la producción en situación real y el impacto medioambiental. “A partir de 2009, si no es este año, empezará la producción industrial de electricidad hidroliana para su consumo real si disponemos de la financiación”, estima Majastre. El reto de HydroHelix y otras compañías de la misma filosofía es el de producir cerca de las costas y en emplazamientos muy propulsivos, con el objetivo de empezar a divulgar un objetivo muy deseado por los partidarios de las renovables: el de producir local para consumir local, lo que evita las pérdidas ligadas al transporte. Es un objetivo que permitiría escapar a la carrera loca de la superproducción y el superconsumo de energía, que se justifican el uno al otro. Una carrera que, por ejemplo, ha llevado a que Francia construyera durante años edificios con calefacción sólo eléctrica, buena manera de justificar la ambición nuclear. Ese objetivo del “consume local, produce local” no está en las mentes de las grandes firmas. La petrolera Total , por ejemplo, ha entrado en la carrera, al igual que EDF . Majastre, por su parte, destaca que de lo que se trata es de ir descubriendo lugares muy propulsivos para las pequeñas sabellas. Y manifiesta su interés por las proximidades de las rías gallegas, que están siendo estudiadas por los precursores de la energía hidroliana en España.
|
Fuente: publico.es, 30 de Marzo de 2008
El presidente de la Royal Society of Chemistry recuerda que para propulsar a un solo avión a través del Atlántico con estos carburantes habría que destinar la producción anual de una superficie agrícola equivalente a 30 campos de fútbol
El coro de voces autorizadas que elevan el tono de las críticas al uso de biocombustibles como una alternativa a los carburantes convencionales derivados del petróleo no deja de crecer. El último en sumarse a esta marea ha sido el máximo responsable de la reputada Royal Society of Chemistry británica, Richard Pike.
Tras los estudios científicos que advierten en los últimos meses de que para producir más biocombustibles habrá que roturar terrenos salvajes en todo el planeta, liberando más CO2 del que se ahorra consumiendo aquéllos, Pike señala además las enormes extensiones de terreno agrícola que necesitan los cultivos a partir de los que se producen. Utilizando una comparación muy gráfica, el científico señala que para fabricar el biocombustible necesario para propulsar un único vuelo entre Londres y Nueva York sería necesario dedicar una superficie agrícola equivalente a 30 campos de fútbol. Y eso sólo para la ida.
"Los historiadores del futuro terminarán apuntando a los biocombustibles como un callejón sin salida", señala Pike, que afirma que la presión de varios grupos relacionados con la industria agroalimentaria, sumada a una planificación energética "atolondrada" por parte del Gobierno, pueden terminar llevando a Reino Unido a una crisis de suministro
"El camino que tenemos por delante debe incluir (más) investigación, que permita aumentar la eficiencia de los biocombustibles dramáticamente y avanzar en la fotosíntesis artificial para la producción de alcohol", añade el experto, que señala que en cualquier caso hay que poner "más prioridad en otras tecnologías" de producción energética. Con ellas se refiere a la energía solar fotovoltaica, unida a mejores baterías para vehículos y a una nueva generación de depósitos de almacenamiento de hidrógeno.
Fuente: publico.es, 29 de Marzo de 2008
Puerto de Sidney antes (arriba) y después del apagón (abajo).
|
El apagado de la iluminación de la Casa de la Ópera, el puente sobre el puerto y de los rascacielos de la ciudad de Sidney ha marcado el inicio oficial de 'La Hora del Planeta 2008'. Esta iniciativa contra el cambio climático, que el Foro Mundial para la Naturaleza (WWF) inauguró el año pasado en esta ciudad para concienciar a la ciudadanía de la importancia del cambio climático, se ha convertido en 2008 en un evento global. Casi 400 ciudades y pueblos, 20.000 empresas y 280.000 ciudadanos de más de 35 países de todo el mundo se habían registrado hasta hoy en la página de internet del evento y, cuando en su franja horaria se marquen las 20.00 horas, apagarán las luces durante una hora. El evento finalizará 18 horas después de su comienzo en Sidney, cuando sea el puente de San Francisco, el famoso Golden Gate Bridge, en Estados Unidos, el que se una a la acción medioambiental. Según los registros de la página de internet de 'La Hora del Planeta', los últimos en celebrarlo serán los ciudadanos de San Francisco, pero "alguien ha dicho que en Honolulu, que no ha manifestado a WWF su interés en ser parte de la iniciativa, también están preparando eventos", apuntó Ridley. Además de Sidney, también las ciudades australianas de Melbourne, Adelaida, Camberra, Brisbane y Hobart así como numerosas localidades más pequeñas han secundado este año la iniciativa. Miles de ciudadanos festejaron la Hora de la Tierra con reuniones masivas frente al edificio del Parlamento en Camberra, la capital, y en la plaza central de Melbourne, Federation Square. La esperada ausencia de contaminación lumínica fue aprovechada además por grupos de astrónomos, que instalaron telescopios para observar las estrellas del cielo australiano. En marzo de 2007, cuando la ciudad de Sidney celebró la 'Hora de la Tierra' por vez primera, sus habitantes lograron ahorrar un 10 por ciento de la energía de la ciudad; el equivalente de retirar a 48.000 coches de las vías públicas durante 60 minutos. Este año participan ciudades de todo el mundo como Copenhague, Dublín, Manila, Chicago, Tel Aviv (que lo celebró el viernes por motivos religiosos), Bangkok, Vancouver, Montreal o Toronto y, según la organización WWF, también Argentina, Bolivia, Brasil, México, Nueva Zelanda, Uruguay, Venezuela y España se han unido al proyecto.
|
Fuente: elmundo.es, 29 de Marzo de 2008
-La NASA inicia las pruebas de los primeros cohetes para ir a la Luna
La NASA acaba de iniciar las primeras pruebas de su futuro cohete 'Ares I', que se encargará de impulsar a sus nuevas naves espaciales, diseñadas para sustituir a los actuales transbordadores y enviar astronautas a la Luna. Las pruebas, que comenzaron apenas 24 horas después de concluir la última misión del transbordador 'Endeavour' en la Estación Espacial Internacional (ISS), se centraron en los procedimientos para cargar el combustible que se utilizará en los cohetes, cuyo sistema tiene un diseño similar al de los misiles 'Peacekeeper' de la Fuerza Aérea de Estados Unidos. Los transbordadores, que todavía deben realizar 10 misiones a la ISS y otra para reparar el telescopio 'Hubble' a finales de este año, serán retirados en 2010 y sustituidos por el programa 'Constellation', que utilizará las naves 'Orion' impulsadas por el cohete 'Ares I'. La NASA tiene prevista para abril de 2009 la primera prueba de vuelo no tripulado con el cohete 'Ares I'. El cohete, de más de 100 metros de altura, usará combustible sólido en su primera etapa y combustible líquido en la segunda. La nave 'Orion' viajará instalada en su extremo superior tal y como lo hicieron las cápsulas 'Apollo'. El cohete 'Ares I' también podrá llevar astronautas hasta la ISS en la primera etapa de un futuro viaje para el retorno del hombre a la Luna, previsto para el 2020. Pero antes de iniciarse las pruebas de vuelo, los ingenieros de la NASA tendrán que determinar las formas más seguras de cargar el combustible en el cohete impulsor. Y es en esa etapa donde se encuentran ahora las actividades de los técnicos de la agencia espacial estadounidense, según manifestó David Tomisic, ingeniero de sistemas de fluidos en el Centro Espacial Kennedy (Florida). Tomisic indicó que los trabajos se han centrado particularmente en los tanques de helio, para determinar cómo reaccionarán bajo presión. También se han probado los tanques de titanio que albergarán combustible superfrío y oxidante. Por ahora, para evitar emergencias, los ingenieros están utilizando agua en vez de los combustibles finales, señaló Tomisic. "Hemos aprendido a hacer algunos ajustes en nuestro equipo y todo está funcionando bien", agregó |
Simulación por ordenador del "Ares I" |
Fuente: elmundo.es, 28 de Marzo de 2008
-Un proyecto de la UE aspira a lo último en miniaturización: máquinas moleculares
«La naturaleza utiliza máquinas y motores
moleculares para cada uno de los procesos biológicos», señaló el coordinador del
proyecto, el profesor David Leigh de la Universidad de Edimburgo (Reino Unido).
Con estas máquinas, los sistemas biológicos aprovechan la energía solar, se
comunican, perciben el mundo que les rodea y controlan nuestros movimientos.
El hombre, en cambio, utiliza actualmente máquinas basadas en tecnologías
«macro». Todos nuestros medicamentos y materiales se basan en las propiedades
estáticas de estas sustancias. Una vez alcanzada la nanoescala, las moléculas y
los átomos se comportan de un modo muy diferente, y esto es lo que los
investigadores esperan aprovechar.
«Estamos acostumbrados a las máquinas en el gran mundo», explicó el profesor
Leigh. «Nuestra labor consiste en tratar de encoger este concepto hasta lo
último en miniaturización, donde las máquinas son las propias moléculas.»
Lo que inspiró el proyecto fue un descubrimiento por azar. El profesor Leigh y
su equipo intentaban crear una molécula grande con forma anular en su empeño por
crear nuevos sensores químicos. En cambio, produjeron dos moléculas anulares
entrelazadas que se asemejaban a un eslabón.
Además, la investigación de este sistema permitió fabricar compuestos
denominados rotaxanos, en los que una molécula «rueda« se acopla alrededor de
una molécula «eje». Fue con estas moléculas con las que el equipo de
SYNNANOMOTORS creó el primer motor molecular, al usar una superficie modificada
con rotaxanos para transportar una gota de líquido cuesta arriba. En este caso,
el brillo de una luz delante de la gota hizo que las moléculas se desplazaran de
forma tal que el agua fue impulsada eficazmente por los diminutos motores.
Los socios del proyecto esperan que esta tecnología se pueda usar algún día para
transportar carga, como por ejemplo medicamentos, por el cuerpo. Mientras tanto,
los nanomotores también encuentran aplicación en el área del almacenamiento de
información. En un sistema con dos anillos entrelazados, al cambiar la
orientación de los anillos se modifican también las propiedades de la sustancia.
Por ejemplo, en una orientación puede ser fluorescente y en otra no. Esto
significa que la información se puede «leer» de forma óptica a partir de una
película polimérica cubierta en las moléculas.
Ya hay planes respecto a las primeras aplicaciones comerciales de estos
minúsculos motores, según explicó uno de los participantes del proyecto, el
profesor Wybren Jan Buma de la Universidad de Ámsterdam (Países Bajos).
«Si colocas una capa muy fina de estas moléculas sobre una superficie y las
tocas con una punta muy afilada, de un átomo de ancho, y presionas sobre ella,
obtendrás los patrones», afirmó a CORDIS Noticias. El patrón resultante de las
gotitas puede ser controlado, y una empresa spin off está utilizando actualmente
esta técnica con fines de identificación y de falsificación. «Por tanto, se
trata de algo que ya estamos usando», añadió.
Entre los socios del proyecto hay expertos europeos en química, física, ciencia
de superficies y nanotecnología. No obstante, al recoger el premio, el profesor
Leigh quiso rendir homenaje a la ardua labor de los miembros más jóvenes del
consorcio. «Estoy seguro que habrá una gran cantidad de pizza y cerveza en el
laboratorio para celebrarlo», dijo.
Fuente: Cordis, 28 de Marzo de 2008
-El "nobel" de las matemáticas premia un trabajo sobre simetrías
Para los matemáticos, un monstruo es un
"objeto" que existe sólo en un espacio de exactamente 196.883 dimensiones. Pero
lo importante de esta inimaginable forma no es dónde está, sino el hecho de que
sea una estructura cuyas simetrías no son "descomponibles" en ninguna otra. ¿Y
qué? Y mucho. Para los matemáticos, un monstruo es un "objeto" que existe
sólo en un espacio de exactamente 196.883 dimensiones. Pero lo importante de
esta inimaginable forma no es dónde está, sino el hecho de que sea una
estructura cuyas simetrías no son "descomponibles" en ninguna otra. Contiene
exactamente 8 x 1053 elementos simétricos.
El estudio matemático de las simetrías, un área llamada teoría de grupos, es esencial tanto para la investigación básica como la aplicada. Dos de los matemáticos que han contribuido a su desarrollo, John Griggs Thompson, de la Universidad de Florida (Estados Unidos) y Jacques Tits, del Collège de France, acaban de ser galardonados con el premio Abel, que otorga la Academia Noruega de Ciencias y Letras. Dotado con 750.000 euros, el Abel viene a ser el nobel de las matemáticas. hompson y Tits reciben el premio "por sus profundos logros en álgebra y, en particular, por dar forma a la moderna teoría de grupos", dice la Academia Noruega en su comunicado de prensa.
Jonh Griggs (el de la medalla)
Jonh Griggs y Jacque Tits ganadores del Premio Abel.
Este premio se concede desde 2003 y es concedido por
la Real Academia de las Ciencias y las Letras.
Su nombre viene del ilustre matemático noruego Niels Henrik Abel
(famoso por sus estudios de la teoría de grupos).
200 años después de su nacimiento se creó el premio como homenaje
La simetría es uno de los fenómenos más importantes de la naturaleza. La noción
intuitiva de simetría es fácil. Pero en matemáticas empezaron a describirse en
el siglo XIX, gracias al matemático Evariste Galois -que desarrolló su trabajo
la noche antes de morir en un duelo, a los 20 años-. Las simetrías de una figura
son las múltiples maneras en que esa figura puede ser rotada y colocada de
nuevo, de forma que encaje bien, en un molde suyo. Galois descubrió que las
simetrías de un objeto pueden ser descompuestas en otras simetrías primarias,
que no pueden descomponerse en otras.
Las operaciones simétricas son aquellas
que se hacen sobre un objeto sin que este sufra cambios. Por ejemplo, si rotamos
un cuadro o un cubo totalmente o en un giro de un cuarto del total, veremos que
la figura obtenida es idéntica a la original. Todas las operaciones simétricas
aplicables a una figura constituye un grupo. Existe un número limitado de grupos
a partir de los cuales se pueden obtener todas las formas dentro de otro pequeño
número de clases básicas de simetría, como si éstas fueran una especie de tabla
periódica, pero de elementos, si no de simetrías.
MÚLTIPLES DIMENSIONES
Thompson y Tits, entre otros, han contribuido a elaborar la lista de simetrías
primarias de las que surgen todas las demás; simetrías que no se limitan al
mundo de tres dimensiones, sino que existen también en múltiples dimensiones,
como el "monstruo".
Thompson demostró que ciertas operaciones simétricas pueden ser descompuestas en otras más simples e indivisibles al igual que una molécula se puede reducir a átomos. Estas operaciones elementales están relacionadas con los números primos. Por ejemplo, una rotación simétrica de un polígono de 15 lados es equivalente a las rotaciones de un polígono de 5 y un triángulo equilátero, ambos inscritos dentro del polígono original. Esta propiedad sólo existe en polígonos con un número impar de simetrías (como los 15 lados). El descubrimiento de esta propiedad se plasmó en el extenso teorema del orden impar.
Los grupos finitos contienen un número finito de simetrías elementales que pueden ser clasificadas en familias. Estos grupos forman una tabla periódica. En el "Atlas de los Grupos Finitos" se da un pormenorizado repaso de dicha calisificación.
Tits ha estudiado las
propiedades simétricas de los grupo lineales, dentro de los que las operaciones
simétricas pueden ser infinitas. Un círculo, por ejemplo, puede ser rotado todas
las veces que quieras sin que sufra ninguna variación. Aunque un círculo sea una
forma simple, las infinitas simetrías de formas parecidas son difíciles de poder
ser captadas. Tits ha desarrollado su trabajo en estos últimos años intentando
domesticar el infinito espacio de estos objetos y amansar su comportamiento.
Tits ha demostrado como estos grupos pueden ser descritos y analizados en
términos geométricos, haciendo que sus propiedades sean más fáciles de
visualizar. Acuñó el termino "edificio" para describir las estructuras
geométricas que se presentan como un resultado, y además, demuestra que pueden
ser descompuestas en lo que denomina "apartamentos" y "cámaras".
"La teoría de grupos tiene aplicaciones desde a la resolución de problemas de
ingeniería a la teoría de la relatividad, o incluso es lo que está detrás del
modelo estándar de la moderna cosmología, el llamado Big Bang. Todo eso son
grupos", explica Manuel de León, director del Instituto de Ciencias Matemáticas.
Los trabajos de Tits y Thompson han permitido entender mejor la extraña clase de objetos simétricos llamados grupos esporádicos. "No parecen venir de ningún lado" dice Graham Niblo, uno matemático que estudia la teoría de grupos en la Universidad británica de Souhthampton. Thompson ideó una manera de predecir cuantas formas simétricas puede haber en un grupo esporádico, uno de esos grupos ha sido bautizado con su nombre, el "Grupo Tits" en español sonaría, vulgarmente, como el Grupo Tetas, Tits es francés, de ahí que los ingleses, con su peculiar sentido socarrón, les parezca gracioso lo del nombre .
Fuente: EFE, Nature, 28 de Diciembre de 2008
Alan Stern, uno de los principales responsables de los proyectos científicos de la NASA, ha renunciado a su cargo, según ha confirmado la agencia espacial estadounidense, NASA. Aunque aún no está claro de qué manera, parece el anuncio de su dimisión está relacionado con el pequeño revuelo que se ha formado esta semana a cuenta de un extraño anuncio de la agencia. El lunes, responsables del Laboratorio de Propulsión a Chorro (JPL) aseguraron que un recorte presupuestario iba a obligar a detener durante unos meses la actividad de uno de los dos robots que exploran la superficie de Marte, y a limitar las del otro.
El martes, la propia agencia se desmintió a sí misma al más alto nivel por boca de su director, que aseguró que ningún recorte detendría a Spirit o a Opportunity (que trabajan incansablemente desde hace cuatro años, pese a haber sido diseñados sólo para funcionar durante tres meses).
Cruce de decisiones
"Aunque lamento profundamente su decisión de abandonar la NASA, comprendo sus razones y le deseo lo mejor en sus actividades venideras", ha señalado en un comunicado Michael Griffin, director de la agencia espacial. Stern, por su parte, ha asegurado a sus colegas de forma privada que seguirá "durante algunas semanas" en el cargo, en el que será sustituido por Edward Weiler, actual director del Centro de Vuelos Espaciales de la NASA, ubicado en Goddard, Maryland. Griffin señaló el martes la carta en que se proponía una reducción del presupuesto para la exploración científica de Marte no había sido "coordinada plenamente" con su oficina.
Fuente: periodistadigital.com, 27 de Marzo
Echar una ojeada al futuro significa ver
cómo se diluyen las categorías en las que compartimentamos la realidad
tecnológica. El desarrollo de la potencia de computación nos lleva
ineludiblemente a la producción de formas de inteligencia artificial, que a
través de la ingeniería genética nos acerca a los primeros genomas artificiales,
los cuales no serían posibles sin los desarrollos de la biocomputación, cuyas
bases de datos alojadas en Internet son accesibles de forma masiva gracias al
crecimiento de la banda ancha. Las profecías tecnológicas, cuando fracasan,
acostumbran a hacerlo no porque se cometa un error sobre cuándo estará
disponible una nueva tecnología, sino porque no se acierta en la forma de uso de
ésta. En estas páginas apuntamos algunos de los augurios más verosímiles que
expertos de todo tipo han hecho sobre este futuro. Habrá que esperar a ver quién
acierta, pero todos los vaticinios tienen una base sólida.
2012, LOS COCHES SE COMUNICAN Y ESCOGEN RUTAS
IBM realiza periódicamente unas predicciones para los próximos cinco años. En su
última edición se fijaba en el desarrollo de la automoción y decía que para 2012
se producirá una "ola de conectividad" entre los vehículos y las autopistas, lo
que permitirá un tráfico fluido permanentemente (y reducirá, consecuentemente,
la contaminación). Los coches se comunicarán entre sí y elegirán rutas
alternativas en el caso de que sea necesario.
Curiosamente, la previsión recuerda a la que Walt Disney hizo en un corto de
animación sobre el desarrollo de las autopistas, aunque en este caso la
previsión se hacía allá por los años cincuenta y para un futuro no muy alejado
de aquel momento. Algunos piensan en autopistas donde la conducción sea
automática y la velocidad la fije el coche.
2015, MÓVILES 4G TOTALMENTE DISTINTOS
Según la consultora Gartner, dentro de sólo cuatro años (en 2012) el 50% de los
trabajadores móviles dejarán en casa sus portátiles, que habrán sido sustituidos
por otros dispositivos inalámbricos con idénticas o más prestaciones.
Para el año 2015, Tomi Ahonen, un consultor dedicado al sector de la telefonía,
se aventura a prever la cuarta generación móvil (4G), en la que los terminales
tendrán un zoom óptico de al menos 50 aumentos, sistemas de reconocimiento de
voz capaces de traducir de un idioma a cualquier otro, y tanta capacidad de
almacenamiento que podremos guardar de forma continuada lo que sucede alrededor
de manera que podamos regresar a ello al instante: "¿qué fue ese sonido?",
bastará ir al móvil y darle al replay.
Por supuesto, el terminal no tendrá botones y no nos lo colocaremos en la oreja.
Las interfaces serán algo completamente diferente.
2020, 'SOFTWARE' CON INTELIGENCIA ARTIFICIAL... CASI HUMANA
Año 2020. No todo es hardware.
El software es otra historia y quizá lleve otro paso. Si bien los desarrollos
actuales del software se han centrado en programas orientados a la solución de
problemas muy concretos, durante las próximas cinco décadas se desarrollará un
software destinado a "la exploración sistemática del universo computacional de
todos los posibles programas", según el físico teórico Stephen Wolfram, creador
del programa Mathematica.
Y antes de llegar a ese punto, a medio camino, en el 2020, usaremos herramientas
de inteligencia artificial que incluirán todos los procesos implicados en la
inteligencia humana, según Ray Kurzweil, hasta el punto de que algunas máquinas
serán capaces de superar el llamado test de Turing.
Ese famoso test plantea el diálogo entre un hombre y una máquina oculta a su
mirada y verifica si la persona detecta que su interlocutor es una máquina.
2020: LOS PC SIMULARÁN EL CEREBRO
Si hay en computación una ley talismán ésa es la que el cofundador de Internet,
Gordon Moore, enunció allá en 1965 y según la cual la capacidad de los
procesadores se duplica cada 12 meses. Aunque ha sido revisada, lo cierto es que
el desarrollo de la potencia de computación en los últimos 40 años hace
ridículas las previsiones como la del presidente de IBM en 1943, Thomas Watson,
quien pensaba que "hay un mercado mundial para unos cinco ordenadores", o la que
Ken Olson, presidente de DEC, hizo unos 30 años después, cuando afirmó: "No hay
ninguna razón por la cual alguien quisiera tener un ordenador en su casa". La
cosa es ahora muy diferente y, dejando volar la imaginación, el inventor y
futurólogo Ray Kurzweil espera que para el año 2020 la potencia de computación
haya llegado al punto de ser capaz de simular el cerebro humano (que realiza
unos 10.000 millones de cálculos por segundo). Lo mejor de todo, según Kurzweil,
es que costará menos de 1.000 euros. Trazando un paralelismo, si los coches
hubieran seguido el mismo ritmo, ahora tendrían las dimensiones de una
tostadora, costarían 200 euros y alcanzarían una velocidad de 50.000 kilómetros
por hora.
El desarrollo de procesadores según el sistema actual de litografía, sin
embargo, tiene un límite, así que una de las vías con las que se elucubra para
sobrepasar ese límite físico es la computación cuántica, ya que según Frank
Wilczek, premio Nobel de Física en 2004, "aumentaremos nuestras capacidades
convirtiendo la luz y el spin de los electrones en transportadores de
información en estructuras autoensamblables, después de lo cual, máquinas con
una inteligencia suprahumana serán corrientes".
2020, NANOMÁQUINAS
El sistema de producción de procesadores alcanzará en los próximos años unos
límites que sólo mediante el desarrollo de la nanoingeniería podrán ser
solventados. La nanotecnología era de hecho una de las cinco áreas identificadas
en una encuesta entre 700 miembros del IEEE (Institute of Electrical and
Electronics Engineers). Dentro de poco más de una década, en 2020, "podemos ser
capaces de desarrollar nanomáquinas que entren en nuestro cuerpo y encuentren y
destruyan células cancerosas individuales sin dañar a las células sanas", según
la previsión de un jefe de investigación de la multinacional Battelle, Kevin
Priddy. Más aún: las nanomáquinas podrían ser usadas para distribuir en partes
del cuerpo muy localizadas determinados fármacos, para limpiar arterias o
incluso para reparar daños.
2030, LO VIRTUAL Y LO REAL SE CONFUNDEN
Si lo natural y lo artificial se funden, lo mismo ocurre con lo virtual y lo
real. Las experiencias en los mundos virtuales y a través de simulaciones
resultarán tan reales en unos años que parecerán la realidad misma.
De aquí a una década, los gráficos de los ordenadores tendrán tal grado de
realismo que ya no seremos capaces de distinguir sin son reales o simulaciones;
al menos es la opinión de los miembros encuestados por el Institute of
Electrical and Electronics Engineers. El desarrollo de metaversos (metauniversos)
como Second Life y otros juegos masivos por Internet encaja en estas
previsiones.
El pionero de la computación Alan Kay cree que ese desarrollo de la simulación
nos llevará a desarrollar nuevas formas de alfabetización basadas en la
simulación, de manera que permitan experimentar verdaderamente lo que se
aprende, por ejemplo: ¿cómo sería tu vida si fueras un vegetariano estricto?, ¿y
si corrieses 16 kilómetros cada día?
El cofundador de Sun Microsistems, Bill Joy, cree que hacia los años 2030 se
habrá desarrollado una tecnología que recuerde a la película Matrix, en la que
una interfaz tridimensional entre humanos y máquinas pone en cuestión lo que
llamamos realidad convencional.
Por ahí van otras de las 10 predicciones básicas de Battelle, una empresa que
hace desde 1995 estas prospectivas. Nos maravillaremos por la realidad aumentada
de la simulación, dicen, y gracias a sensores y a la tecnología genética,
seremos capaces de implantar dispositivos que nos permitan oír mejor o ver más
lejos.
2050, LOS ROBOTS SE CASARÁN
Uno de los temas recurrentes en la ciencia ficción, en las predicciones y en el
imaginario popular ha sido el de los robots. Bill Gates se preguntaba en un
artículo publicado en Scientific American: "¿Cuándo formarán parte de nuestra
vida cotidiana los robots?", para seguidamente responder con algunos datos. Así,
según la International Federation of Robotics, la cifra de unos dos millones de
robots que había en 2004 pasará a siete millones este año. Y para indicio de
cambios, la referencia de Corea del Sur. El Gobierno pretende introducir un
robot en cada casa en el año 2013. Mucho más extrema es la previsión de David
Levy, un científico del campo de la inteligencia artificial que el año pasado
publicó un libro, titulado Amor y sexo con las máquinas, en el que hacía
propuestas tan radicales como que en 2050 los robots podrán casarse, aunque
antes de eso, dentro de unos 20 o 30 años, mantendrán conversaciones
sofisticadas.
2050-2060, MILLONES DE ORDENADORES EN UNA MISMA TAREA
Internet probablemente siga pasando por los buscadores en el futuro, se llamen
Google, o Microhoo! Peter Norving, director de investigación de Google, lo ve
claro: dentro de unas cuatro décadas, allá por 2050, los buscadores se habrán
transformado, de manera que "en lugar de teclear unas cuantas palabras en el
buscador, la gente discutirá sus necesidades con un intermediario digital que le
ofrecerá sugerencias y refinamientos en la búsqueda".
Pero quizá el cambio a gran escala venga de la transformación de Internet en un
gran computador, un sueño con décadas de antigüedad y en el que confiaban
mayoritariamente los 700 miembros del IEEE encuestados, para quienes la
computación distribuida será uno de los logros que se alcanzarán en los próximos
50 años.
Esto es, poner a trabajar a los miles de millones de ordenadores que hay (o
mejor, que habrá) en la Tierra en macroproyectos destinados a desarrollar
vacunas contra el sida, simular reacciones químicas o identificar posibles
señales inteligentes que lleguen desde el espacio, como ocurre con el http://seti.astroseti.org/setiathome/,
paradigma de este modelo de computación.
VIDA ARTIFICIAL A UN PASO
Del software a la inteligencia artificial, y para saltar de ésta a la vida
artificial no hay más que un paso. Ya se ha elaborado el primer genoma sintético
de un organismo vivo, un logro fundado en la computación masiva de datos
genéticos, imprescindible para dar cuenta de su enorme volumen. De hecho, la
capacidad para identificar y utilizar datos genéticos se dobla cada 12 o 24
meses, aproximadamente. Así que la vida artificial, construida a base de
genómica y desarrollos basados en la biocomputación, es una consecución
ineludible. "La idea de la biología sintética", dice el investigador de la
Universidad de Berkeley Jay Keasling, "es hacer con la biología lo mismo que la
electrónica ha hecho con el diseño de circuitos y la química con la síntesis de
compuestos, es decir, desarrollar una ingeniería a partir de ella".
2060, TRASPLANTES DE ANIMALES A HUMANOS Vida artificial y vida natural
reprogramada: órganos que se desarrollan en animales, por ejemplo en cerdos,
para ser trasplantados a humanos. Definitivamente, lo artificial y lo natural
pierden sus límites definidos (¿es natural un órgano creado a partir de células
humanas que se desarrolla en un cerdo y es trasplantado después al donante
original?). La producción ilimitada de órganos humanos sin necesidad de que otro
humano haga de donante es para Bruce Lahn, un genetista de la Universidad de
Chicago, ineludible: "Cuando un paciente necesite un órgano nuevo, un riñón, por
ejemplo, el cirujano se pondrá en contacto con un productor comercial de órganos
y le proporcionará el perfil inmunológico del paciente. El productor escogerá
una serie de cerdos que porten el tejido de riñón adecuado, que serán de origen
enteramente humano". Y esto dentro de menos de 50 años.
Fuente: El País Digital, 27 de Marzo de 2008
Aterrizaje del Endeavour |
El Endeavour desafió la amenaza de mal tiempo en la Florida y descendió sobre la pista del Centro Espacial Kennedy, al culminar una exitosa misión a la Estación Espacial Internacional (EEI). La llegada nocturna del transbordador, tras una misión de 16 días a la EEI, se produjo tras un primer intento que debió cancelarse por la amenaza de mal tiempo en la zona de Cabo Cañaveral (Florida). "Endeavour ha llegado", dijo el control de la misión en el Centro Espacial Johnson en Houston (Texas), después de que la nave tocara la pista de descenso a las 00.39 GMT del jueves. "Bienvenido a casa Endeavour, en el fin de lo que ha sido una muy exitosa misión", agregó. La misión S-123 del Endeavour fue la más prolongada de los transbordadores de la NASA y, por primera vez, incluyó cinco caminatas espaciales en torno al complejo que orbita la Tierra a casi 400 kilómetros de altura. El feliz descenso ocurrió después de que el comandante Dominic Gorie y el piloto Greg Johnnson encendieran los motores del transbordador para sacarlo de su órbita 249 sobre el océano Pacífico y hacer su ingreso en la atmósfera terrestre. En esos momentos los vientos eran calmados en la zona, pero había nubes altas que podían convertirse en cualquier momento en una amenaza para la seguridad de la nave. De haber persistido las malas condiciones climáticas el descenso se habría tenido que postergar un día. Sin embargo, Gorie avisó al control de la misión que él y los seis tripulantes del transbordador se habían preparado para cualquier contingencia y que se sentían dispuestos para aterrizar en la pista del Centro Espacial Kennedy durante la noche.
|
Abortado el primer intento
El mal tiempo que obligó a cancelar una primera oportunidad de descenso, cuando todavía alumbraba el sol, y un problema en un pasador de la EEI durante el desacoplamiento el lunes, fueron los únicos inconvenientes sufridos por la misión, la número 25 de los transbordadores a la EEI.
Tras el acoplamiento con la EEI el 12 de marzo, los astronautas instalaron en el complejo el primer segmento del módulo científico japonés Kibo (Esperanza). El último de esos segmentos llegará a la EEI el próximo año. Sumado al laboratorio europeo Columbus, instalado a mediados del mes pasado por la tripulación del Atlanti, Kibo aumentará la capacidad de investigación científica de la EEI en varias disciplinas, dijo la NASA.
La tripulación del Endeavour, de la que formó parte el astronauta japonés, Takao Doi, también instaló el último elemento del sistema robótico canadiense Dextre que ampliará la capacidad de servicio y mantenimiento externo de la EEI. Además, la tripulación del Endeavour realizó pruebas de una técnica de reparación del escudo térmico del transbordador concebida para evitar accidentes como el ocurrido al Columbia el 1 de febrero de 2003 cuando regresaba de una misión científica.
Un trozo de aislante se desprendió del tanque externo de la nave y perforó una de sus alas causando la desintegración de la nave cuando regresaba de una misión científica. La misión también llevó al astronauta e ingeniero de vuelos Garrett Reisman, quien sustituyó al astronauta francés de la Agencia Espacial Europea Léopold Eyharts, quien permaneció 48 días en la estación Alfa. Además de Reisman, los inquilinos de la EEI son la comandante estadounidense Peggy Whitson y el cosmonauta ruso Yuri Malenchenko.
La agencia espacial estadounidense tiene previstas otras 10 misiones de los transbordadores para completar la construcción de la estación espacial antes de 2010. demás, a finales de este año, proyecta enviar uno de los transbordadores en una misión de reparación y mantenimiento del observatorio espacial Hubble.
Fuente: ADN.es, 27 de Marzo de 2008
-El cocodrilo prehistórico de Pernambuco
Un grupo de científicos de Brasil ha encontrado en Pernambuco (al noroeste del país) los restos mortales de un tipo de cocodrilo prehistórico que surgió en la Tierra después de la catástrofe que causó la desaparición de los dinosaurios, aunque su linaje es muy anterior y logró sobrevivir de algún modo a aquella extinción masiva. El hallazgo de los restos del animal, cuya existencia era hasta ahora ignorada por la comunidad científica, ha sido anunciado en Río de Janeiro por los científicos José Antonio Barbosa, Alexander Kellner y María Somalia Sales Viana.
Al mismo tiempo, un artículo con los detalles del estudio acaba de ser publicado por la revista británica 'Proceedings of the Royal Society B'. Los fósiles de la especie 'Guarinisuchus munizi' fueron hallados en rocas de origen marino del litoral de Pernambuco.
fósil de 'Guarinisuchus munizi'
Distribución del cocodrilo marino hace 62 millones de años
Los investigadores recuperaron huesos del cráneo, de la mandíbula, de la pata delantera y partes de costillas, lo que fue suficiente para los restos como pertenecientes a una especie desconocida, de unos tres metros de largo y que vivió hace más de 60 millones de años. Según los científicos, el 'G. munizi' forma parte de la familia 'Dyrosauridae', que vivió durante el período del Paleoceno y resistió al fenómeno que extinguió del planeta a los grandes dinosaurios. El estudio afirma que, en base al hallazgo, los expertos pudieron elaborar una nueva teoría sobre las rutas de dispersión seguidas por los 'Dyrosauridae', que habrían salido de África para ocupar áreas de Sudamérica (el noreste de Brasil) y, luego, de Norteamérica.
"Además, el trabajo establece que los cocodriliformes dirosaurideos fueron los mayores depedradores de los mares tras la gran extinción ocurrida hace 65 millones de años", agrega el informe.
Según la tesis que apuntan los invetigadores, esos animales compartieron con los tiburones la tarea de "colonizar" las regiones costeras.
Fuente: elmundo.es, 27 de Marzo de 2008
Jaime tiene 12 años y cursa primero de la ESO. Al preguntarle por Plutón, reconoce el nombre, pero es tajante en su sentencia: “Ya no se estudia”. Y alega: “No es un planeta”. Su padre, con la natural perplejidad de quien se formó en la extinta EGB, replica: “¿Entonces qué es?”. “Un planeta enano”, aclara Jaime. “¿Qué es eso de planeta enano? O es un planeta, o no es un planeta”, razona su padre.
Jaime está en lo cierto, pero el lío de su padre es comprensible. No es el único enredado en esta aparente contradicción; en el último número de la revista Science, Mark Sykes, director del Instituto de Ciencias Planetarias de Tucson (EEUU), escribe: “La Unión Astronómica Internacional (UAI) define los planetas enanos... pero explícitamente dice que no son planetas, lo queconfunde a muchos”.
Víctima inocente
La de Sykes es una de las principales voces que se alzaron cuando, en agosto de 2006, la asamblea general de la UAI aprobó una definición de planeta que expulsaba del selecto club al más lejano, pequeño y helado de los nueve que hasta entonces integraban el Sistema Solar. Plutón no era, en realidad, el objetivo de la votación, pero fue la víctima inocente de un enmarañado cónclave que, tratando de arrojar algo de luz sobre los revueltos cajones taxonómicos de la astronomía, no hizo sino intrincarlos aún más.
La historia tiene su origen en el verano de 2005, cuando el astrónomo del Instituto Tecnológico de California Michael Brown presentó en sociedad a 2003 UB313, un mundo gélido que gira alrededor del Sol a mayor distancia que Plutón y cuyo tamaño es un 10% mayor que éste. El nuevo cuerpo, llamado informalmente Xena y finalmente bautizado Eris, fue saludado en los medios de comunicación como “el décimo planetadel Sistema Solar”. El acontecimiento obligó a la UAI a dejar de ignorar por más tiempo una definición oficial de planeta. Plutón se había admitido como tal porque, de hecho, había surgido de la búsqueda de un planeta. En 1930, año de su descubrimiento, el número de cuerpos conocidos era mucho menor que ahora, y en un primer momento parecía que Plutón zanjaba las anomalías orbitales observadas en el Sistema Solar, cerrando el elenco planetario. Pero el avance de las ciencias espaciales ha revelado la presencia de otros centenares de objetos bajo la influencia gravitatoria del Sol. Muchos de ellos pertenecen al cinturón de Kuiper, una faja de asteroides situada más allá de Neptuno. De hecho, el propio Plutón pertenece a esta franja, lo mismo que el nuevo Eris. La órbita de Plutón, inclinada respecto al plano de las demás y que en un tramo de su trayectoria invade la ruta de Neptuno, situaba también al noveno planeta en el mismo cajón que Eris. La conclusión para la UAI era obvia: otodos, o ninguno.
Barrer la órbita
La primera intención era clara: todos. Ante su 26ª asamblea prevista para el mes de agosto en Praga, la UAI seleccionó a un comité de sabios para que redactase una definición. La propuesta que elaboraron admitía en la élite planetaria a cualquier objeto que orbitara en torno al Sol y que fuera lo suficientemente masivo para que su gravedad le confiriese forma esférica. Al comenzar la asamblea, todo indicaba que la Tierra se disponía a dar la bienvenida a tres nuevos planetas: Eris, Ceres –el mayor de los asteroides del cinturón entre Marte y Júpiter– y Caronte, un gemelo menor de Plutón que forma con éste un sistema doble. Es más: la fórmula abría la puerta a la incorporación de nuevos objetos de Kuiper que cumplieran las condiciones.
Pero entonces, algo ocurrió. Un amplio grupo de astrofísicos, expertos en dinámica orbital, opinaba que la definición no debía detenerse en lo puramente morfológico, sino incluir también un criterio físico. Según ellos, planetas son los que llevan sobre sus cabezas el peso gravitatorio de todo el sistema; por tanto, debía especificarse la necesidad de que un planeta reine en su espacio, lo que se traduce en el hecho de que debe barrer de su órbita otros objetos. Esta condición de limpieza orbital excluía a Plutón, cuyo recorrido está invadido por otro cuerpo mayor: Neptuno.
Astrónomos a puñetazos
Las discusiones, relataba en su blog la redactora de Nature Jenny Hogan, fueron feroces: hombres y mujeres hechos y derechos “a punto de pegarse puñetazos” por un quítame allá ese planeta. Los astrónomos hacían cola ante el micrófono. Entre el guirigay de abucheos y aplausos, el astrofísico italiano Andrea Milani gritaba: “¡La propuesta del comité es un insulto para los dinamicistas!”. “Nunca debió convertirse en algo tan emocional”, comentaba a Hogan George Miley, astrónomo de la Universidad holandesa de Leiden.
Al término de una de las convenciones más surrealistas de la historia de la ciencia, una abrumadora mayoría de manos alzadas daba la victoria a los astrofísicos. A las 3:32 de la tarde, hora de Praga, del 24 de agosto, Plutón era degradado a planeta enano. No perdía su nombre, pero recibía como triste apéndice elnúmero 134340.
La historia no acabó así. Los numerosos detractores de la decisión hicieron notar los defectos. Primero, de forma: sólo una pequeña proporción de los miembros de la UAI asistieron al congreso. Segundo, las propias contradicciones de la nueva definición; entre otras, la confusión que hace notar Sykes, o el hecho de que los 277 planetas extrasolares descubiertos hasta la fecha no estén contemplados en la fórmula –se habla únicamente del Sol–, o incluso lo que para Sykes es la “pesadilla para el profesor”: la órbita de Júpiter está ocupada por una miríada de asteroides llamados troyanos. Por otra parte, si Plutón no ha expulsado de su órbita a Neptuno, tampoco al contrario. Según el criterio de la UAI, argumenta Sykes, Júpiter y Neptuno no son planetas.
El astrónomo de Tucson propone una redefinición más geofísica, que elimine el criterio de limpieza orbital y englobe a los cuerpos celestes que giran alrededor de otras estrellas. Esto devolvería al club a Plutón, que traería consigo a su hermano Caronte, a Eris, y tal vez incluso a Sedna, ligeramente menor que Plutón y que tarda unos 12.000 años en dar una vuelta al Sol.
El debate no está cerrado. Para mantenerlo vivo, Sykes y otros científicos promueven una reunión que se celebrará el próximo agosto en la Universidad Johns Hopkins (EEUU) y que bajo el título El gran debate de los planetas: la ciencia como progreso discutirá las dos definiciones alternativas, con el fin adicional de mostrar a la comunidad educativa y, de forma transitiva, a los escolares, cómo es “el proceso continuo de hacer ciencia”. Además de preparar el camino para la próxima asamblea de la UAI, que se celebrará en Río de Janeiro en 2009 y donde sin duda el affaire Plutón aflorará de nuevo, tal vez las conclusiones ayuden a sentar criterios que no mareen a estudiantes como Jaime ni desconcierten a sus padres. O al menos, que aseguren que la próxima definición de la UAI no expulse del club de los planetas a la mismísima Tierra.
Anecdotario "plutónico"
Una sonda sin planeta al que dirigirse
Entre las varias peticiones que reclaman la devolución del grado de planeta a Plutón, aparece un nombre especialmente combativo: Alan Stern, astrónomo e investigador principal de la misión New Horizons de la NASA. Se trata de la primera sonda destinada a sobrevolar Plutón y recoger imágenes detalladas. Despegó de la Tierra en enero de 2006. Cuando llevaba siete meses en vuelo, pasó de tener el planeta Plutón como objetivo a tener el planeta enano 134340. Como es lógico, Stern no acepta la nueva definición: “Si la UAI proclama que el cielo es verde, eso no lo hace verde”, declaró. Además de Sykes y Stern, otros científicos y aficionados promueven webs para ‘salvar’ a Plutón, como plutopetition.com, pleasesavepluto.org, o www.savingpluto.org.
Protesta geológica: inventar una palabra que ya existe
La UAI eligió el nombre de ‘plutones’ para los cuerpos similares al planeta enano. Esto motivó la protesta de los geólogos, que llaman ‘plutónica’ a un tipo de roca. Owen Gingerich, de la UAI, justificó la elección de la palabra porque “al no figurar en el corrector ortográfico de Word, pensamos que no era una palabra común”. El científico Allen Glazner dijo que “es como si los botánicos encuentran otra cosa entre árboles y arbustos y deciden inventar la palabra ‘animal’ para describirlo”.
Luto planetario: un crespón negro
Tras la degradación de Plutón, alguien ató un lazo negro al panel de Plutón en el Smithsonian Institution de Washington.
Valor sentimental: el lamento de un niño
Daniel Dauber, de seis años, escribió en el blog de ‘Nature’: “Por favor, no conviertan a Plutón en un planeta enano, me pone muy triste. Echaré mucho de menos a Plutón”.
Nueva palabra: ‘plutonear’
En 2007, la Sociedad Americana de Dialectos eligió el neologismo inglés ‘to pluto’ (‘plutonear’) como palabra del año. Significa “degradar o devaluar”.
Fuente: pubico.es, 27 de Marzo de 2008
¿No ha pensado alguna vez en poder plegar su coche y dejarlo en cualquier rincón?
Pues
los científicos del Massachussetts Institute of Technology, el famoso MIT, ya
han ideado un vehículo de estas características... aunque, de momento, sólo es
un prototipo. El automóvil futurista, que han bautizado City Car, tiene la
capacidad de reducir su ya escasa dimensión (2,5 metros) hasta el metro y medio.
Tres veces menos espacio de lo que ocuparía un utilitario convencional. El
secreto de su arquitectura se encuentra en las ruedas, que concentran las
principales funciones del automóvil. Encerrados en los cuatro neumáticos se
encuentran el motor del coche, que es eléctrico, así como los mecanismos de
dirección, suspensión y freno. Todo controlado por un ordenador central que es
como la CPU del coche y que elimina incluso la necesidad de que haya volante
pues permite maniobras de 360 grados con una sola palanca. Por supuesto, cuenta
con GPS y todos los controles digitales imaginables, que al parecer también son
reconfigurables.
"Hemos reinventado la movilidad urbana", asegura William Mitchell, profesor de
arquitectura y director del proyecto en el Media Lab Smart Cities Group del MIT
desde 2003. "Es como una computadora con ruedas", añade Franco Vairini,
diseñador del patrón de pliegue del vehículo.
Y es que el City Car no es sólo un coche ultracompacto para aparcar en espacios
reducidos. Forma parte de un nuevo concepto de uso del automóvil en las urbes
que se podría asimilar al que se hace del Bicing en Barcelona. La idea es "haya
cientos de ellos en la ciudad y que la gente coja el primero disponible", previo
pago con tarjeta de crédito, explica Vairini. De ahí también su tamaño.
De hecho, el diseñador ideó la forma del vehículo pensando en acoplarlo a coches
semejantes en los puntos de recogida y devolución, como se hace con los carros
de la compra en el súper. Y de paso, aprovechar el aparcamiento para recargar el
automóvil conectándolo a una red de suministro eléctrico. La docena de
ingenieros implicados en el proyecto esperan que su idea se convierta en una
solución innovadora para el problema crónico de la congestión de tráfico que
afecta América, Europa y Asia, así como en una contribución a la lucha contra el
cambio climático. Aunque sólo es un prototipo, el MIT ya ha producido una
versión miniatura del City Car y los científicos confían que pueda construirse
un modelo de prueba a escala real a finales de año.
A Mitchell le gustaría que el vehículo fuera una realidad en tres o cuatro años.
Pero, en la industria no lo ven tan claro. Según Christopher Borroni-Bird,
director del departamento de Conceptos de Vehículos de Tecnología Avanzada en
General Motors, patrocinador del Media Lab, el City Car no está preparado para
la carretera, aunque "es una idea prometedora."
Fuente: La Vanguardia Digital, 27 de Marzo de 2008
Las imágenes por satélite muestran que un gran pedazo de la capa de hielo Wilkins, en la Antártida, ha empezado a derrumbarse en una región del continente que sufre un rápido calentamiento, anunciaron varios científicos. La zona del colapso son unos 415 kilómetros cuadrados de la capa de hielo Wilkins, según las imágenes por satélite del Centro Nacional de Datos de Nieve y Hielo de la Universidad de Colorado.
Esta capa de hielo es una amplia plataforma de hielo flotante perpetuo que se extiende unos 13.000 kilómetros cuadrados sobre el océano, y está situado al suroeste de la Península Antártica, a unos 1.600 kilómetros de Sudamérica. "Bloque tras bloque de hielo, está cayendo y deshaciéndose en el océano", dijo en una entrevista telefónica Ted Scambos, responsable en el Centro de Datos.
Se rompe "como un cristal"
"No es sólo que la capa se rompa y un pedazo se vaya a la deriva, sino que se está haciendo añicos por completo. Esta clase de sucesos no se ven muy a menudo. Pero podemos entenderlos mejor porque éstas son las cosas que llevan a una pérdida total de la capa de hielo", añadió.
Scambos indicó que gran parte de la capa de hielo se sostiene ahora sobre una delgada capa de hielo. Este último "refuerzo de hielo" podría derrumbarse y en torno a la mitad de toda la capa podría perderse en unos pocos años, apuntó. A su vez, el científico David Vaughan, del British Antarctic Survey, advirtió en un comunicado que "esta capa está pendiendo de un hilo".
"Una esquina de ella, que está expuesta al océano, está haciéndose pedazos de una forma que hemos visto en unos pocos lugares durante los últimos 10 ó 15 años. En todos los casos, hemos acabado concluyendo que era el resultado del cambio climático", añadió Scambos.
Las imágenes muestran que el derrumbe comenzó el 28 de febrero, cuando un gran iceberg que medía 41 por 2,4 kilómetros, cayó del lado suroeste de la capa de hielo iniciando una desintegración a marchas forzadas del interior de la capa, explicó el científico.
Con el final del verano antártico, añadió, se espera que la capa de hielo detenga su destrucción. Sin embargo, los científicos observarán si el proceso continúa el próximo mes de enero.
Fuente: adn.es, 26 de Marzo de 2008
-Primeras imágenes de satélite de las emisiones de dióxido de carbono por regiones
El sensor SCIAMACHY, instalado a bordo del satélite ambiental Envisat de la Agencia Espacial Europea, ha captado por primera vez la distribución regional del dióxido de carbono generado por las actividades humanas. Se observó un nivel elevado de esta forma de CO2 sobre la zona más poblada de Europa, la región comprendida entre Ámsterdam (Países Bajos) y Frankfurt (Alemania).
Las emisiones de CO2 son producidas de
forma natural por la respiración de todos los animales, las plantas, los hongos
y los microorganismos. Aparte, cada año se liberan a la atmósfera 30.000
millones de toneladas de CO2 debidas a las actividades humanas, principalmente
mediante el quemado de combustibles fósiles para la industria, el transporte y
la producción de energía.
Según el Grupo Intergubernamental de Expertos sobre el Cambio Climático (IPCC),
el aumento de las emisiones de CO2 y de los niveles de gases de efecto
invernadero ha propiciado un incremento de las temperaturas atmosféricas y
oceánicas, lo que ha provocado la subida del nivel de los mares, el
derretimiento de los casquetes de hielo y una climatología extrema.
Mapa obtenido con los datos del instrumento SCIAMACHY a bordo del satélite Envisat
durante los años 2003-2005. Se muestra una enorme concentración de emisiones
de dióxido de carbono entre Holanda y el Oeste de Alemania.
No obstante, para predecir mejor las
emisiones futuras, es necesario comprender mejor tanto los flujos de CO2
naturales como los causados por el ser humano. Aquí es donde entra en juego el
SCIAMACHY. Este instrumento genera mapas de la atmósfera en un rango de
longitudes de onda muy amplio, lo cual permite detectar gases residuales, ozono
y gases similares, nubes y partículas de polvo por toda la atmósfera. Funciona
midiendo la luz solar transmitida, reflejada y dispersada por la atmósfera o la
superficie de la Tierra en la región de longitudes de onda ultravioleta, visible
y de infrarrojo cercano. Hace barridos de una anchura de 960 km., por lo que
cubre el planeta entero en seis días.
Michael Buchwitz, del Instituto de Física Medioambiental (IUP) de la Universidad
de Bremen (Alemania), y sus colegas procesaron y analizaron los datos obtenidos
por este instrumento y lograron detectar la señal, relativamente débil, del CO2
atmosférico causado por emisiones antropogénicas (producidas por el ser humano)
desde distintas regiones de Europa. Se observó la presencia de un extenso
penacho de CO2 suspendido entre Ámsterdam y Frankfurt.
Detectar este flujo de CO2 antropogénico no es tarea fácil, según explicó el Dr.
Buchwitz: «Los flujos de CO2 natural que hay entre la atmósfera y la superficie
terrestre suelen ser mucho más grandes que los flujos de CO2 correspondientes a
las emisiones antropogénicas, lo que dificulta considerablemente la detección de
las señales regionales de éstos últimos. Que seamos capaces de captar
concentraciones regionales elevadas de CO2 sobre Europa da fe de la gran
precisión que tienen las mediciones de CO2 hechas por el SCIAMACHY.»
Seguidamente el equipo de investigadores analizará en profundidad sus
observaciones. «Hemos verificado que el patrón espacial de CO2 que medimos se
correlaciona bien con las bases de datos actuales sobre emisiones de CO2 y con
la densidad de población, pero habrá que efectuar más estudios para poder
extraer conclusiones cuantitativas concluyentes sobre dichas emisiones», señaló
el Dr. Buchwitz.
Queda mucho trabajo por hacer para comprender las distintas fuentes de CO2, como
los incendios, la actividad volcánica y la respiración de los seres vivos, y
también sus sumideros naturales, como la tierra y el océano. «Sabemos que
alrededor de la mitad del CO2 emitido cada año por la humanidad es absorbido por
los sumideros naturales de la tierra y el océano. Pero desconocemos la
localización de estos importantes sumideros y en qué medida están absorbiendo el
CO2 que emitimos», explicó el Dr. Buchwitz.
Se espera que los datos obtenidos por el SCIAMACHY ayuden no sólo a arrojar luz
sobre las fuentes y los sumideros de CO2, sino también sobre el modo en que
responden los sumideros de carbono al cambio del clima. «Gracias a estas
mediciones por satélite, confiamos en poder responder a cuestiones como ésta
para hacer predicciones fiables», declaró el Dr. Buchwitz. Con estas
predicciones, la comunidad científica estará mejor equipada para hacer un
seguimiento de los avances logrados hacia la reducción de las emisiones de los
gases de efecto invernadero, como se exige en el Protocolo de Kyoto.
El instrumento SCIAMACHY está financiado por el Gobierno de Alemania mediante el
Centro Aeroespacial Alemán (DLR), por el Gobierno neerlandés mediante la Agencia
de Programas Aeroespaciales de los Países Bajos (NIVR), y por el Gobierno de
Bélgica mediante BIRA-IASB.
Fuente: CORDIS, 26 de Marzo de 2008
-Un humano de más de un millón de años en Atapuerca
Los paleontólogos que trabajan en la Sierra de Atapuerca hallaron, en la última campaña, una mandíbula humana de hace 1,2 millones de años que confirma que en la sierra burgalesa habitaron los primeros homínidos que pisaron Europa y allí experimentaron una evolución propia.
El descubrimiento tuvo lugar el 30 de junio pasado en el nivel TE9 de la Sima del Elefante, justo un día después de que se presentara a la prensa un primer diente, del mismo individuo. Junto a este fósil aparecieron unas herramientas de piedra, utilizadas por este homínido burgalés para alimentarse, y restos óseos de los animales que le sirvieron de comida.
Portada de la revista Nature
Hasta ahora, la evidencia fósil más antigua de presencia humana en Atapuerca, y en Europa, era de hace unos 800.000 años, en el nivel TD6 del yacimiento de la Gran Dolina, a 200 metros de la Sima. Los fósiles se atribuyeron, en 1994, a una nueva especie denominada 'Homo antecessor', cuya existencia aún genera polémica en la comunidad científica. Los investigadores, de forma provisional, atribuyen el nuevo fósil también a esta especie, aunque tiene 400.000 años más. Eudald Carbonell, codirector de las excavaciones y uno de los autores del trabajo, al que dedica su portada la revista 'Nature', explica que "por sus características morfológicas este homínido procede de las poblaciones de 'Homo georgicus' encontradas en Dmanisi, con una antigüedad de 1,8 millones de años".
"La mandíbula confirma que ya la primera salida de África tuvo éxito y evolucionó dentro del propio continente. Es el fósil del primer europeo", asegura el paleontólogo catalán a elmundo.es.
Carbonell añade que, de momento, no se sabe si este probable 'Homo antecessor' evolucionó más adelante en Europa hacia los neandertales o si desapareció, si bien se muestra convencido de que "en 30 ó 40 años el árbol evolutivo europeo estará completo".
El hallazgo de la mandíbula estuvo precedido, días antes, del de una pieza dental en el mismo nivel del yacimiento, que fue datado con las últimas técnicas en una antigüedad de 1,2 millones de años Las 32 herramientas de sílex descubiertas junto al fósil fueron realizadas dentro de la cueva con un material que es común alrededor de la cueva. Son lascas de entre 30 y 75 milímetros que fueron utilizadas para aprovechar la carne de algunos hervíboros y están realizadas con una tecnología muy primitiva.
Los utensilios coinciden con los que han aparecido en los yacimientos de Fuente Nueva y Barranco León, en Orce (Granada), y en otros yacimientos europeos en los que hay vestigios de presencia humana, pero no restos.
"Parece que los homínidos que salieron de África hacia Próximo Oriente evolucionaron luego hacia el 'Homo erectus' en Asia y el 'Homo antecessor' en Europa", argumenta Eudald Carbonell.
Sin embargo, Manuel Domínguez-Rodrigo, paleontólogo de la Universidad Complutense de Madrid, cree que la mandíbula puede encajar en más de una especie de humanos primitivos. "Es arriesgado atribuirla a 'Homo antecessor', un taxón que aún se discute. Lo que está claro es que es el resto humano más antiguo de Europa, que sus rasgos son primitivos y que abre las puertas a hallazgos que lleven esa presencia hasta 1,5 millones de años", declara el investigador. Es la segunda vez que el equipo de Atapuerca, Premio Príncipe de Asturias de Investigación. consigue una portada de 'Nature'. La primera fue en 1993, sobre un cráneo excavado en la Sima de los Huesos.
Fuente: elmundo.es, 26 de Marzo de 2008
-Mientras unos piensan en mandar hombres a Marte, a los rovers se les acaba el presupuesto
Billete de ida a Marte
Clint Eastwood, Tommy Lee Jones, Donald Sutherland y James Garner representaban en la película Space Cowboys a la generación de pilotos de las misiones Apolo: astronautas de cuero repujado, con piernas arqueadas sobre botas de espuelas y mejillas de granito en las que se podía afilar un hacha.
En la cinta, dirigida por Eastwood, los vaqueros estelares se enfrentaban a una nueva hornada de yogurines espaciales, empollados entre diplomas de algodón en universidades privadas y bañados en crema hidratante.
Para James McLane, ingeniero aerospacial retirado de la NASA , es aquel viejo espíritu el que debería rescatarse a la hora de plantear la que él considera la única opción viable para que la exploración humana de Marte sea una realidad: un viaje con un único tripulante y sólo con billete de ida. En resumen, un colono, no un turista.
Eliminando el regreso a la Tierra, se deja fuera de la ecuación la variable técnica más compleja y costosa de una misión marciana, y reduciendo la tripulación a una sola persona –o a una pareja fundadora de Adán y Eva marcianos–, se puede dedicar la mayor parte de la carga útil a provisiones y equipo.
Tecnológicamente, el desafío no es menor. Sólo cinco artefactos –menos de la mitad de los que lo han intentado– se han posado con éxito en Marte desde que la primera nave Viking lo lograra en 1976. Los fracasos han sido sonados, incluido el de la sonda europea Beagle 2 hace cinco años.
A la complejidad técnica de cualquier vuelo a Marte, el viaje
tripulado añade la larga duración del trayecto, unos nueve meses que, según
McLane, podrían salvarse sumiendo a los tripulantes en un estado
parecido a la hibernación.
Con todo, la propuesta de este veterano de la ingeniería espacial reduciría el tiempo necesario para poner el pie en Marte. Los actuales programas de las agencias espaciales no contemplan un hito semejante en los próximos 25 años.
El esquema de McLane sería viable, asegura, en menos de 10 años, un plazo adecuado para que los ciudadanos no bostecen ante un proyecto que muchos de ellos no llegarán a ver.
Pérdida de interés
Las sugerencias de McLane afloraron hace dos años en la revista The Space Review , y han encontrado nuevo impulso gracias a un reportaje de Nancy Atkinson en la web Universe Today .
En su artículo original, el ingeniero lamentaba que el público haya perdido el interés por la exploración del cosmos desde las gestas de los Apolo, que en 1969 culminaron con el “gran salto para la Humanidad” de Neil Armstrong sobre el polvo lunar.
Para McLane, lo que ha cambiado no son los gustos del ciudadano, sino la orientación de los programas: “Los esfuerzos post-Apolo han sido poco más que experimentos tecnológicos, estudios de diseño, maniobras políticas internacionales y entrenamiento para la industria aerospacial y de defensa”. Y concluye: “El entusiasmo del público por estas aburridas iniciativas está disminuyendo”.
Según McLane, es el aspecto de la conquista humana, más que el provecho científico, lo que engancha la emoción popular al estribo del cohete. El valor de la proeza era el argumento que presidía los discursos del presidente Kennedy, como el que cita McLane, pronunciado en 1962: “Elegimos ir a la Luna en esta década no porque es fácil, sino porque es duro, porque esa meta organizará y medirá lo mejor de nuestras energías y capacidades, porque deseamos asumir este reto...”.
Seguridad frente a progreso
Frente a esta épica de la superación, el ingeniero reprocha a la NASA, organismo en el que ha trabajado durante 21 años, que hoy embride el progreso con una exagerada obsesión por la seguridad de las misiones.
La aviación moderna, prosigue McLane, se asentó sobre el sacrificio de innumerables pilotos de pruebas, mientras que el programa de motores hipersónicos X-15 de la agencia espacial se canceló al primer accidente, privando a la humanidad de las ventajas que habría aportado esta tecnología.
En contraste con la actitud timorata de la Administración de su país, el ingeniero recuerda el frustrado programa soviético de exploración lunar, diseñado para un tripulante en solitario: “Los cosmonautas son básicamente pilotos de pruebas, enfocados a lograr que el trabajo se haga. Los astronautas americanos se eligen por cosas como sus habilidades sociales y su facilidad para hablar”.
A la propuesta, que su autor bautiza como “el espíritu del águila solitaria” –en homenaje al pionero de la aviación Charles Lindbergh–, no le faltarían, dice, candidatos entre los 6.000 millones de habitantes del planeta.
Razona que miles de exploradores a lo largo de la historia han acometido empresas semejantes, y que montañeros o submarinistas arriesgan sus vidas todos los días en pos de un ideal que, asegura, en este caso serviría para unir a la Humanidad haciendo patente un “vínculo de hermandad que alumbraría una nueva era de cooperación internacional y respeto por los valores humanos”.
Héroe universal
Pero McLane no pide suicidas. Su propuesta incluye misiones previas no tripuladas que depositarían en Marte lo esencial para la supervivencia del fundador.
Éste podría instalarse en el lecho de un cañón –al abrigo de la radiación cósmica y donde la presión atmosférica es máxima– y cobijarse en cuevas.
Cada 26 meses, el tiempo que tarda en abrirse una nueva ventana de lanzamiento entre la Tierra y Marte, misiones sucesivas nutrirían la colonia con otros miembros que, como tantas veces antes en la historia de la Humanidad, emprenderían la construcción de un nuevo mundo.
Aunque McLane deja su posible regreso en manos de las futuras generaciones, es probable que nunca pudiesen hacerlo; pero si, como vaticina el padre de la propuesta, los marcianos se convirtieran en “héroes universalmente admirados, ¿acaso alguno de ellos realmente elegiría volver?”.
Siguiendo la propuesta de McLane, la selección del ‘marciano’ se convertiría en el mayor ‘casting’ del mundo, implicando a toda la Humanidad en la aventura del pionero que se sentiría arropado por el fervor popular: “La comunicación constante proporcionaría al ‘marciano’ el apoyo y la presencia virtual de la sociedad”, asegura el ingeniero.
“Aquí en casa todo el mundo sentiría un genuino interés y simpatía hacia él o ella”. McLane predice que “el mundo seguiría cada uno de sus movimientos por televisión, se deleitaría en su lucha por la supervivencia, y celebraría sus innovaciones, sus éxitos y su valentía.
Los pueblos de la Tierra se agarrarían a cada una de sus palabras y sus opiniones recibirían especial consideración, ya que su separación le daría una perspectiva única en los asuntos terrestres”.
McLane reinventa así el ‘show de Truman’, la parábola cinematográfica que escalaba el ‘reality show’ a proporciones planetarias. Pero a diferencia del personaje que interpretaba Jim Carrey, el ‘marciano’ sería consciente de su papel.
¿Ha convertido ya su idea en un proyecto detallado?
He trabajado 21 años en ingeniería aerospacial y casi otros 20 en el sector privado. Un aterrizaje tripulado en Marte es posible en 10 años. Pero mi experiencia me dice que no conviene establecer tan pronto un diseño detallado; sería fácil descalificarlo y hacer que pareciera imposiblemente caro o técnicamente desalentador.
Hay grandes retos; por ejemplo, aún no se ha probado la teoría para posar objetos pesados en Marte. Pero las técnicas que usamos para poner al hombre en la Luna no existían cuando empezó el programa Apolo. Lo mismo ocurriría hoy, pero los retos son menos importantes.
¿Cuál es la reacción de la NASA ante su propuesta?
El grueso del trabajo de la NASA lo hacen contratistas técnicos bajo la dirección de empleados del Gobierno. Yo trabajé para estas compañías. A los contratistas como yo, no se nos animaba a hacer sugerencias independientes e innovadoras. Hace unos 10 años, propuse mi idea en una presentación técnica. ¡La cuestión fue ridiculizada por el orador!
Pero ahora que he dejado la agencia, soy libre de promover ideas inusuales como ésta. Espero que el conocimiento público de la idea induzca a la NASA a estudiarla seriamente. Si no, tal vez lo haga otra entidad espacial que quiera llevar al mundo al siglo XXI.
Voces como la del ex astronauta Buzz Aldrin han sugerido cosas similares.
He oído a Buzz Aldrin hablar a menudo y su entusiasmo es crítico para lograr que algo se haga. Los autores de ciencia-ficción han jugueteado con el concepto, pero eran ideas de soñadores, no pronósticos de experimentados ingenieros y astronautas. Yo propongo algo que es factible y para lo que tengo la experiencia adecuada.
Entonces, ¿la principal objeción es de tipo ético?
Esta misión no propone el suicidio, sino una expedición de
alto riesgo con la posibilidad de vivir indefinidamente en Marte. Él o ella
simplemente nunca regresarían. Pero sí, hay objeciones. Entre los 1.000
comentarios que he recibido, hay desde adhesiones entusiastas a absoluta
repugnancia e indignación.
¿Podría una empresa privada abordar la misión?
Sería tan caro que sólo los estados pueden costearlo. Pero no se puede persuadir al contribuyente con promesas de retornos financieros. Habría enormes beneficios, pero no cuantificables. Apolo se llevaba el 3% del PIB de EEUU, cinco veces más dinero que la URSS, que no consiguió poner un hombre en la Luna. Sin grandes fondos no hay grandes resultados.
Esos fondos estimularían la innovación y además el programa inspiraría a la gente joven del mundo, desanimada por la falta de objetivos para la humanidad y la pérdida de referentes de la vida moderna.
Uno de los rovers se queda en paro
Los equipos de científicos que manejan desde la Tierra a los robots Spirit y Opportunity limitarán durante algún tiempo su actividad por culpa de un recorte presupuestario. Como informa Space.com, la NASA acaba de decidir un recorte fulminante del presupuesto destinado a las misiones.
Ese recorte implica que uno de los dos vehículos -seguramente el Spirit- tendrá que pasar a modo de hibernación, mientras que las actividades científicas del otro se limitarán. Y así, hasta ahorrar los 4 millones de dólares (unos 2,6 millones de euros) que le faltan en sus cuentas a la NASA, hasta cerrar el año fiscal.
Como recuerda el citado medio, el presupuesto anual conjunto de ambos exploradores es de 20 millones de dólares (unos 12 millones de euros), que se gastan exclusivamente en la Tierra. Ambos robots se consideran sobradamente amortizados después de haber pasado más de cuatro años en la superficie del planeta vecino, cuando su diseño preveía que apenas.
Odyssey también con serios problemas
Un investiigador de la Universidad de Cornell, Steve Squyres, declaraba a Space.com que "hemos llegado rápidamente a la conclusión de que si queremos aplicar el recorte (presupuestario), eso implicaba fundamentalmente las actividades científicas de uno de los dos vehículos".
Esta es una opción "viable" y permitirá ahorrar dinero, según reconoce Squyres, que señala algo obvio: "se hará a expensas de la ciencia".
Sin citar fuentes, Space.com señala también que la NASA planea recortes también para otro de sus proyectos marcianos de mayor renombre, la nave Odyssey. Esta sonda orbita en torno al planeta rojo desde 2001.
Fuente: publico.es, 25 de Marzo de 2008
-Los volcanes de Venus son parecidos a los de la Tierra
Los volcanes del planeta Venus pueden presentar fenómenos similares a los de la Tierra, según sugiere por primera vez un estudio de científicos españoles y estadounidenses, integrantes de un proyecto de la NASA sobre el tema.
Los expertos han analizado la actividad volcánica en el 20% de la superficie de Venus y han encontrado cinco ejemplos de volcanes que parecen presentar el volcanic spreading o proceso de relajación horizontal que controla la evolución estructural de los volcanes y que, hasta ahora, sólo había sido descrito en la Tierra y en Marte.
El estudio del fenómeno, que en nuestro planeta puede llegar a desencadenar el colapso de los flancos de algunos volcanes, es de gran importancia para la evaluación del riesgo volcánico.
El planeta más parecido a la Tierra
Para observar la geología de Venus, que es el planeta del Sistema Solar más parecido a la Tierra, los investigadores han utilizado imágenes de la región con más actividad volcánica del planeta y que fueron obtenidas durante la década de los 90 por la sonda Magallanes de la NASA.
"Hasta ahora se creía que los volcanes de Venus y de la Tierra tenían procesos muy distintos, pero encontramos indicios de que son mucho más parecidos de lo que se pensaba", ha explicado a Efe el investigador Iván López Ruiz-Labranderas, de la Universidad Rey Juan Carlos, que forma parte del equipo de estudio.
El experto ha explicado que, al examinar los procesos de vulcanismo en Venus, es posible entender cómo estos fenómenos son influenciados por distintas condiciones ambientales, ya que el planeta presenta, por ejemplo, presión y temperatura más altas que la Tierra.
"Los investigadores que sólo estudian los volcanes en nuestro planeta son como médicos con un único paciente", ya que los analizan siempre bajo las mismas condiciones, ha afirmado Ruiz-Labranderas, para explicar la relevancia de las investigaciones geológicas en Venus.
Fuente: adn.es, 24 de Noviembre de 2008
-Logran la transmisión sin cables más rápida de la historia
La comunicación inalámbrica es ya una realidad indiscutible. Enviar y recibir datos en movilidad se ha convertido, durante los últimos años, en una auténtica obsesión tecnológica que trae de cabeza a fabricantes, ingenieros y técnicos de telecomunicaciones de todo el mundo. Se trata, en resumen, de liberar a los usuarios de la atadura que suponen los cables, y darles la libertad de poder llevarlo todo, siempre, y a cualquier parte. Y se trata también, por supuesto, de aprovechar comercialmente la bicoca que supone tener en todo momento a millones de personas conectadas y dispuestas a comprar, alquilar, vender, comunicarse o recibir mensajes publicitarios.
La telefonía móvil, poco a poco, se ha ido abriendo camino, desde la voz a la televisión, desarrollando tecnologías que en poco tiempo han pasado, a golpe de sigla (GSM, GPRS, 3G, HSDPA, HSUPA...) de capacidades de transmisión de unos pocos kilobytes por segundo (mensajitos de texto y poco más) a otras de varios «megas», sin nada ya que envidiar a las conexiones que brinda la telefonía fija.
El ancho de banda de internet, también en casa, crece a ojos vista, y se dispone ya a pasar de las páginas web y los correos electrónicos a la televisión digital y a la alta definición. Por eso, el hito alcanzado por un grupo de investigadores alemanes del Terahertz Communication Lab supone mucho más que una anécdota tecnológica.
Un hito tecnológico
Christian Jastrow y su equipo, en efecto, han conseguido por primera vez transmitir datos por vía inalámbrica a la increíble velocidad de un terahercio (un millón de gigahercios). La señal, un capítulo de la serie de animación «Futurama», apenas si viajó 22 metros de distancia. Más que suficiente para ser considerado un hito, un importante paso hacia conexiones inalámbricas infinitamente más rápidas que las actuales, capaces de empaquetar ondas de radio con un ritmo de oscilación superior al billón de veces por segundo.
La velocidad a la que los datos pueden ser transmitidos por vía inalámbrica está, en efecto, limitada por la capacidad de vibración de las ondas de radio que los transportan, que no es infinita. Las tecnologías inalámbricas más rápidas de la actualidad, incluyendo el WiFi y la tercera generación de telefonía móvil, operan aún en el rango de los gigahercios (con vibraciones de mil millones de veces por segundo) y megahercios (millones de veces por segundo). Lo conseguido ahora en Alemania abre la vía a telecomunicaciones miles de veces más rápidas y a servicios hoy aún inimaginables.
Fuente: ABC.es, 24 de Marzo de 2008
Imágenes de radar de la misión Cassini-Huygens, refuerzan los pronósticos de que bajo la sólida capa de hielo existe un embalse de agua líquida. De ser confirmado, significaría que Titán cuenta con dos de los componentes clave para la existencia de vida: agua y moléculas orgánicas. Actualmente, se cree que otros tres satélites que se encuentran en el sistemas solar cuentan con océanos profundos: Ganímedes, Callisto y Europa. La misión Cassini-Huygens es un proyecto de cooperación de la Administración Nacional de Aeronáutica y del Espacio, (NASA), la Agencia Espacial Europea, (ESA) y la Agencia Espacial Italiana, (ASI). Cuando Cassini comenzó a observar la mayor de las lunas de Saturno en 2004, se creía que su superficie estaba completamente cubierta con un océano de hidrocarburos.
Nuevo cuadro
Pero cuando la nave espacial colocó su radar en dirección a la luna por primera vez en 2004, y la sonda del Huygens descendió a la superficie un año después, emergió un cuadro completamente distinto.
Buena parte de la superficie resultó ser sólida, con características geográficas tales como dunas, canales y cráteres producto de impactos, salpicados de enormes "lagos". El último sobrevuelo de Cassini sobre Titán está ofreciendo una nueva mirada de estas características, y para sorpresa de los investigadores, no están localizadas en el sitio donde deberían. Comparada con modelos de la rotación lunar, la información sugiere que la variación estacional observada en la tasa de rotación sólo podía existir si un océano líquido existe bajo la corteza lunar.
Prueba
Los investigadores, dirigidos por el doctor Ralph Lorena del University Johns Hopkins University Applied Physics Laboratory de Estados Unidos, dicen que sus pronósticos pueden ser puestos a prueba durante la extensión de la misión Cassini que ha sido propuesta, o en futuras misiones.
Jon Zarnecki, profesor de Ciencias del Espacio en la Universidad Abierta del Reino Unido, quien no hizo parte del estudio, dijo que la motivación para regresar a Titán con una sonda espacial más sofisticada era "irresistible". La evidencia sugiere que Titán tiene dos de los elementos constitutivos claves para la formación de la vida: agua y moléculas orgánicas, y posiblemente una tercera que es una fuente de energía, dijo.
"Sabemos que hay moléculas orgánicas; el lugar está plagado de estructuras orgánicas", dijo Zarnecki a la BBC.
Posible estructura subterránea de Titán |
En el futuro se espera investigar Titán con misiones como las de l imagen |
Química de la vida
"Titán es un 50% de hielo. Si es líquido como lo sugiere la investigación, parecería que tenemos dos de los elementos para iniciar la química que conduce a la vida.
No sería demasiado inverosímil imaginar que en Titán existen ciertas manchas que podrían ser fuentes de energía, posiblemente energía geotérmica como la que tenemos en la tierra, en el fondo de los océanos".
Titán es la segunda luna más grande del sistema solar; sólo Ganímedes, el satélite de Júpiter, la supera en tamaño. Observaciones en el pasado han mostrado que en muchos aspectos Titán se parece a la tierra en sus primeros orígenes, particularmente en la composición de su atmósfera. La mayor diferencia son las glaciares temperaturas cerca de Saturno.
"Debemos regresar nuevamente con globos y robots exploradores y entender realmente ese lugar", dijo Zarnecki.
Fuente: BBC Mundo, 22 de Marzo de 2008
A la era de las grandes expediciones al Nuevo Mundo, entre
los siglos XV y XVIII, se remonta una curiosa muestra de la colección gráfica en
historia natural de la Real Biblioteca Británica, que incluye dibujos de
Leonardo da Vinci y coloridas acuarelas de importantes coleccionistas de la
época. En cada viaje, Europa descubría un exótico manantial de especias y
especies –desde el girasol o el pimiento a civetas o loros– que despertó la
curiosidad de artistas y científicos. “En estos dibujos se aprecia el asombro,
la maravillosa sensación que experimentaron al ver una fauna y una flora que
desconocían”, se maravilla Sir David Attenborough, asesor de la exposición.
Una de las obras expuestas. Un caimán lucha contra una serpiente
El afamado naturalista británico colaboró en la selección de
las
Maravillosas Cosas Raras , que se exhiben en la
Galería de la Reina , del londinense Palacio de Buckingham, hasta finales de
septiembre. Son un total de 130 dibujos, acuarelas y grabados de flores,
plantas, aves, insectos, mamíferos, conchas y rocas de América, África y Oriente
Medio que llamaron la atención de los europeos. Attenborough siente orgullo,
pero también envidia, ante el trabajo de estos artistas-científicos,
predecesores suyos en la exploración del hábitat natural. Ha seguido sus pasos
con equipos de televisión pero, como reconoce en la presentación de la muestra,
“yo nunca he visto un ejemplar que antes no hubiera estudiado”.
La sorpresa de ese primer encuentro con especies desconocidas conduce a ciertos errores en su representación pictórica. Un perezoso –mamífero de Brasil, actualmente en peligro de extinción– aparece con las cuatro patas pisando el suelo, cuando tiende a pasar su existencia colgado de ramas de los árboles. El dibujo pertenecía al italiano Cassiano dal Pozoo, quien dedicó su vida a compilar un museo de papel con referencias documentales de la antigüedad y de los extraordinarios ejemplares del nuevo mundo natural a medida que Europa lo descubría. El obseso coleccionista sentía una extraña atracción por plantas deformes, como un extraño limón con cinco puntas y un enorme brócoli expuestos en Londres.
El inglés Mark Catesby introduce drama en sus composiciones y llega a combinar los diferentes elementos con efectos artísticos modernos. Estudió la flora y fauna de las colonias británicas de Norteamérica pero presta escasa importancia a la escala entre unos y otros ejemplares. Entre su herencia gráfica se conserva otra especie dada por desaparecida: el pájaro carpintero de pico plateado, originario del Caribe.
Leonardo Da Vinci antecede en tiempo y sobresale en técnica
al resto de los artistas reunidos en la exposición. “Leonardo se mueve en otra
categoría. Es un activo investigador; los otros eran documentalistas”, admite
Attenborough. La Corona británica conserva una exquisita colección de dibujos
del gran maestro renacentista: unas 600 obras en papel, de la que se exhiben 18
detallados estudios de flores y animales.
“Leonardo tiene una curiosidad excepcional”, coincide Martin Clayton, comisario
de la exposición. “Nadie ha observado con tan extremada precisión el mundo
natural. Representaba la tradición del Viejo Mundo, el espíritu investigador del
Renacimiento”, explica Clayton.
Fuente: publico.es, 22 de Marzo de 2008
-El planeta pierde cada día una masa forestal equivalente a 40000 campos de fútbol
La superficie forestal disminuye a un "ritmo vertiginoso", el equivalente a 40.000 campos de fútbol al día. Esta es una de las conclusiones de un informe que ha hecho público la organización mundial de la naturaleza WWF/Adena, coincidiendo con el Día Forestal Mundial, que se celebra este 21 de marzo.
Actualmente, los ecosistemas forestales ocupan unos 3.866 millones de hectáreas, esta cifra representa la mitad del espacio que ocupaban hace 8.000 años. Por si fuera poco revelador y desesperanzador este dato, según el informe, sólo la quinta parte de lo que ha llegado hasta nuestros días está "en un estado de conservación favorable". Según WWF/Adena, solamente en la pasada década se produjo una pérdida neta de superficie forestal de 93,9 millones de hectáreas, es decir, el equivalente a 5,6 millones de campos de fútbol al año.
Las talas ilegales o la transformación para cultivos intensivos de soja y aceite de palma son responsables de esta pérdida forestal, así como los incendios. En España, la fotografía forestal está caracterizada básicamente por la explotación intensiva de eucalipto y el pino en las zonas de influencia atlántica y montaña, así como por el abandono e infrautilización de los productos y servicios ambientales, culturales y sociales de los montes más mediterráneos. Menos del 13% de la superficie forestal española cuenta con un documento de gestión tal y como demanda la Ley de Montes, ni siquiera los incluidos en espacios de la Red Natura 2000.
En España apenas queda el 20% de las masas forestales originales. Cada verano el fuego arrasa una superficie media de 150.000 hectáreas, al tiempo que otro 20% del territorio nacional sufre riesgos extremos o altos de erosión. Se trata de "un panorama nada positivo para asegurar la mejora de nuestras masas forestales", concluye el informe.
Fuente: elmundo.es 21 de Marzo de 2008
-¿Por qué los seres humanos creen en Dios?
Dos millones y medio de euros para saber por qué los seres humanos siguen creyendo en Dios. El montante se antoja excesivo por más que trate de resolver uno de los nudos gordianos del pensamiento y la psicología modernas.
De todas formas, al menos no hay de por medio dinero público. Los dólares manan de una fundación estadounidense, la John Templeton, especializada en los estudios que tejan una relación entre la razón y la fe.
El responsable de gestionar esta pequeña fortuna es el Centro Ian Ramsay, satélite de la Facultad de Teología de Oxford. A su cabeza, Justin Barrett, un psicólogo en tierra de nadie de la polémica entre científicos cristianos y ateos que ha sacudido en los últimos años la universidad británica. A Barrett han intentado atraérselo a su molino las dos cabezas visibles de la controversia, el zoólogo Richard Dawkins –autor de 'El espejismo de Dios'– y su némesis, el teólogo Alister McGrath, autor de 'El espejismo de Dawkins'.
Barrett, que no abandona ni a tiros su pretendida neutralidad, anuncia un proyecto aséptico y desideologizado que tratará de indagar en los motivos por los que el ser humano tiende a creer en Dios. Se trata de saber más sobre cómo dan forma nuestras estructuras cognitivas a nuestras creencias. También sobre la forma que toman los rituales religiosos y las plegarias y sobre la extendida creencia en una vida después de la muerte.
La vocación de puente del proyecto se subraya con un certamen de becas para aquellos expertos en genética, sociología o psicología que apliquen sus hallazgos a cuestiones con dimensiones teológicas o filosóficas.
«Estamos interesados», dice Barrett, «en explorar exactamente lo que el sentimiento religioso tiene de natural. Creemos que las creencias no son adquiridas sino más naturales de lo que la gente supone. Y en segundo lugar trateremos de identificar cuáles son las creencias religiosas más comunes y más fáciles de asumir por los seres humanos».
De todas formas, consciente de la polvareda que levanta el tema, uno de los ayudantes de Barrett, Roger Trigg, lanza un interesante aviso a navegantes: «El debate sobre el origen de la religión y cómo se ajusta a la mente humana ha desempeñado en los últimos años un importante papel en la vida pública, pero nuestro estudio no probará ni desacreditará ningún aspecto de la religión».
El proyecto de investigación se extenderá a lo largo de los próximos tres años e incluirá distintas iniciativas. Se celebrará un taller en Oxford en el verano de 2009 y un curso de un año sobre la materia en el año académico 2009-2010 y se pondrá en marcha una página web con recursos para la investigación en este campo. Alrededor de un millón de euros se destinarán a la subvención de proyectos relacionados con la ciencia cognitiva de la religión y como broche tendrá lugar un congreso final en Oxford en el verano de 2010.
El proyecto –en el que también participa el Centro de Antropología y de la Mente de Oxford– combinará técnicas y científicos de distintas disciplinas de la neurociencia a la biología evolutiva, pasando por la lingüística y la sociología.
La Universidad de Oxford se ha convertido en los últimos años en campo de batalla entre quienes defienden la compatibilidad de ciencia y religión y de los científicos que utilizando sus propias palabras quieren «romper el conjuro».
El comandante en jefe del segundo bando es Richard Dawkins, zoólogo y exacerbado cruzado del ateísmo en el Reino Unido y fuera de él. Su libro 'El espejismo de Dios' ha excedido los círculos académicos y ha provocado un aluvión de debate. En el otro bando, Alister McGrath, que publicó 'El espejismo de Dawkins', tratando de rebatir los argumentos de su colega. Será difícil que el estudio que ahora comienza zanje la polémica, pero al menos proporcionará argumentos y premisas nuevas para un debate tan viejo como el ser humano.
Fuente: elmundo.es, 20 de Marzo de 2008
“La discusión en torno al hombre de
Flores recuerda a la que hubo en su momento sobre los neandertales”, dice el
paleobiólogo del CSIC Antonio Rosas. En 1856, en una cueva cerca de Düsseldorf
(Alemania), se encontraron restos de lo que acabaría siendo una nueva especie de
Homo, pero antes de aceptar la existencia del neanderthalensis
se plantearon otras hipótesis. Tras el descubrimiento se especuló con que los
pedazos de cráneo hallados hubiesen pertenecido a un jinete cosaco, y el insigne
científico alemán Rudolf Virchow llegó a diagnosticar raquitismo al propietario
de los huesos.
Poco después de que en 2004 los
antropólogos Peter Brown y Michael Morwood anunciasen el descubrimiento de lo
que ellos consideraban una nueva especie de Homo en la isla indonesia
de Flores, el investigador Teuku Jacob inició la polémica. En su opinión, los
huesos no pertenecían a una nueva especie, sino a un humano moderno afectado por
microcefalia. Hace dos semanas científicos de la Universidad RMIT en Melbourne
(Australia) sugerían en un estudio publicado en Proceedings of the Royal
Society B que los pequeños individuos de Flores eran humanos enfermos de
cretinismo, una dolencia que podría justificar el reducido tamaño de su cuerpo y
su cerebro. Con una acritud que no ha faltado en esta polémica, Brown calificó
el trabajo de “completo sinsentido” y Colin Groves, de la Universidad Nacional
de Australia, afirmó sentir pena al ver a “científicos reputados implicados en
una parodia así”.
Enanos de Palau
Como se ve, cuatro años después del descubrimiento, el debate mantiene
intensidad. La semana pasada, investigadores surafricanos anunciaron el
descubrimiento de restos de 25 Homo sapiens de tamaño reducido en la
isla micronesia de Palau. En opinión de los científicos, el hallazgo muestra que
es posible que humanos modernos experimenten un proceso de adaptación a una
isla, reduciendo su tamaño para superar mejor la escasez de alimentos. Según
ellos, los sapiens de Palau sugieren que los homínidos de Flores no son una
especie distinta y que este tipo de adaptaciones son más comunes de lo que se
creía.
El paleoantropólogo de la ICREA Jordi Agustí explica que precisamente el enanismo insular del floresiensis es lo que justifica el enorme interés despertado por los fósiles indonesios. “Es un experimento evolutivo que hasta Flores se creía que sólo se daba en especies no primates”, apunta. Pero él, como otros investigadores, cree que los restos de Palau no tienen nada que ver con los de Flores. “Ninguno de estos pequeños humanos es tan pequeño como los Homo floresiensis o tiene proporciones entre extremidades, capacidad craneal o los huesos de las muñecas parecidos”, dice William Jungers, paleoantropólogo de la Universidad de Nueva York en Stony Brook y colaborador de Brown y Morwood.
El estudio de las proporciones ha sido precisamente el último espaldarazo a la teoría de la especie separada. En un artículo publicado en PNAS esta semana, investigadores de la Universidad George Washington (EEUU) han comparado datos craneales del individuo de Flores, humanos modernos y varias especies de homínidos antiguos. En sus conclusiones, afirman que el cráneo indonesio no muestra similitudes con el de humanos modernos y sí con Homo erectus y, en menor medida, Homo habilis.
El debate, a la espera de que se encuentren más restos que confirmen o desmientan la hipótesis de la especie separada, no parece cercano a su fin, algo que a los investigadores no parece molestarles. “Si se confirma finalmente que los restos de Flores pertenecen a otra especie, estaríamos ante uno de los hallazgos más interesantes desde los neandertales”, afirma Antonio Rosas. “En cualquier caso, la discusión es beneficiosa, porque los argumentos se afilan y cuando concluya sabremos mucho más sobre evolución humana”, concluye.
Fuente: publico.es, 20 de Marzo de 2008
-"Mars Odyssey" descubre depósitos de sal en Marte
Unos depósitos de sal descubiertos en Marte acaban de confirmar que el planeta rojo tuvo agua en el pasado y podrían ofrecer pruebas de que exista alguna forma de vida en su superficie. Los depósitos de minerales de cloruro han sido detectados por una cámara instalada en la sonda Mars Odyssey de la NASA, y el descubrimiento se acaba de publicar en la revista Science.
Mediante la cámara del Sistema de Imagen de Emisión Termal del Mars Odyssey (THEMIS), un equipo de científicos de la Universidad de Hawai, la Universidad Estatal de Arizona y el Laboratorio de Propulsión a Chorro (JPL) de la NASA han descubierto alrededor de 200 puntos del hemisferio sur de Marte con características que revelan la existencia de esos yacimientos minerales. «THEMIS nos permite mirar con detalle el espectro infrarrojo termal, que es el mejor para identificar sales minerales de forma remota y desde una órbita», explicó Philip Christensen, científico de la Universidad Estatal de Arizona. Los yacimientos de sal aparecen en las latitudes medianas y bajas del planeta donde el terreno es muy antiguo y lleno de cráteres. Según Mikki Osterloo, científico de la Universidad de Hawai, los científicos lograron el hallazgo al advertir cambios de colores en las imágenes proporcionadas por THEMIS. «Comencé a fijarme en estos sitios porque mostraban un azul intenso en un conjunto de imágenes, verde en un segundo conjunto y naranja amarillento en otro», declaró la geóloga, autora principal del informe. Según Christensen, muchos de los depósitos se encuentran en cuencas en las que desembocan una serie de canales. «Este es el tipo de características, como las de la Tierra, que revelan un flujo de agua durante un tiempo prolongado», manifestó. Los científicos creen que los depósitos de sal se formaron hace entre 3.900 y 3.500 millones de años, cuando ellos creen que el planeta Marte era mucho más húmedo y cálido. |
En azul los depósitos de sal |
Christensen señaló que por su naturaleza, los depósitos de sal apuntan a la existencia de mucha agua, la que pudo existir en lagunas antes de su evaporación. «Eso es crucial», explicó. «Para la vida es indispensable que haya un hábitat que se mantenga durante algún tiempo».
Por otra parte, existe lo que el científico calificó como "efecto de concentración". Los depósitos están en cuencas sedimentarias y probablemente cualquier rastro de material orgánico se dispersó al fluir el agua.
Sin embargo, durante un tiempo muy largo, "el agua que fluyó hasta la cuenca pudo concentrar los materiales orgánicos y es posible que ahora estén bien preservados en la sal", señaló.
Fuente: elmundo.es, 20 de Marzo de 2008
-Hubble detecta moléculas orgánicas en un planeta extrasolar
Científicos del Laboratorio de Propulsión a Chorro (JPL) han detectado mediante el telescopio espacial Hubble la primera molécula orgánica en la atmósfera de un exoplaneta del tamaño de Júpiter, informó hoy el organismo de la NASA.
El descubrimiento, que también confirma la presencia de agua en la atmósfera de ese planeta, "es un importante paso" en los esfuerzos por identificar signos de vida en un planeta fuera del sistema solar, dijo JPL en un comunicado. Añadió que la molécula es del gas metano, "que bajo las circunstancias adecuadas puede desempeñar un papel clave en la química prebiótica", es decir las reacciones consideradas necesarias para formar vida tal como la conocemos en la Tierra, señaló.
Representación artística del planeta en el que
el telescopio Hubble detectó la molécula orgánica
"Este es un avance crucial para identificar moléculas prebióticas en planetas donde podría existir vida", afirmó Mark Swain, científico de JPL.
Además, indicó el comunicado, el descubrimiento demuestra que el Hubble y otras misiones de la NASA, como la del telescopio espacial Webb, pueden detectar moléculas orgánicas en planetas que giran en torno a otras estrellas mediante la espectroscopia, en un proceso que divide la luz en sus componentes y revela las características que distinguen a los diferentes elementos químicos. La presencia de agua en ese planeta, identificado como HD 189733b había sido detectada anteriormente por el telescopio Spitzer el año pasado.
A 63 años luz y 930 grados
El descubrimiento se realizó a través de observaciones realizadas en mayo del año pasado por la cámara infrarroja y el espectrómetro multiobjetos de Hubble. "Con esta observación no hay duda de que hay agua" en la atmósfera del planeta que está a 63 años luz de la Tierra, en la constelación Vulpecula.
HD 189733b es un enorme "Júpiter candente", con temperatura media de unos 930 grados centígrados y tan cercano a su estrella que solo tarda dos días en completar una órbita de traslación.
Aunque es muy candente como para albergar vida parecida a la que existe en la Tierra, "esta observación es prueba de que se puede utilizar la espectroscopia en un planeta más frío, potencialmente habitable y del tamaño de la Tierra", dijo Swain.
Las observaciones del HD 189733b se realizaron en mayo del año pasado cuando el exoplaneta cruzaba frente a su estrella madre. Al pasar la luz de la estrella a través de la atmósfera del planeta, ésta revela las características especiales de los componentes de esa atmósfera.
Swain manifestó que las observaciones también podrían ayudar a determinar otras condiciones de esa atmósfera, como presión, temperatura, vientos y nubes "así como la química de los planetas donde pudiera existir vida".
Fuente: ADN.es, 20 de Marzo de 2008
Clarke en la presentación de un libro
Su celebridad se debe sobre todo a su novela 2001: Odisea en el espacio, que el director de cine Stanley Kubrick llevó a la pantalla en 1968.
En los años cuarenta anunció que el hombre llegaría a la Luna alrededor del año 2000, una predicción que fue despreciada por los expertos. Cuando Neil Armstrong aterrizó en el satélite en 1969, el Gobierno de Estados Unidos declaró que Clarke "aportó el empuje intelectual sustancial que nos hizo llegar a la Luna".
El pasado mes de diciembre, cuando celebró su "nonagésima órbita alrededor del sol", lamentó ante sus amigos que no haya visto ninguna evidencia de vida extraterrestre a lo largo de sus 90 años de existencia. También pido tres deseos por su cumpleaños: que los extraterrestres se manifiesten, que los hombres den una patada a sus hábitos relacionados con el petróleo y que Sri Lanka alcance la paz.
Fuente: cadenaser.com, 19 de Marzo de 2008
-Internet nuevo campo de batalla
El ejercito chino, con 1,25 millones de hombres, 6.700 tanques y 2.700 aviones, es el más numeroso del mundo pero no el más poderoso. Para ponerse a la altura del estadounidense, el Ejército Popular de Liberación (EPL) está modernizando a marchas forzadas su capacidad de guerrear por tierra, mar, aire... y en el ciberespacio.
El Pentágono, perteneciente al Departamento de Defensa de EEUU, entregó a principios de mes al Congreso su Informe Anual sobre el Poder Militar de la República Popular de China. Sus 66 páginas repasan la capacidad bélica de las fuerzas armadas de ses país, e insisten especialmente en el combate en el ciberespacio. Según el informe, el EPL ya ha
creado unidades de guerra especializadas en el diseño de virus informáticos
para atacar sistemas y redes del enemigo, al tiempo que protegen los
ordenadores y comunicaciones propias. Desde 2005, el ejército chino incluye
la simulación de ataques a redes informáticas enemigas dentro de sus
ejercicios militares.
|
David Sedney, asesor del departamento de defensa americano para Asia Oriental |
"Mentalidad de Guerra Fría"
Nada más conocerse el informe, el gobierno chino criticó su contenido, asegurando que era fruto de la paranoia y que no se correspondía con la realidad. El portavoz del ministerio de Asuntos Exteriores de China, Gang Qin, afirmó a la prensa: "Los EEUU necesitaban dejar atrás su mentalidad de Guerra Fría".
El asistente para asuntos de Asia Oriental del secretario de Defensa, David Sedney, y encargado de presentar el informe, recordó en rueda de prensa que el año pasado varios ataques contra redes de ordenadores en los que se había comprometido información en diferentes zonas del mundo provenían de China.
A renglón seguido añadió: "Aunque no hemos podido clasificar estas acciones como un trabajo del EPL o el gobierno chino, las técnicas usadas, la manera en la que se produjeron las intrusiones, están muy en la línea de lo que uno necesitaría hacer si lo que estás practicando es una ciberguerra".
Dudas de los expertos
Los expertos en seguridad informática son algo escépticos con estos informes. Su presentación ha sido usada tradicionalmente para hacer presión a la hora de que el Congreso de EEUU otorgue nuevos fondos. La semana pasada el presidente Bush anunció un aumento en la partida para la ciberguerra.
El presidente de Hispasec , Antonio Ropero, cree que los ataques actuales están más relacionados con el espionaje económico. "Eso sí, este es un mundo muy secreto y uno no puede estar seguro".
El informe del Pentágono recoge una serie de ataques a redes informáticas sufridos por países occidentales el año pasado. Salvo el caso de Estonia, cuya infraestructura de comunicaciones fue atacada por estonios de origen ruso, el resto provenía de territorio chino.
A lo largo de 2007, el departamento de Defensa, otras agencias gubernamentales de EEUU o empresas de tecnología militar sufrieron unos 13.000 ataques. Alemania, Francia, Australia o el Reino Unido denunciaron intrusiones similares y los ojos siempre miraron a China.
Fuente: publico.es, 19 de Marzo de 2008
-La NASA confirma la reducción del espesor de las capas más antiguas del hielo Ártico
El espesor en los sectores de hielo ártico más antiguo ha continuado reduciéndose como resultado del aumento de las temperaturas en todo el planeta, según han revelado las últimas fotografías de satélite difundidas por la NASA. De acuerdo con datos proporcionados por la agencia espacial estadounidense, hasta hace unos años el hielo perenne cubría entre un 50 y un 60% del Ártico. Este año cubre menos del 30%. "La declinación del hielo perenne refleja la tendencia de calentamiento climático a largo plazo y es resultado de un mayor deshielo en el verano y un mayor alejamiento del hielo más antiguo" de la zona polar, dijo la NASA en un comunicado. Según datos proporcionados por el satélite ICESat de la NASA, el Ártico ha perdido alrededor de 2,5 millones de kilómetros cuadrados de hielo perenne, la mitad entre febrero de 2007 y febrero de 2008", señaló en una conferencia de prensa telefónica Walt Meier, del Centro Nacional de Datos sobre el Hielo y la Nieve. |
Foto tomada por un satélite que muestra la desaparición del hielo Ártico |
"El mayor espesor es un indicador de la salud durante un largo lapso del hielo, y en este momento (su reducción) no es un buen indicio", agregó.
Pero, por otra parte, esas mismas imágenes de la NASA indican que el último invierno septentrional que fue más frío que lo habitual en la zona ha producido un aumento del hielo marino. Ese hielo nuevo impide que el Ártico sea un mar abierto durante el invierno, pero es frágil y mucho más débil al embate del viento y el aumento de las temperaturas que el que se ha mantenido inalterable durante muchos años, según los científicos. Meier señaló que en estos momentos la región más bien parece un escenario de película en el que se ve un Ártico cubierto de hielo joven.
"Se ve muy hermoso, pero más allá no hay nada. Está el vacío. Lo que se ve es un revestimiento de hielo y nada más", indicó.
Fuente: EFE, 19 de Marzo de 2008
BigDog es el miembro más avanzado de la familia robótica de Boston Dynamics. Un cuadrúpedo que camina, corre y transporta cargas pesadas gracias a unas extremidades que se articulan como las de los animales. De hecho, bien podría confundirse con uno de ellos en estas imágenes que lo muestran en exteriores. Aunque asusta un poco.
Fuente: ADN.es, 18 de Marzo de 2008
-Descienden menos de lo esperado las emisiones de dióxido de carbono en España
Las emisiones de gases de efecto invernadero (GEI) descendieron 2,6 puntos en España en el año 2006 respecto al año base 1990. Esta cifra significa 1,4 puntos de descenso menos de lo estimado incialmente. Hasta ahora la cifra que se manejaba era de un 4%, por lo que la cifra definitiva para el año 2006 queda establecida en un 49,35% más que en 1990. El Departamento de Cristina Narbona comunicó el pasado jueves por la tarde de forma preliminar a la Comisión Europea el Inventario de Gases de Efecto Invernadero de España con los datos oficiales de las emisiones en 2006. La aprobación formal del Inventario la realizará la Comisión Delegada del Gobierno para Asuntos Económicos en su próxima reunión.
"Las cifras reflejan una reducción de un 1,7 por ciento respecto al año anterior. Se trata de la primera reducción significativa de las emisiones GEI desde la aprobación del Protocolo de Kioto", añade Medio Ambiente en su comunicado.
En este sentido, reconoce que "los datos oficiales muestran una reducción algo menor que las cifras estimadas en abril del año pasado en el Informe elaborado por el World Watch Institute de España y Comisiones Obreras". Hasta ahora, con una estimación de decrecimiento de emisiones del 4% se creía que, en conjunto, habían aumentado las emisiones de GEI un 48,05% desde 1990, cuando el Protocolo de Kioto sólo permite a España un aumento del 15% respecto a los niveles de 1990, en el periodo 2008-2012.
En estos momentos, las últimas cifras oficiales indican, por tanto, que el nivel de emisiones hace dos años era un 49,35% superior al de 1990, es decir, una diferencia de 34 puntos. El Ejecutivo preveía que las emisiones de 2008 superarían un 37% los niveles de 1990 (todavía no se conocen los niveles de emisiones de 2007), por lo que su estrategia consiste en cubrir la diferencia respecto con Kioto mediante la aplicación de los llamados Mecanismos de Flexibilidad (que cubrirían un 20%) y con el efecto positivo de los sumideros de CO2, básicamente bosques (el 2% restante). El coste de estas acciones rondará entre 2.000 y 3.000 millones de euros. A partir de 2012, la UE prepara una estrategia que obligará a los sectores industriales a reducir al menos un 20% las emisiones respecto a 1990. En el sector difuso (vivienda, agricultura, transporte), no incluido en las obligaciones de Kioto, a España le correspondería una reducción de emisiones del 10% en 2020 respecto a los niveles de 2005.
Una cifra que el Gobierno considera que debería rebajarse, mientras que los ecologistas la critican por leve, dado que permitiría al país aumentar sus emisiones más del 30% en 2020, respecto a los niveles de 1990.
El Inventario no solamente presenta los datos de los gases de efecto invernadero sino que también contiene otros gases contaminantes que afectan a la calidad del aire como son los óxidos de nitrógeno (NOx), el dióxido de azufre (SO2), los compuestos orgánicos volátiles (COV), y el amoníaco (NH3). Los resultados muestran que respecto a 2005 en SOx, NOx y COVs la situación ha mejorado en el conjunto de España, mostrando una bajada del 7%, 3% y del 2,5%, respectivamente. Por su parte, el NH3, aumenta un 4%, como consecuencia de los procesos del sector primario, esencialmente la agricultura.
El año pasado se aprobó la Estrategia Española de Calidad del Aire y la nueva Ley de Calidad del Aire y Protección de la Atmósfera, que, entre otras medidas, fija que si se superan los niveles de contaminación, las comunidades autónomas y ayuntamientos deberán elaborar planes de reducción que serán determinantes en los instrumentos de planeamiento urbanístico y de ordenación del territorio.
"Aunque 2006 fue un año de gran crecimiento económico en España y de aumento neto de la población, la eficacia de las políticas que el Gobierno ha estado poniendo en marcha empieza a mostrar efectos estables y consolidados de mejora de la situación ambiental", concluye.
Fuente: elmundo.es, 17 de Marzo de 2008
-300000 años separan a sapiens y neandertales
Humanos modernos y neandertales comparten un antepasado común y al menos un 99,5% de su ADN, pero la fecha en la que ambos linajes se separaron aún es motivo de discusión. La franja que manejan los científicos es todavía demasiado amplia: entre 800.000 y 300.000 años atrás. A los estudios clásicos de fósiles han venido a añadirse los análisis genéticos, que convierten las similitudes en cercanía o lejanía entre especies y, por tanto, en cronologías.
Un artículo publicado hoy en PNAS aporta nuevos datos. El enfoque es original: los científicos han empleado un modelo matemático al estilo de los que se usan para las comparaciones genéticas, pero aplicándolo al fósil, en concreto a las medidas del cráneo.
Los investigadores, de las universidades de California e Illinois (EEUU) y el Museo de Historia Natural de Londres (Reino Unido), parten del paralelismo entre la deriva azarosa de los genes y la variación de 37 parámetros craneales, que han registrado en 2.524 humanos de 30 poblaciones del planeta y en 20 cráneos de neandertal.
Su conclusión es que ambas especies se separaron en la evolución hace unos 311.000 años. Los autores apuntan que “con las medidas consideradas, no hay conflicto entre moléculas y morfología”. Es de esperar que la secuenciación completa del genoma neandertal, prevista para este año, ayude a despejar algunas dudas.
Fuente: publico.es, 17 de Marzo de 2008
-Macacos sin dientes a 3 euros
El comercio ilegal de animales exóticos es una actividad en auge, una moda para aquellos con suficiente poder adquisitivo en los países desarrollados, pero también una actividad ligada a estratos sociales más bajos en países en desarrollo, donde se encuentran la mayor parte de las especies exóticas amenazadas.
El tráfico de animales exóticos es el tercer negocio negro más lucrativo después del comercio de drogas y armas, y mueve más de 6.400 millones de euros al año en el mundo. En Indonesia, uno de los países con mayor biodiversidad del planeta, el tráfico ilegal y la destrucción del hábitat son las mayores amenazas para muchas especies salvajes, muchas de ellas endémicas.
Un vendedor de Yakarta cortando los dientes a un loris con un cortauñas
El comercio de animales exóticos se considera un medio para proporcionar prestigio social y poder en la sociedad indonesia; sin embargo, la aportación a la economía familiar de las zonas pobres no se ve beneficiada. Gobernadores, militares, policías y grandes hombres de negocios llegan a tener auténticos zoológicos privados. Según las leyes locales, la tenencia de animales de especies protegidas es ilícita. No obstante, para la gente con influencia las leyes pasan desapercibidas.
Compradores de piel blanca
En los mercados de animales de Yakarta, en los que se puede encontrar una gran variedad de especies exóticas, cualquier oferta es posible. Cientos de macacos se ponen a la venta cada día a un precio que ronda los tres euros, aunque los compradores de piel blanca paguen bastante más.
Para darse una vuelta por estos mercados es necesario hacer de tripas corazón. Cientos de animales se agolpan entre jaulas, polvo, plumas, gente… El aire es denso y los gritos imparables de la mayoría de animales recién capturados en la selva convierte los bazares en un pasaje tétrico. La epidemia de gripe aviar, que sigue cobrándose vidas humanas en este país, no ha sido argumento suficiente para acabar con estos mercados.
Todas las especies de primates están amparadas por la Ley de Conservación de Especies en Indonesia. Sin embargo, el comercio ilegal es imparable. Las autoridades temen a las mafias de tráfico de animales y, por ello, la policía forestal no se atreve a hacer redadas en estos mercados.
Los macacos comunes (de cola larga y de cola de cerdo) son la únicas especie de primates que aún no están protegidas por ninguna ley en Indonesia. Por tanto, esta actividad de compra-venta no está prohibida y se ha convertido en causante de la explotación de estos simios, que son cazados, comercializados como animales de compañía o exportados para su uso en laboratorios, para consumo o para materia prima en la medicina china.
Los lorises, otro de los animales más comunes en los mercados, son primates nocturnos. Sus preciosos ojos grandes y su tamaño reducido hacen que sean más atractivos para sus compradores. En Yakarta, muchos de estos primates se venden, a partir de seis euros, como animal de compañía o como juguete para los niños.
Antes de su venta, los vendedores se encargarán de arrancar brutalmente sus pequeños y afilados dientes para evitar a los compradores una dolorosa mordedura, utilizando para ello unos alicates o cualquier otra herramienta. Ni siquiera ante los gritos de dolor de una de estas pequeñas criaturas los mercaderes sin escrúpulos se dan cuenta del daño que están haciendo a su propia fauna.
Estos pequeños primates nocturnos son, además, expuestos a la luz del día. Su nombre en indonesio, malu-malu, significa tímido, ya que son animales esquivos que viven de forma solitaria en la noche de la selva. Debido al estrés de ser capturados y expuestos, y al sufrimiento al que se ven sometidos por la extracción brutal de sus colmillos y las infecciones bucales consiguientes, muchos perecerán durante el proceso o días después, en casa de sus nuevos dueños.
Los pocos que puedan sobrevivir morirán en cautividad por desnutrición, pues la dieta que reciben no se parece en nada a la que obtendrían en la naturaleza. La mayoría de los que adquieren animales exóticos no tienen ningún conocimiento de la biología de los ejemplares que compran. Muchas veces no saben de qué especie se trata, ni si está protegida.
El comercio de lorises está vetado desde junio de 2007. Las especies indonesias son endémicas de este país. Si no se hace algo pronto, se extinguirán en todo el planeta.
Fuente: publico.es, 16 de Marzo de 2008
-El enigmático "ojo del huracán" en Venus
La sonda Venus Express ha estado observando constantemente el polo sur de Venus y ha encontrado que es sorprendentemente variable. Una enorme estructura con una parte central que se parece a un ‘ojo de huracán’, que se metamorfea y cambia de forma en cuestión de días, deja perplejos a los científicos.
Imagen del ‘ojo del huracán’ tomada el 26 de Febrero de 2007 por la sonda Venus Express. Muestra una región de la atmosfera de Venus a 60 km de la superficie, en una longitud de onda de 5 micrometros. En esta imagen, el dipolo toma la forma de ojo y desde hasta la última imagen se aprecia como cambia de forma en solo 24 horas. El punto amarillo indica la localizacion del polo sur. Crédito: ESA/VIRTIS/INAF-IASF/Obs. de Paris-LESIA/Univ. de Oxford |
La imagen anterior, cuatro horas mas tarde … |
Tras 24 horas |
Al día siguiente
El 'ojo de huracán' tiene en su centro un vórtice de 2000 km de anchura. Fue descubierto en 1974 por la sonda Mariner 10. Existe una estructura similar en el polo norte del planeta que fue observada en 1979 por la misión Pioneer Venus.
Los científicos de la Venus Express han estado estudiando la estructura en la banda de frecuencias térmicas infrarrojas, por ser las longitudes de onda con las que se aprecian las temperaturas de las partes superiores de las nubes. Visto a estas longitudes de onda, el centro del vórtice aparece muy brillante, indicando que posiblemente una gran cantidad de gases están descendiendo en esa región, lo que crea una depresión en la zona alta de las nubes, haciendo la región más caliente.
“Para ponerlo fácil, el enorme vórtice es similar a lo que ves en el desagüe de la bañera cuando le quitas el tapón” afirma Giuseppe Piccioni, investigador co-principal del Visible and Infrared Thermal Imaging Spectrometer (VIRTIS) de la Venus Express, en IASF-INAF, Roma, Italia.
En Junio de 2006 el vórtice apareció con la forma de reloj de arena, muy parecida a la que observó la sonda Pioneer Venus en la región polar norte. Ahora sabemos que cambia su forma en el lapso de días, de una a otra órbita. La imagen tomada el 26 de Febrero de 2007 muestra la forma clásica de dipolo en el centro del vórtice, similar a la observada previamente. Pero otra imagen tomada a escasas 24 horas antes muestra el centro del vórtice casi circular, indicando que su forma puede cambiar muy deprisa. En otras ocasiones es oval.
La naturaleza dinámica del vórtice puede verse perfectamente en el video, que muestra que es muy complejo, con gases atmosféricos fluyendo en diferentes direcciones a diferentes alturas.
Los científicos no están seguros de lo que crea realmente el vórtice. Colin Wilson, de la Universidad de Oxford, dice que “una explicación es que los gases atmosféricos calentados por el Sol en el ecuador ascienden y se mueven hacia los polos. En las regiones polares convergen y se encogen de nuevo. A medida que los gases se mueven hacia los polos, se desvían lateralmente debido a la rotación del planeta”.
La naturaleza dinámica de este vórtice es similar en comportamiento al observado en otros vórtices de la Tierra, incluyendo los del centro de los huracanes. Los investigadores seguirán observando de cerca las regiones polares y sus variaciones, para entender mejor como funiona todo esto.
Fuente: sondasespaciales.com, 16 de Marzo de 2008
-Un yacimiento en Granada revela indicios del primer homínido europeo
El yacimiento de Fonelas P-1 en la localidad granadina de Guadix revela indicios de la existencia del primer homínido en Europa, hace casi dos millones de años, según el director de la excavación, Alfonso Arribas.
Arribas ha asegurado que existe una "alta probabilidad" de localizar este homínido que se desplazó desde África a Granada, ya que se han encontrado más de diez huesos con marcas de cortes de homínidos en un cubil de hienas.
Los huesos corresponden a animales de los que se alimentaban los antepasados del hombre, cuyos restos eran recogidos por las hienas posteriormente y trasladados al cubil para dar de comer a sus cachorros. Además, el ecosistema de Guadix de entonces se parece al de Dmanisi en el Cáucaso, origen del hasta ahora considerado primer homínido europeo hace 1.800.000 años, y en ambos entornos convivieron especies como la jirafa o los primeros lobos.
Nada que ver con Atapuerca
En cambio, Arribas asegura que el paisaje granadino "no tiene nada que ver" con el del yacimiento de Atapuerca, en donde el primer resto humano encontrado data de hace 780.000 años. La zona de Guadix era hace dos millones de años "rarísima, similar a la sabana del Serengeti africano multiplicada por cuatro en superficie", y tenía animales de origen europeo (ciervo, mamut), asiático (antiguo lobo, buey almizclero) y africano (hiena africana, jabalí), según el director del proyecto Fonelas.
Los homínidos se encontrarían más cerca de las montañas del entorno que en las llanuras excavadas, ya que éstas son zonas más expuestas al ataque de los animales carnívoros de la época.
El proyecto Fonelas P-1 está sufragado por el Instituto Geológico y Minero de España y por la junta de Andalucía, comenzó en 2001 y actualmente hay quince personas trabajando en él.
Fuente: adn.es, 15 de Marzo de 2008
-El mayor experimento del mundo
Cuando se ganaba los dracmas trabajando en una empresa ateniense de ascensores, seguramente nunca sospechó la exorbitante altura a la que llegarían sus creaciones. Y en más de un sentido; no sólo el experimento que ideó se realizó a 540 kilómetros sobre la superficie terrestre, sino que la movilización de personal, equipo y presupuesto, sumada a las consecuencias que predecían sus cálculos, hicieron que la operación Argus diseñada por el físico Nicholas Christofilos mereciera para el diario The New York Times los honores de ser “el mayor experimento jamás realizado”.
Christofilos nació en 1916 en Boston, hijo de emigrantes griegos que siete años después se dejaron vencer por la nostalgia y recogieron velas de regreso a Europa. En Atenas, el espabilado Nicholas estudió ingeniería mecánica y eléctrica, pero su afición por la física le empujaba a preguntarse qué mecanismos animaban los aparatos de radio que le gustaba reparar. Sin formación en ciencia básica, comenzó a engullir textos de física nuclear en alemán. Con el paso de las páginas y los años, su interés por los aceleradores de partículas le llevó a enunciar en 1949 un principio que rompía moldes, pero que no fue valorado por la comunidad científica de EEUU, a la que comunicó por carta sus hallazgos, hasta que alguien más creíble que él lo redescubrió.
El descubrimiento de Christofilos explicaba la radiación atrapada, un curioso comportamiento de las partículas cargadas observado a finales del siglo XIX por un físico noruego llamado Kristian Birkeland. Un chorro de electrones dirigido hacia un imán en una cámara de vacío parecía canalizarse espontáneamente hacia el polo magnético, como siguiendo el camino del hormiguero. El matemático Carl Stoermer, amigo de Birkeland, trató de formular este fenómeno, pero fue Christofilos quien logró traducir a símbolos el misterioso encantamiento electrónico.
Planeta magnético
En todo imán, sus polos norte y sur están unidos por líneas de fuerza curvadas en forma de C. En el caso de la Tierra, un gigantesco imán, los extremos de la C se dirigen respectivamente a los dos polos magnéticos, que no coinciden con los geográficos. Uniendo todas las C que circundan el planeta, se obtendría un campo de fuerza con forma de neumático de coche, en cuyo centro estaría empotrada la Tierra. Pero como ocurre con las isobaras de los mapas meteorológicos o con las curvas de nivel de los topográficos, cada línea es una representación abstracta que une los puntos de un valor determinado; el dibujo de la situación real sería uno de innumerables líneas infinitamente juntas. Del mismo modo, ese campo magnético terrestre estaría formado por infinitos neumáticos concéntricos, uno dentro del siguiente, como las muñecas rusas.
Al inyectar en ese campo partículas con carga, por ejemplo electrones, el chorro toma como raíl una C de la sección del neumático. Las partículas inyectadas recorren la C de un extremo al otro y luego de vuelta en sentido contrario, una y otra vez. Cuando las partículas chocan con el extremo de la C, se produce un hermoso espectáculo irisado que ocurre de forma natural cuando el Sol lanza alaridos magnéticos; es la aurora polar. Al mismo tiempo, esos electrones se desplazan lateralmente, saltando de una C a la próxima para recorrer la banda de rodadura del neumático o, en términos terráqueos, siguiendo los paralelos del planeta.
La extrapolación del esquema del imán a la Tierra fue una iluminación de Christofilos. Así, predijo la existencia de colosales neumáticos de fuerza magnética en torno al planeta antes de que su descubridor formal los bautizara con su propio nombre: cinturones de Van Allen. Por entonces, Christofilos tomaba carrerilla hacia el podio del triunfo. Su teoría había sido redescubierta y el mecánico griego especializado en ascensores se había ganado una silla para investigar en uno de los santuarios de la física de altas energías, el Laboratorio de Radiación de Livermore, dependiente de la Universidad de California en Berkeley.
Desde su nueva trinchera de la investigación militar y ultrasecreta, con acceso al saco sin fondo del Departamento de Defensa, Christofilos propuso la idea más audaz y atrevida que otros colegas nunca hubieran osado proponer o, caso de hacerlo, nunca hubieran obtenido el sí. Armado con un discurso cautivador y una brillante tenacidad, en octubre de 1957 el físico autodidacta arrancó al Gobierno de EEUU el compromiso de ensayar sus hipótesis y sus tentadores usos estratégicos en la plataforma más cara y perfecta que un científico podría ambicionar: el planeta Tierra.
La idea de Christofilos era detonar bombas nucleares de hidrógeno a gran altura para inyectar electrones en el campo magnético terrestre. Si su hipótesis funcionaba, esto crearía un cinturón artificial de radiación, el cinturón de la muerte, que se extendería por los neumáticos envolviendo el planeta, y que podría inactivar satélites y comunicaciones del enemigo para devolverlo a la edad de piedra, e incluso pulverizar un misil intercontinental. La Guerra Fría corría hacia su apogeo y una moratoria de los ensayos nucleares parecía inminente, por lo que el Pentágono se apresuró a construir una aparatosa operación en tiempo récord. En abril de 1958 se creó la Task Force 88, una fuerza exclusivamente dedicada a preparar y ejecutar la que se denominó operación Argus. Los datos describen un proyecto descomunal: nueve buques de la armada estadounidense, un satélite –el Explorer 4– lanzado ex profeso para el experimento, una dotación de 4.500 efectivos entre militares y científicos civiles, y un presupuesto de nueve millones de dólares de 1958, cuando una familia media en aquel país ingresaba anualmente unos 5.000 dólares.
El de Christofilos no fue el primer ensayo nuclear exoatmosférico. Entre 1958 y 1962, EEUU y la Unión Soviética condujeron cerca de una veintena de estas detonaciones. Argus, que siguió a la Operación Hardtack, fue el único programa que se mantuvo en secreto. La tercera de las explosiones de Hardtack, llamada Orange, había tenido lugar dos semanas antes de Argus. La bomba se activó a 43 kilómetros sobre la superficie terrestre, una bagatela en comparación con las cifras que se manejaron para Argus. Para que su neumático envolviese todo el planeta, Christofilos necesitaba más altura, aunque no se precisaba una potencia extraordinaria. Las cargas, de 1,7 kilotones –la de Hiroshima fue de unos 15 kilotones– se montaron en las cabezas de misiles modificados X-17A. El barco elegido para los lanzamientos fue el USS Norton Sound, y el lugar se determinó seleccionando un meridiano magnético, de modo que los extremos de la C no tocaran regiones habitadas. Para el extremo norte se escogió un sector del Atlántico entre la Península Ibérica y las islas Azores; el otro cabo de la C, el punto de despegue, caía entonces en el Atlántico sur, a 1.800 kilómetros al suroeste de Ciudad del Cabo.
Una siniestra aurora boreal
El 27 de agosto se lanzó el primer cohete, que estalló a 200 kilómetros de altitud. El segundo, el 30 del mismo mes, trepó hasta 240 kilómetros. La apoteosis llegó con la última explosión, el 6 de septiembre, a 540 kilómetros, la mayor altura jamás alcanzada en un ensayo nuclear. Aquel día, los habitantes de las Azores disfrutaron de una hermosa, aunque siniestra, aurora boreal. La película de la operación, filmada por el Gobierno de EEUU, explica que el desplazamiento de los electrones a lo largo del paralelo terrestre llevaba las partículas al este, hacia la Península Ibérica.
Christofilos pudo verificar algunas de sus teorías, pero no hay pruebas de que el cinturón de la muerte hubiese funcionado. Las explosiones fueron tal vez débiles, lo que limitaba el alcance de la dispersión de electrones. Pero según publicó un año más tarde en varios artículos científicos, los datos de los satélites y de las estaciones de tierra demostraron que sus electrones habían cubierto la Tierra. Ese mismo año, The New York Times descerrajó el secreto del mayor experimento del mundo, y la revista Life presentó a Christofilos como “el griego loco”.
Basándose en las teorías del científico, los ensayos exoatmosféricos prosiguieron hasta 1962. La Operación Dominic escaló las proporciones hasta 1,4 megatones –93 bombas de Hiroshima– a 400 kilómetros de altitud sobre el atolón de Johnston, en el Pacífico; fue el disparo Starfish Prime, el 9 de julio de 1962. Alumbró una aurora boreal de siete minutos, fundió líneas eléctricas y comunicaciones en Hawai, inutilizó siete satélites y creó un cinturón artificial de radiación que duró diez años. Curiosamente, los mismos que tardó en apagarse, de un infarto, la vida del ideólogo de la radiación atrapada en un cinturón mortal. Fue admirado por sus contribuciones a los aceleradores de partículas y a la física del plasma, pero como otros científicos de la Guerra Fría, creyó que era necesario liberar a la serpiente para conjurar el peligro de su mordedura. Dijo en una ocasión: “Antes de explorar otros planetas, debemos asegurarnos de que podremos seguir viviendo en el nuestro”.
Fuente: publico.es, 14 de Marzo de 2008
-Spitzer detecta grandes cantidades de moléculas orgánicas y vapor de agua
El telescopio espacial "Spitzer" de la NASA ha detectado grandes cantidades de gases orgánicos simples y vapor de agua en una zona de formación de planetas, según ha confirmado el Laboratorio de Propulsión a Chorro (JPL) de la agencia espacial norteamericana.
Tanto los gases orgánicos como el vapor de agua giran en forma de disco alrededor de una nueva estrella, lo que constituye una prueba de que esas moléculas se crearon allí, afirma el JPL.
Capacidad reforzada
El laboratorio añade que el descubrimiento ha sido posible gracias a un aumento de la capacidad del telescopio que permite mejorar la visión de las primeras etapas en la formación de los planetas, lo cual podría aumentar el conocimiento sobre el origen de nuestro sistema solar y el potencial de vida en otros.
Esa capacidad fue aumentada por John Carr, científico del Laboratorio Naval de Investigaciones (Washington) y Joan Najita, del Observatorio Nacional Optico, en Tucson (Arizona). Para ello utilizaron el espectrógrafo infrarrojo de "Spitzer" con el que midieron y analizaron la composición química de los gases de discos protoplanetarios.
Esos discos son masas de gas y polvo que giran en torno a una estrella joven y los científicos creen que son el material básico para la formación de planetas y lunas que después de miles de millones de años se convierten en sistemas planetarios como el nuestro.
"Gran parte del material dentro de estos discos es gas, pero hasta ahora había sido difícil estudiar su composición en regiones de formación de planetas. Se había prestado mayor atención a las partículas sólidas porque son más fáciles de observar", dijo Carr.
La zona más 'fértil' para el nacimiento de planetas
El punto de observación fue la zona de la estrella AA Tauri, que tiene menos de un millón de años y es un ejemplo típico de las estrellas jóvenes con discos protoplanetarios. Con su nuevo procedimiento los científicos detectaron moléculas orgánicas simples, como cianuro de hidrógeno, acetileno y dióxido de carbono, además de vapor de agua.
"Hay evidencia de una química orgánica activa dentro del disco que forma y enriquece estas moléculas", señaló Carrr. La capacidad espectróscopica de "Spitzer" también fue aprovechada por otro grupo de científicos que encontraron en dos ocasiones moléculas de agua en discos que rodean a estrellas jóvenes.
"Esta es una de las pocas veces que se ha demostrado de manera directa que existe vapor de agua en la parte interna de un disco protoplanetario, que es la parte más probable para la formación de planetas" similares a la Tierra, dijo Colette Salyk, del Instituto Tecnológico de California y autora principal del estudio.
Fuente: EFE, 14 de Marzo de 2008
-La NASA hace sus primeros ensayos con la cápsula Orión
Todavía queda más de una década para que un ser humano vuelva a pisar la Luna en torno a 2020, según los planes actuales de la NASA. Sin embargo, los preparativos para la primera misión tripulada del llamado Programa Constelación de la agencia espacial estadounidense ya han comenzado.
Así será el viaje hasta la Luna en una fecha cercana al 2020 1) Salida del cohete que transporta la nave de alunizaje junto con la fase de partida 2) Unos días más tarde, los astronautas viajarán al espacio, propulsados por otro cohete, dentro del vehículo de exploración tripulado (CEV). 3) El CEV se acoplará a la otra parte, que estará orbitando alrededor de la Tierra, formada por la nave de alunizaje y la fase de partida. Juntos pondrán rumbo a la Luna, saliendo de la gravedad terrestre. 4) Tras acabar su misión de propulsión, la fase de partida se separa quedando solos el CEV y la nave de alunizaje. 5) Una vez, alcanzada la Luna y orbitar alrededor de ella, los astronautas pasan a la nave de alunizaje. Llegan a la superficie lunar dentro de de esa nave.
6) Tras 7 días de exploración lunar, los astronautas se embarcan en la nave de alunizaje. En el momento del despegue, una de sus partes se separa, dejando la base en la Luna. 7) En el espacio, la nave de alunizaje se acoplará al CEV. 8) Una parte de la CEV se separa, dejando sola la cápsula que contiene a la tripulación en su camino de vuelta hacia la Tierra. 9) Entrada en la atmósfera terrestre (dentro de la cápsula Orión ) y aterrizaje, posiblemente en California
|
|
l
La cápsula Orión tiene un diámetro de 5 metros y una masa de unas 25 toneladas. Contiene un volumen 2,5 veces más grande que la cápsula Apollo. Hará su primer viaje a la Estación Espacial Internacional antes del 2014. Se espera que antes del 2020 viaje hasta la Luna. El vehículo será capaz de transportar carga y una tripulación de unos 6 astronautas. Se ha fabricado usando los mejor tecnología en informática, electrónica, propulsión, protección del calor. Estas mejoras hacen que la cápsula en la que los astronautas volverán a la Tierra, supera a la empleada en los años 60 y 70 cuando se iniciaron los viajes tripulados a la Luna. Esta cápsula debidamente modificada, podría ser utilizada para llevar hombres a Marte. Orión es el nombre de una de las constelaciones más identificables que existen en el cielo. Es visible incluso en los cielos de las ciudades .
|
En el Centro de Investigación Langley de Virginia, se acaba de presentar el primer prototipo de la cápsula 'Orion' en la que viajarán los astronautas al satélite terrestre. A finales de este año, se realizará el primer vuelo de prueba con esta nave, cuyo diseño representa un retorno al modelo del antiguo programa 'Apollo' con el que se logró el primer histórico viaje a la Luna.
El ensayo tan sólo durará unos 90 segundos, y el vehículo no abandonará la atmósfera terrestre, pero su objetivo será comprobar la eficacia de un sistema de evacuación que permitiría a los astronautas abortar una misión en caso de emergencia.
Los técnicos de la NASA consideran que éste será un paso crucial en el desarrollo del proyecto, ya que la prioridad fundamental del nuevo programa es evitar accidentes como los que acabaron con la vida de las tripulaciones de los transbordadores 'Challenger' en 1986 y 'Columbia' en 2003. La cápsula 'Orion', que tendrá forma de cono y medirá cinco metros de ancho, tendrá capacidad para albergar hasta a seis tripulantes en viajes a la Luna y a la Estación Espacial Internacional. En el vuelo de prueba de su prototipo, se simulará una situación de emergencia en la que la cápsula será eyectada para comprobar si el sistema de seguridad funciona y permitiría salvar la vida de los astronautas en una misión real.
"Los vuelos de prueba nos servirán para confirmar si nuestro sistema funciona, o bien ayudarnos a corregir cualquier defecto que detectemos", explica Greg Stover, uno de los técnicos del proyecto. "Nuestro objetivo es que en cada misión tripulada que realicemos, el sistema de evacuación sea totalmente fiable, aunque esperamos no tener que utilizaro jamás".
Más información aquí
Fuente: elmundo.es, BBC, 14 de Marzo de 2008
-La agencia Efe reescribe la ciencia: el dióxido de carbono es contaminante
La agencia Efe publica el siguiente título de noticia y el texto que
le sigue:
Araújo lamenta que España ostente el "triste récord" de ser el
país más contaminante
El naturalista y Premio Nacional de Medio Ambiente Joaquín Araujo ha lamentado
hoy que España cargue con el "triste récord" de ser el país del mundo con
mayores emisiones de dióxido de carbono por habitante durante el año pasado.
Así se ha pronunciado Araujo, en declaraciones a Efe, durante la presentación en
Alcorcón de la exposición "La lucidez de la luz", de la que es comisario, y que
muestra las consecuencias para la continuidad de la vida que está teniendo el
modelo energético actual, al tiempo que recoge las soluciones que ofrecen el
sol, el agua, el viento y los nuevos combustibles.
"Ser el número uno del mundo en algo tan dramático" para el planeta como las
emisiones de CO2" resulta "muy duro", ha asegurado Araujo, tras
señalar el aumento de nuevo de la contaminación en España en 2007.
Para Joaquín Araujo, esto "no quiere decir que no haya conciencia", ni que no
haya una ministra de Medio Ambiente en el país, "que lo está haciendo bastante
bien", sino que falta "sensatez".
En este sentido, el naturalista y Premio Nacional de Medio Ambiente ha afirmado
que "lo más fácil que podemos hacer los individuos aisladamente es gastar menos"
energía cada día.
El empleo de energías limpias en España ha aumentado en un 500 por cien en los
últimos 10 años, pero, mientras continúe aumentando el gasto de energía, "no
salimos del atolladero", ha argumentado Araújo. [Efe]
Así que ya lo saben ustedes: el CO2 es contaminante. Por lo
cual, los árboles y demás plantas, que espiran CO2 porque respiran;
todos los animales, que emiten CO2 porque respiran; y el ser humano
que expulsa CO2 al respirar, todos, todos somos contaminantes. Al
vivir, contaminamos.
Y todos los seres vivos, según estos fanáticos ignorantes, seguiremos siendo
"contaminantes", porque si no expulsáramos el CO2 producto de la
combustión nutricional, nos envenenaríamos. Parece ser que el objetivo último de
los ecoterroristas, disfrazados de "amantes de la vida", es la desaparición de
la vida en el planeta Tierra. Cínicos los que dicen las barbaridades, y lacayos
del terrorismo y la mentira los que lo amplifican mediáticamente.
Fuente: Paz Digital, 13 de Marzo de 2008
Ser joven es algo circunstancial; parecerlo, ha pasado de
ser un arte a convertirse en requisito social. Frentes, labios, comisuras o
pechos desafían el paso del tiempo y la ley de la gravedad, toda vez que
esteticistas, dermatólogos y cirujanos hacen su agosto. |
Alma superficial
Quedan lejos las interioridades y su asombro. Hoy la belleza está en el
exterior, en la superficie, e incluso la ropa interior debe delatar públicamente
su vocación de reclamo. Bien o mal, uno mismo puede optar por aplicarse
cosméticos la mar de llevaderos que reorganizan la capa córnea o superficial de
la piel y estimulan la formación del colágeno (retinoides). De este modo se
logra retrasar el envejecimiento de la propia piel, limando los efectos de
arrugas, irregularidades cutáneas o cicatrices.
¿Y quién dijo que sólo es posible resaltar la belleza que previamente existe? La
que no existe se puede hoy día reinventar. Expertos de la piel disponen de
técnicas y materiales con los que es posible rellenar, relajar, recolocar o
realisar toda suerte de imperfecciones que los genes o el paso del tiempo tengan
a bien obsequiarnos. La reina de semejante mambo es la toxina botulínica (botox),
que relaja los músculos de cuya contracción derivan las antiestéticas arrugas,
proporcionando una tersura propia de la porcelana.
Las aplicaciones de peeling químicas pincelan la piel con sustancias químicas
que, según su composición, recomponen la estructura dérmica. Los productos de
actuación más superficial, como los a-hidroxiácidos, actúan de modo similar a
las cremas cosméticas; en cambio, otros productos más rotundos, como los
fenoles, permiten resultados que se acercan a los conseguidos mediante técnicas
quirúrgicas de estiramiento.
El arsenal rejuvenecedor dispone también de inyecciones intradérmicas de
factores de crecimiento obtenidos a partir de sangre del propio paciente y que,
al ser reinfundidos, mejoran la luminosidad y calidad de la piel.
La moda, sin embargo, toma partido por métodos más sofisticados y de resultados
más reproducibles, como los láseres fraccionales, que en vez de actuar sobre
toda la superficie de la piel lo hacen en miles y miles de pequeñas áreas donde
destruyen la epidermis y predisponen el colágeno que hay debajo para edificar
columnas de piel totalmente nueva. Se necesitan de tres a cuatro sesiones para
obtener un resultado aceptable, aunque la recuperación en estas intervenciones
es siempre muy rápida y el paciente puede reincorporarse a la vida normal en
menos de 24 horas. ¿Inconvenientes? Pensárselo demasiado. Los resultados no son
tan buenos cuando el paciente decide intervenirse más allá de los 60 años.
Puede que el listón del rejuvenecimiento (o embellecimiento) quede muy alto y
sea necesaria una intervención de mayor calado. La dermatología está por la
labor y dispone de tratamientos que renuevan la piel en espesores y áreas mucho
más profusas, pero que resultan más caras, complejas y requieren tiempos de
recuperación mayores (más de una semana). Los más típicos son los láseres
continuos o escaneados ablativos, como el láser de erbio o el de CO2: eliminan
la piel vieja en profundidad y la nueva aparece de forma más uniforme, con menos
arrugas y menos manchas. Además, sus resultados son más duraderos que los de la
intervención superficial, pudiendo hablar incluso de años sin sufrir la más
mínima alteración.
Cuando en lugar de renovar se pretende reafirmar la piel, los cirujanos se
sirven de hilos tensores, que, introducidos por debajo de la dermis, actúan a
modo de un vector vertical de tensión para contrarrestar la inevitable fuerza
con que la gravedad hace flácidas nuestras texturas. La intervención es más
complicada y la mejoría conseguible, más lenta.
El peeling químico con fenol es el arma secreta de tan eficaz armamentario;
infalible con arrugas y cicatrices de más de diez años de duración. El
postoperatorio, no obstante, se alarga a varias semanas y la piel nueva pierde
color.
Jorge Soto de Delás, miembro de la Academia Española de Dermatología y
Venereología, reconoce que la tendencia actual se encamina a la combinación de
diferentes procedimientos complementarios. “Por ejemplo, toxina botulínica,
rellenos diversos y láseres raccionales; cócteles anti-ageing que persiguen un
efecto exclusivamente cosmético.”
Sangre, sudor y botox
El botox es una toxina generada por el metabolismo de una bacteria (Clostridium
botulinum), que tiene un efecto paralizante muscular. Esta toxina, que en el
pasado daba lugar a una enfermedad (hoy muy rara) conocida como botulismo,
paralizaba en seco a quienes ingerían conservas en mal estado. Pero los
manufacturadores del botox actual se afañan a subrayar que sus productos han
sido purificados y que no revisten ninguna toxicidad para el paciente.
Empezaron las famosas y los famosos, pero hoy la toxina botulínica se ha
democratizado y ha democratizado también las opciones de rejuvenecimiento
facial. Es la forma más fácil de quitarse años sin pasar por el quirófano,
obteniendo una piel lisa y una significativa atenuación de las arrugas,
principalmente en la mitad superior del rostro. Se suele aplicar principalmente
en la frente, entrecejo, contorno de ojos y surcos nasales o comisuras de los
labios. Su rapidez de aplicación y su eficacia han convertido al botox en la
aplicación cosmética no quirúrgica más empleada en el mundo.
Con intención algo más terapéutica, el botox también se aplica para reducir la
sudoración excesiva en la hiperhidrosis, inyectando la toxina en axilas, palmas
de las manos y planta de los pies, bloqueando las fibras parasimpáticas que
contienen las glándulas sudoríparas y paralizando de forma reversible su
función. El tratamiento tiene una vigencia aproximada de medio año.
Fuente: Blog Política científica, 11 de Marzo de 2008
-La nave espacial "Endeavour" parte hacia la Estación Espacial Internacional
El transbordador 'Endeavour' viaja ya rumbo a la Estación Espacial Internacional (ISS) donde realizará una misión de 16 días. El transbordador partió hacia el complejo en órbita a las 02.28 locales (7:28, hora peninsular española) para instalar el primero de tres segmentos del laboratorio científico japonés 'Kibo' y un sistema robótico canadiense llamado 'Dextre'. El encendido de los motores del transbordador en la plataforma 39A iluminó la noche del Centro Espacial Kennedy en Cabo Cañaveral (Florida) tal y como estaba previsto. "El Endeavour ha partido para encontrarse con la Estación Espacial en un día y medio", dijo el control el Centro Espacial Johnson de la NASA en Houston (Texas) en el comienzo de la misión de 16 días que incluye la cifra sin precedente de cinco caminatas espaciales.
Momento del despegue
Para la NASA, la misión STS-123 que lleva entre sus siete tripulantes a un astronauta japonés será una de las más activas en la historia de los transbordadores. Además de ser de 16 días, el programa de actividades incluye por primera vez cinco caminatas espaciales, además del comienzo de una serie de experimentos científicos. El laboratorio 'Kibo' (Esperanza), que es la mayor contribución japonesa a la ISS, será instalado junto al módulo 'Harmony' de la estación. Junto al laboratorio europeo 'Columbus', instalado a mediados del mes pasado por la tripulación del 'Atlantis', "Kibo aumentará la capacidad de investigación científica en varias disciplinas, señaló la NASA. 'Dextre', que operará con el brazo robótico canadiense 'Canada arm2', se utilizará en tareas de mantenimiento y servicio. Para su instalación se necesitarán al menos tres actividades extravehiculares (EVA) o caminatas espaciales, dijo la NASA.
El sistema tiene la capacidad de detectar las fuerzas y el movimiento de los objetos que manipula y de contrarrestarlas. Una vez instalado el sistema tendrá la apariencia de un torso humano con dos brazos que podrán realizar tareas delicadas y utilizar herramientas. Sus cuatro cámaras proporcionarán a los ocupantes de la estación espacial un panorama completo de sus actividades. El vuelo del 'Endeavour' estará a cargo del comandante Dominic Gorie, quien tendrá como piloto al astronauta Gregory Johnson.
Gorie, uno de los más experimentados en el cuerpo de astronautas estadounidense, fue piloto de la misión STS-91 en 1998 y de la STS-99 en 2000, además de comandante de STS-108 en 2001. En su cuarta misión, ha estado ya más de 32 días en el espacio. Los otros tripulantes son los especialistas Rick Linnehan, Robert L. Behnken, Mike Foreman, Garrett Reisman y el astronauta japonés Takao Doi. Reisman permanecerá a bordo del complejo que orbita la Tierra a casi 400 kilómetros de altura en sustitución del astronauta Léopold Eyharts, quien regresará a la Tierra en el 'Endeavour'. Los actuales ocupantes de la ISS, además de Eyharts, son la comandante Peggy Whitson y el cosmonauta ruso Yuri Malenchenko. El retorno del 'Endeavour' tras su misión de 16 días está previsto para el 26 de marzo a las 20.35 hora local (1.35 hora peninsular española).
Fuente: elmundo.es, 11 de Marzo de 2008
-Hallan nuevos esqueletos de homínidos enanos
Unos pequeños esqueletos hallados en las cuevas de la isla de Palau, en el Pacífico, han socavado la teoría de que restos similares encontrados en Indonesia -los llamados hombres de Flores- podrían ser una nueva especie de humanos.
Los esqueletos de Palau, que datan de hace entre 900 y 2.800 años, parecen haber pertenecido a los así llamados enanos insulares, es decir, humanos que crecían menos como consecuencia de vivir en una isla.
Los responsables del nuevo hallazgo, cuyos detalles aparecen en 'Public Library of Science', muestran que es posible que lo mismo ocurriera en la isla indonesia de Flores, donde pequeños esqueletos que databan de hace entre 15.000 y 18.000 años han intrigado a los científicos desde que fueron descubiertos en 2004.
Restos de los cráneos de los pequeños homínidos de Palau
Reproducción del Hombre de Flores
Lee Berger, de la Universidad de Witwatersrand en Johannesburgo, y su equipo afirman que no pueden explicar los esqueletos de Flores, pero que han encontrado algunos restos similares en Palau, una de las islas de Micronesia. "Estas islas rocosas contienen numerosas cuevas y refugios, y muchos sitios contienen abundantes restos humanos fosilizados", indican los autores del estudio.
"Al menos hemos descubierto 10 lugares de enterramiento en las islas rocosas, y en una de ellas han aparecido los esqueletos de al menos 25 individuos", añaden.
Como los esqueletos de Flores, los de Palau eran también muy pequeños, con diminutas cabezas sobre cuerpos que podrían considerarse primitivos.
De hecho, eran incluso más pequeños que los pigmeos, según los científicos. Un hombre adulto pesaba alrededor de 43 kilogramos y una mujer, 29 kilogramos.
Uno de los arqueólogos que participó en el descubrimiento en Indonesia del Homo Floresiensis u Hombre de Flores ha defendido la teoría de que se trata de una nueva especie humana. Después del hallazgo de 25 esqueletos de características similares en la isla de Palau, en el océano Pacífico, el profesor Bert Roberts de la Universidad de Wollongong ha señalado que sufrían de enanismo y, por lo tanto, no pertenecen a la misma especie que los descubiertos en la isla de Flores. Roberts ha hecho estas declaraciones tras la publicación de un artículo sobre el hallazgo de los esqueletos de unos seres diminutos parecidos al hombre de Flores que vivieron en Palau hace entre 900 y 2.900 años.
Los autores de la investigación, dirigida por Lee Berger de la Universidad de Witwatersrand, en Johannesburgo (Sudáfrica), defienden que tanto los hombres de Palau como los de Flores sufrieron "enanismo insular" a causa de la falta de una alimentación completa.
Parecidos y diferencias
En la isla de Flores, los científicos encontraron hace cuatro años un esqueleto de una forma humana desconocida hasta entonces, de menos de un metro de altura, que habría vivido hace unos 18.000 años. Los autores del nuevo estudio indicaron que los esqueletos de Palau tienen características comunes con los enanos de Flores, como sus pequeños cerebros y la falta de barbilla. Roberts ha apuntado, sin embargo, que los hombres de Palau pesaban unos 43,2 kilos y las mujeres unos 28,7, algo más que los de la especie Homo Floresiensis, cuyos varones adultos llegaban a pesar un máximo de 30 kilos. El profesor australiano ha destacado que los seres humanos de Flores "tenían dientes distintos a los nuestros, sus mandíbulas eran diferentes, sus cerebros no medían ni un cuarto de los nuestros, y eso no ocurre con los pigmeos de Palau".
Fuente: elmundo.es, adn.es, 11 de Marzo de 2008
-Cambio climático: la desaparición del Ártico, la muerte de focas y el temporal en Europa
Las crías de foca anillada están muriendo en masa |
El temporal ha dejado esta estampa en Francia. |
Desaparición del Ártico en el 2015
El océano Ártico podría quedar libre de hielo en los meses de verano a partir de 2015 ó 2020 a causa, entre otros motivos, de la aceleración del cambio climático y ello supone reducir en cerca de 80 años las previsiones iniciales de la comunidad científica, según el oceanógrafo español Carlos Duarte.
"En tan sólo tres años, los investigadores han pasado de predecir esta reducción del hielo del Ártico del 2100 al 2040, y ahora ya se habla del 2020 ó 2015", afirmó Duarte en una rueda de prensa.
Doctor en Ciencias Biológicas, investigador del Instituto Mediterráneo de Estudios Avanzados y ex presidente del Comité Español de Geosphere and Biosphere, Duarte advirtió de la aceleración progresiva de la pérdida de hielo en el Ártico, después de haber dirigido en 2007 una expedición científica a la región.
Antes de 2005, explicó, "parecía que el deshielo era un proceso paulatino, por lo que se calculaba la desaparición de la cubierta de hielo en verano para 2100", pero en 2005, añadió, "se produjo una pérdida muy importante", lo que aceleró esta previsión a 2040.
20 kilómetros al día
Sin embargo, en verano de 2007 se produjo "el deshielo más abrupto" del Ártico, ya que, según sus cálculos, "se fundieron unos 20 kilómetros de extensión de hielo al día".
Preguntado sobre las causas de este fenómeno, Duarte dijo que la comunidad científica no ha podido aún concretar las causas de este deshielo, si bien ha apuntó varias hipótesis. Una de ellas hace referencia al aumento de la temperatura en la atmósfera, que en 2007 registró "la mayor magnitud térmica" al situarse en unos 20 grados, el doble que el registro medio de los últimos años. Además, indicó como posible causa la alteración de la temperatura en la circulación oceánica en el Ártico, "pues es un océano muy vulnerable al cambio climático", y el aumento del flujo del agua cálida entre los océanos Atlántico y Ártico.
No obstante, afirmó que si bien este proceso "no tiene efectos importantes en el nivel del mar", sí que afecta a su biodiversidad, especialmente a especies de animales en peligro de extinción, como el oso polar y las morsas, así como al plancton.
Contaminación
Duarte precisó que el hielo del Ártico contiene una elevada cantidad de contaminantes, por lo que cuando se deshace entra a formar parte de la cadena trófica y repercute tanto a personas como animales; los esquimales tienen, así, un nivel de contaminantes en sangre muy superior al de cualquier otra sociedad. El oceanógrafo destacó que bajo el hielo del Ártico se localiza, aproximadamente, "el 25 por ciento de las reservas mundiales de recursos petrolíferos y gaseosos aún por descubrir".
También destacó que la desaparición de las placas de hielo facilitará un aumento de las explotaciones de estos recursos, lo que podría provocar una "fiebre del oro" y desencadenar conflictos.
Muerte de focas en el Báltico
La reducción de la capa del hielo en el Mar Báltico está provocando la muerte masiva de crías de foca anillada, obligadas a entrar demasiado pronto al agua debido al cambio climático.
"La situación es dramática. En algunas regiones no sobrevivirá seguramente ni una sola de las crías nacidas en las últimas semanas", ha afirmado Cathrin Münster, portavoz de la oficina de la organización ecologista WWF en Stralsund, en la costa báltica alemana.
La nota emitida hoy por WWF subraya que "la muerte de focas es un siniestro anuncio del cambio climático, que afectará de manera especialmente dura al mar Báltico", donde este año se ha registrado el invierno más cálido de los últimos 300 años.
Deshielo demasiado rápido
WWF añade que tan sólo quedan entre 7.000 y 10.000 focas anilladas (Pusa Híspida, antes Phoca Híspida), una especie protegida y en peligro de extinción, que cría a sus bebés en cuevas de nieve y hielo, tras los nacimientos que se producen entre febrero y marzo.
"Como el deshielo se produce demasiado rápido, las crías se ven abocadas a entrar en el agua prematuramente, cuando no han engordado lo suficiente como para tener una gruesa capa de grasa que las proteja. Por ello mueren de hambre y frío", subraya el mensaje de alerta.
La muerte masiva de crías de foca anillada se está produciendo sobre todo en la costa suroccidental de Finlandia, en el Golfo de Finlandia y el Golfo de Riga, donde este año no se ha producido una congelación suficiente del mar. Los expertos de WWF también están registrando una insuficiente capa de hielo en el norte del Báltico, en el golfo que separa Suecia de Finlandia.
Temporal en Europa
Francia, Gran Bretaña y el Norte de España están sufriendo el azote de un temporal. Vientos por encima de los 100 kilómetros por hora y olas de más de 7 metros azotan con dureza la costa atlántica norte de Europa. En Galicia la alerta roja ha dejado en los puertos a los barcos pesqueros. Son numerosos los vuelos suspendidos y las conexiones por mar que han tenido que ser canceladas entre el sur de Gran Bretaña y el Norte de Francia. También el temporal ha hecho que se cerraran autopistas. También se han producido cortes de luz en algunas poblaciones de Inglaterra.
El carguero "Artemis" quedó encallado en una playa francesa y un petrolero sueco tiene serias dificultades en la costa de la Isla de Wight.. Se esperan inundaciones en el sur de Inglaterra por la subida del nivel del mar.
Fuente: adn.es, lavozdegalicia.es, Efe, 10 de Marzo de 2008
-El chip que imita al cerebro humano
Ocurre en las fronteras de las galaxias y también en las células de nuestro cerebro: un único estímulo pone en marcha, de forma simultánea, distintos procesos. Por eso distinguimos de un solo vistazo el color y la forma de un objeto, y por eso las galaxias se mueven de formas caprichosas y, a veces, incomprensibles.
Inspirados en estos sistemas naturales, dos científicos de la India acaban de presentar, por primera vez, un nuevo chip capaz de procesar 16 instrucciones al tiempo. Aunque, por el momento, sólo lo hace a nivel microscópico, mediante un sencillo conglomerado de moléculas, sus creadores están convencidos de que el método podrá usarse en el futuro para construir ordenadores mucho más 'inteligentes' que los actuales. Tal y como señala la revista 'Proceedings of the National Academy of Sciences', que ha publicado el hallazgo, éste podría "mantener viva la Ley de Moore", la cual postula que cada dos años se duplica la potencia de los chips y cuyo colapso algunos ven cercano.
Recreación artística de un cerebro artificial procesando en paralelo |
Los chips corrientes se componen de un circuito linear que recibe una corriente eléctrica y pone en marcha distintas operaciones lógicas. El que se acaba de presentar está basado en la estructura en forma de estrella de las moléculas de duroquinona (DRQ), un compuesto químico en cuyos extremos hay cuatro cadenas que pueden rotar para representar cuatro estados lógicos diferentes. En comparación, un chip normal de transistores sólo puede producir dos estados lógicos (o hay corriente o no la hay). Los científicos Anirban Bandyopadhyay y Somobrata Acharya, del Centro Internacional para Jóvenes Científicos de Tsukuba, Japón, han construido el nuevo nanochip con moléculas de DRQ distribuidas radialmente: la primerase sitúa en el centro de un anillo, formado por otras 16 moléculas, y se comunica de forma simultánea con todas ellas, a las que está conectada mediante enlaces de hidrógeno. Las instrucciones se envían mediante un microscopio de efecto túnel, capaz de actuar a escalas atómicas; lo asombroso de esta estructura es que un solo estímulo puede cambiar la disposición de las moléculas de 4.000 millones de formas distintas (o cuatro elevado a 16). Esta comunicación en paralelo representa un avance significativo respecto a los procesadores más poderosos de hoy en día, que sólo ejecutan una instrucción cada vez", señalan los investigadores. De este modo, si un microchip normal procesa una operación a la vez (1 bit), el nuevo sistema representa el "primer chip procesador auténtico de 16 bits", según asegura Bandyopadhyay a elmundo.es. En realidad, esta forma de comunicación radial es "un simple y clásico método que la naturaleza ejecuta en una gran cantidad de casos", indica Bandyopadhyay. Dos ejemplos son el movimiento de la materia oscura, que "genera aspectos básicos de la arquitectura del universo", y el envío de señales entre células cerebrales, "que permiten la creatividad y la inteligencia". De forma análoga, la molécula central del nanochip "se comunica con las otras 16 al tiempo para crear la estructura de una poderosa máquina lógica".
|
Fuente: elmundo.es, 10 de Marzo de 2008
-La conquista del mar en Gran Canaria
Canarias dispone de un vehículo sumergible capaz de medir la temperatura, la salinidad, la clorofila y hasta la concentración de oxígeno en le océano. En este artículo del Canarias 7 se puede leer como El Instituto de Ciencias Marinas de Gran Canaria realiza sus estudios oceanográficos ayudados por un pequeño submarino automatizado equipado con distintos tipos de sensores.
Fuente: Canarias 7, 9 de Marzo de 2008
Este aparato, cuya misión es abastecer a la Estación Espacial Internacional (EEI), salió al espacio desde la base de lanzamiento de Kourou, en la Guayana Francesa. La salida del VAT -bautizado como Julio Verne- se concretó a las O4:03 GMT propulsado por el cohete Ariane 5. El acoplamiento con la EEI no ocurrirá hasta principios de abril. El VAT, vehículo no tripulado, podrá transportar hasta 7,5 toneladas de carga y durante seis meses acometerá funciones como acopiar los desechos que la EEI vaya acumulando.
Nave Julio Verne acoplándose a la Estación Espacial Internacional
"Fundamental"
En declaraciones a la BBC Alan Thirkettle, director de programas de la ESA, describió al Julio Verne como "una fusión entre un satélite y una nave espacial". En sus palabras, el vehículo "es una nave muy complicada. La industria europea ha tenido la oportunidad de desarrollar nuevas tecnologías y nuevas técnicas como resultado de la creación" del aparato. Entretanto, citado por la agencia de noticias EFE el representante de la ESA en España, Vicente Gómez, aseguró que ésta es una de las misiones más importantes de la historia para la agencia europea.
Según dijo, el Julio Verne será "fundamental" para el mantenimiento y el funcionamiento de la Estación Espacial. Entre los planes de la ESA está seguir desarrollando el VAT para que en el futuro pueda usarse como vehículo de retorno de astronautas desde la EEI.
Fuente: BBCMUNDO, 9 de Marzo de 2008
-Hallan los restos de un lago habitable en Marte
Científicos de la Universidad de Arizona han identificado un cráter en Marte con "aparentes" huellas de haber sido un plácido lago que, en su momento, hubiera sido habitable.
El cráter Holden, con una base de grandes rocas 'breccia', aparece rodeado interiormente por anillos compuestos por capas de sedimentos que forman las orillas "de lo que aparentemente fue un longevo y calmado lago en el Marte primitivo", según han divulgado los científicos.
Terreno arcilloso en Nilli Fossae
El grupo de investigadores pertenece al Experimento Científico de Imágenes en Alta Resolución, HiRISE (por sus siglas en inglés), del departamento de Ciencias Planetarias de Universidad de Arizona. Las rocas que los geólogos denominan 'breccia' ya indican presencia de agua: son aglomeraciones de fragmentos más pequeños cimentadas por minerales disueltos.
"El cráter Holden tiene uno de los 'megabreccia' mejor expuestos de Marte", dijo el investigador principal del HiRISE, profesor Alfred McEwen.
El 'megabreccia' y los sedimentos, principalmente de arcilla, "contienen minerales que se forman en presencia de agua y marcan ambientes potencialmente habitables. Este lugar sería excelente para enviar un vehículo robot y traer de regreso una muestra; supondría un gran avance en la comprensión de si Marte puede soportar vida", dijo Holden.
Según los expertos en Marte, bloques de piedra de hasta 50 metros de diámetro salieron despedidos cuando un meteorito formó el cráter, rocas que más tarde, aparentemente por el agua, formaron el 'megabreccia'.
Al menos el 5% del peso de los sedimentos encima del 'megabreccia' está formado por arcillas, según los investigadores, que usaron el espectómetro compacto de imágenes marcianas del la Nave Mars Reconnaissance Orbiter.
"El origen de estas arcillas es incierto -afirma otro investigador, John Grant, del Museo Nacional Smithsonian del Aire y el Espacio-, pero si estuviéramos viendo imágenes de la Tierra y buscáramos lugares propicios para ser habitados, miraríamos a sitios como ese".
Según el estudio de la Universidad de Arizona, los 'megabreccia' y las arcillas no son las únicas pruebas de que hubo un lago: encima de ambas hay una capa de guijarros o ripio, depositados cuando el agua, en torrentes, erosionó la zona.
Todo ello, según el estudio de la Universidad, hubiera quedado oculto si no fuera porque las paredes del cráter se desmoronaron, incapaces de soportar la presión del agua, en un volumen calculado en 4.000 kilómetros cúbicos.
"El volumen de agua que fluyó durante esa riada tuvo que ser espectacular -afirma Granta-, pues fue capaz de mover bloques de piedra del tamaño de un campo de fútbol a más de 70 u 80 metros de distancia".
El cráter Holden en uno de los seis candidatos que quedan para recibir el Laboratorio Científico Marciano, una misión autómata de la Nasa prevista para el año que viene.
Fuente: elmundo.es, 7 de Marzo de 2008
-Un robot nunca sustituirá a un cirujano
El pasado mes de noviembre, un equipo de cirujanos del Hospital Clínic de Barcelona extirpaba por primera vez una vesícula a través de un orificio natural, la boca.
El médico que dirigió la intervención, Antonio María de Lacy (Palma de Mallorca, 1957), es uno de los mayores expertos de España en laparoscopia, la técnica quirúrgica que revolucionó hace ya 20 años la medicina al reducir al mínimo la incisión necesaria para operar.
El Servicio de Cirugía Gastrointestinal que dirige realiza la mayoría de sus operaciones con este procedimiento. Entre ellas, la cirugía de la obesidad, que se hace en tan sólo 45 minutos.
¿Cuándo se empezó a interesar por la cirugía laparoscópica?
A finales de 1990, fui al California Medical Center de San Francisco (EEUU) a desarrollar un programa de hipertensión y trasplante hepático. Como estaba allí solo, pasaba muchas horas en el hospital y empecé a ayudar a un cirujano especialista en laparoscopia.
Entonces supe que ésta tenía futuro. Cuando volví al Clínic hablé con mi jefe y le dije que quería poner en marcha un programa de laparoscopia en el hospital. Empecé realizando extracciones de vesícula y, poco a poco, fuimos aumentando las cirugías mínimamente invasivas.
¿Cuáles son las principales ventajas de esta técnica para el paciente?
La cirugía que se hace por laparoscopia es la misma que se hace de forma convencional pero con un menor traumatismo, con más meticulosidad, con menos pérdida de sangre y con menos infecciones. En algunos casos de cáncer se obtienen mejores resultados con laparoscopia.
Pero hay que tener en cuenta algo: nosotros, los cirujanos, para curar una dolencia oncológica, lo que hacemos es provocar una agresión quirúrgica muy grave. Por fortuna, gracias a la anestesia y a otros avances, el paciente soporta este trauma.
La parte más importante de dicho trauma está en la apertura del abdomen para llegar al sitio donde queremos llegar. Y eso ha cambiado con la laparoscopia. Recuerdo que cuando yo empecé se decía que “gran cirujano, gran incisión”. ¡Vaya estupidez!
¿Para qué indicaciones está generalizado el uso de laparoscopia?
En España se hace así cerca del 90% de la cirugía de vesícula biliar. Me atrevería a decir que se usa también en el 50% de la de reflujo gastroesofágico y el mismo porcentaje para las operaciones de obesidad. Hace un par de años, no se hacía más del 20% de esta cirugía por laparoscopia, lo que demuestra lo que influye la exigencia del público.
Si la laparoscopia ha tenido la historia que ha tenido es porque la gente la solicita. En otras patologías ya es menos frecuente; me temo que el cáncer de colon sólo opera así en el 10% de los casos, y en el de estómago, en menos del 5%.
¿Qué porcentaje del éxito de la laparoscopia se puede atribuir a la tecnología?
Yo diría que un 50%. Por ejemplo, la tecnología ha tenido mucha importancia en la creación de un robot que aún no se utiliza mucho, el Da Vinci. Pero también es evidente que, por ahora, el cirujano tiene mucho que decir.
Precisamente, por la aparición del Da Vinci y otras novedades tecnológicas, hay quien pronostica la desaparición del cirujano ¿qué opina?
Creo que es una tontería. Muchas veces se cometen errores de este tipo cuando no se tiene información o se desconocen las cosas, como el hecho de que la palabra robot deriva de una palabra checa que significa esclavo. Este tipo de avances en realidad no son robots porque no tienen inteligencia artificial, lo que son es manipuladores.
Tú mueves la mano y él te la mueve y puede mejorar dicho movimiento porque se evita el temblor. La robótica como ciencia que pueda sustituir a cirujano no va a llegar por ahora en medicina.
Un estudio del año 2004 decía que sólo la cuarta parte de los cirujanos españoles había practicado laparoscopias avanzadas. ¿Cómo valora este dato?
Yo creo que el porcentaje ahora debe de ser superior, aunque tampoco mucho. De todas formas, hay muchas diferencias entre hospitales españoles. Por ejemplo, nosotros hacemos por laparoscopia el 100% de la cirugía de colon y recto, una de las más complicadas por esta técnica y de la que en España sólo se hace el 10%.
En nuestra cifra influye que estamos en un medio que nos facilita la tecnología, en el que cualquier novedad con una base científica se va a estimular. Esto no ocurre en otros hospitales.
¿Cree que el mayor coste económico es el responsable de que en otros hospitales se use poco la laparoscopia?
La limitación principal es que el cirujano no esté entrenado. El tema económico influye pero yo soy de la opinión de que si buscas es cuando encuentras. No vale siempre echarle la culpa al gerente del hospital. Nosotros hemos hecho de todo para conseguir maquinitas.
¿Cómo ve el futuro de la cirugía laparoscópica?
Soy optimista. Creo que las nuevas generaciones de cirujanos, con contadas excepciones, están a favor de la tecnología. Además, tengo confianza en el hecho de que haya muchas más mujeres dentro de la medicina.
De hecho, creo que los cargos de responsabilidad deberían ser paritarios, porque la cirugía es una especialidad todavía machista, hay muy pocos países donde el responsable máximo sea una mujer.
Usted es uno de los mayores expertos en cirugía de la obesidad ¿por qué cree que se destacan tanto en prensa las muertes en estas operaciones?
La gente aún no ha asumido que la obesidad es una enfermedad.
No se puede equiparar con una operación estética. Yo siempre que opero le digo
al paciente: “¿sabe usted que se puede morir?” Por otra parte, y respecto a las
denuncias, yo pienso que en este país los medios no son del todo respetuosos con
los médicos; por ejemplo, de un delincuente muchas veces no se pone el nombre,
sino iniciales, y con los médicos... Hace poco hubo una avalancha de noticias
sobre un cirujano al que se
insultó, ¡y era uno de los pioneros de la cirugía de la obesidad!
Entonces ¿qué hay que plantearse a la hora de operarse de obesidad?
La cirugía está indicada para pacientes con un índice de masa corporal superior a 40 o bien por encima de 35 con dos complicaciones importantes. Esto es lo primero que hay que preguntarse, si está indicada.
Después, hay que pensar dónde se va a hacer. Yo recomendaría elegir un centro de excelencia A o B. Los primeros han operado a más de 120 pacientes en el último año y los segundos, a la mitad.
En general, es importante que te opere un cirujano especializado y que todo el equipo también lo esté, desde las enfermeras al anestesiólogo.
Personalmente, me atrevería a decir que no se debe hacer cirugía de la obesidad, ni siquiera el balón intragástrico, en centros donde se hacen todo tipo de operaciones estéticas, desde poner Botox a disimular varices.
¿Habría que huir, entonces, de las clínicas privadas?
En absoluto. Yo soy también director del Instituto Quirúrgico Quirón y hago la misma cirugía allí que en el Hospital Clínic. La clave está en acudir a buenos centros especializados con buenos cirujanos.
Fuente: publico.es, 7 de Marzo de 2008
-Leer la mente escaneando un cerebro
Un equipo de investigadores de la Universidad Berkeley de California (Estados Unidos) afirma que, algún día, será posible que veamos lo que otras personas están viendo a través de un dispositivo que descodifique sus señales cerebrales y las transforme en una imagen real.
"Los resultados de nuestras investigaciones sugieren que, dentro de poco, puede ser posible reconstruir la imagen de la experiencia visual de una persona simplemente a partir de medidas de su actividad cerebral", escriben Jack Gallant y sus compañeros en un artículo publicado esta semana en la revista Nature.
"Imagina un dispositivo que 'lea' el cerebro y que pueda reconstruir la experiencia visual de una persona en cualquier momento y que también pudiera incluso acceder a contenidos visuales de fenómenos como los sueños o las visualizaciones guiadas".
Averiguar lo que alguien está viendo
El equipo de Gallant no ha conseguido llegar tan lejos pero sí ha utilizado un tipo de formación de imágenes en tiempo real, llamada resonancia magnética funcional (fMRI, en sus siglas en inglés), para predecir qué fotografía estaba mirando un voluntario en un determinado momento. En la primera fase de la investigación, han probado su experimento con dos miembros que miraban 1.750 fotografías mientras eran sus cerebros se escaneaban a través de la fMRI. "Las imágenes incluían animales, edificios, comida, personas, escenas cotidianas, objetos y texturas", cuentan en el artículo.
En la segunda fase, los dos investigadores observaban 120 nuevas imágenes mientras el aparato de fMRI estaba en funcionamiento. El resto del equipo intentaba entonces averiguar qué fotografía había estado mirando cada unos de ellos. Los investigadores obtuvieron una respuesta correcta en un 92% de los casos con uno de los miembros y en un 72% con el otro. Cuando trabajaron con una serie de 1.000 imágenes, la proporción sólo cayó ligeramente, según el equipo de investigación.
Queda mucho, pero es posible
Los científicos han reconocido que todavía queda mucho para que se pueda llegar a saber lo que una persona está mirando o para ser capaz de observar la actividad cerebral y reconstruir después lo que alguien está viendo pero aseguran que su experimento demuestra que esto es, en principio, posible.
"La identificación de imágenes originales y novedosas nos pone más cerca de conseguir un descodificador visual general", apuntan en el artículo. "La última fase pasa por el desarrollo de un método para reconstruir la imagen vista por el observador, en lugar de seleccionar la imagen de una serie ya conocida".
Fuente: adn.es, 6 de Marzo de 2008
-"Que la evolución sea ciega pone nerviosa a mucha gente"
Hace casi 150 años, el 1 de julio de 1858, se presentaron en la Sociedad Lineana de Londres los trabajos independientes de Charles Darwin y Alfred Wallace sobre la evolución de la vida en la Tierra. A finales del año siguiente Darwin publicó su monumental El origen de las especies, a los 50 años. A punto de comenzar la gran conmemoración mundial de estas redondas cifras -el Año de Darwin-, y cuando resurgen con brío las teorías creacionistas y la ciencia se siente de nuevo atacada, habló en Bilbao Peter Bowler, historiador británico, invitado por la Fundación BBVA y CIC-Biogune.
Pregunta. ¿Por qué debemos de recordar a Darwin y Wallace?
Respuesta. La evolución es una de las teorías científicas más importantes que se han propuesto nunca, que afecta como ninguna otra a nuestra percepción de lo que somos, de dónde venimos, cómo encajamos en el universo. Afecta a la religión, la psicología, la sociología, casi todo lo que se vea desde una perspectiva evolutiva, en especial de la evolución por selección natural, que es, con mucho, la explicación más materialista de la evolución. Se propusieron otras explicaciones de la evolución como un agente con propósito y dirección, una especie de escalera por la que se van subiendo escalones hasta llegar al ser humano como objetivo final. Ese tipo de teoría de la evolución no es tan incómoda para los puntos de vista convencionales, aunque sigue molestando, porque descendemos de todas formas de los monos, pero si tiene como objetivo producirnos a nosotros, es parecido a la visión convencional de que Dios nos crea.
P. ¿Pero y ahora?
R. La evolución, tal como la conocemos ahora por las evidencias científicas, no permite pensar en una escalera, sino en un árbol de la vida. Trastorna todo el concepto de lo que somos.
P. ¿Cómo lo hace?
R. Si hay un objetivo para nuestra existencia es un objetivo que nos tenemos que buscar nosotros mismos, no existe un agente externo, sea Dios o la naturaleza, que nos lo fije. Tenemos que vivir con la conciencia de eso. Y por eso a ciertas personas no les gusta. No pueden aceptar que la evolución no tiene un objetivo.
P. ¿Se debe a la religión?
R. No necesariamente. Gente que no es convencionalmente religiosa tiene muchas ideas equivocadas. Leen libros populares, en los que se empieza por las amebas, luego los peces, siguen los reptiles y los mamíferos y nosotros estamos en la cúspide. Ésa no es la forma adecuada de comprender la evolución. La gente se pone nerviosa, no es por el sentimiento religioso, es algo más fundamental, no soportan que la evolución sea ciega y que nosotros seamos un subproducto no buscado.
P. ¿Se aceptó pronto la teoría de la evolución?
R. Hasta cien años después de haberse convertido en la teoría dominante mucha gente, e incluso muchos científicos, se resistían a aceptar sus implicaciones completas. Aceptaban la evolución, pero no la selección natural. Fue la síntesis con la genética en los años cincuenta del siglo XX la que proporcionó la confirmación de este mecanismo. Esto se debe en parte a que los científicos se han vuelto más materialistas que a principios del siglo XX.
P. ¿Por qué se descubrió la evolución a mediados del siglo XIX y no antes o después?
R. Las ideas de evolución empezaron a ser propuestas a finales del siglo XVIII, a raíz de la confirmación de la gran antigüedad de la Tierra, con el descubrimiento del registro fósil. La teoría procede en parte de la biogeografía, que se desarrolla por la exploración a escala global de aquella época, las expediciones, en las que participan tanto Darwin, a bordo del Beagle, como Wallace.
P. ¿Y cómo se llega a las conclusiones?
R. A través de la perspectiva global, más que los fósiles, que crean la posibilidad pero no dicen exactamente lo que pasó, porque hay muchos huecos en el registro. Se llega a ellas al estudiar cómo se distribuyen los animales por el mundo, por qué hay unas especies aquí y no allí y cómo se crean nuevas especies a partir de las anteriores. La perspectiva geográfica impulsa el sentido de la evolución por la migración y la adaptación, y la selección natural es una de las explicaciones de cómo se produce la adaptación. La otra es el famoso lamarckismo, que fue muy popular entre los científicos, porque tenía un propósito.
P. ¿Cómo se relaciona con la situación en el Reino Unido?
R. Se dice que la selección natural refleja los valores competitivos y capitalistas de aquella época. Tanto Darwin como Wallace leyeron a Malthus, que propuso la idea de que la presión de la población provoca la lucha por los recursos limitados. Sin embargo, mientras que Darwin era de familia adinerada, Wallace era de origen humilde y fue un radical, un socialista. Aunque sea un factor, no se puede relacionar demasiado estrechamente con la ética dominante en aquella época. Es la combinación de los factores científicos, políticos y sociales la que lleva a encajar las piezas del rompecabezas.
P. ¿Y por qué son británicos los dos científicos?
R. Eso tiene que ver con el poder marítimo de Reino Unido: el Beagle fue mandado a cartografiar los mares de América del Sur, no formaba parte de su imperio pero era un imperio informal, para el comercio. Otros países tuvieron imperios antes, como España, pero no había registro fósil, las otras piezas no existían, y seguramente la presión religiosa no lo hubiera permitido.
P. ¿Se pueden comparar en importancia Darwin y Wallace, por su contribución a la teoría de la evolución?
R. No se puede decir que Darwin y Wallace llegaran al mismo tiempo a establecer sus teorías y que sean igual de importantes. Darwin llevaba 20 años trabajando sobre ella cuando le llegó el manuscrito de Wallace desde Indonesia. Fue entonces cuando se animó a presentarla, dejando clara su prioridad. Las mayores contribuciones de Wallace a la teoría fueron en los años posteriores a la presentación y él manejaba el término darwinismo sin problemas. Había diferencias muy interesantes entre ellos en su interpretación de los mecanismos de la evolución y no siempre fue Darwin quien resultó tener razón.
P. ¿Por qué está en auge en algunos países el creacionismo, que rechaza la evolución?
R. Hay una campaña, todo viene de Estados Unidos y allí las iglesias tienen mucho dinero. Es difícil ignorarla. Los científicos no saben cuál es la mejor forma de responder
Fuente: elpais.com, 5 de Marzo de 2008
-Venus y Marte más casi idénticos en las capas altas de la atmósfera
Amor y guerra, frío y calor, ellos y ellas. Venus y Marte, tanto en la mitología como en las ciencias planetarias han parecido siempre mundos opuestos, pero ambos planetas presentan asombrosas similitudes en las zonas más externas de sus respectivas atmósferas, bombardeadas constantemente por corrientes de partículas provenientes del Sol.
En Venus, la atmósfera es tan densa que apenas veríamos más allá de nuestras narices si viviésemos en este planeta, y las temperaturas superan los 400º C. En Marte, por el contrario, las temperaturas rondan los 60º bajo cero, y su atmósfera es sólo una fina capa de gases, principalmente dióxido de carbono. Pero estas diferencias acaban cuando nos fijamos en las capas más altas de sendas atmósferas, como han hecho dos naves espaciales casi idénticas de la Agencia Espacial Europea (ESA): 'Mars Express' y 'Venus Express'. Tanto Marte como Venus, al igual que la propia Tierra, están inmersos en un continuo flujo de viento solar. La diferencia es que sólo nuestro planeta está provisto de una intensa magnetosfera propia que nos protege de este flujo de plasma (el plasma es el cuarto estado de la materia, en el que las partículas se encuentran aún más dispersas que en un gas).
Por todo ello, mientras que en la Tierra el viento solar es repelido al espacio, en Marte y Venus tiene ocasión de interactuar con los gases que flotan en el exterior de las atmósferas. En ambos casos, el efecto es similar: el leve campo magnético generado por la interacción con el plasma se pliega hacia el lado nocturno y deja una cola de partículas cargadas que se escapan hacia el espacio desde la cara donde no está dando el Sol.
"Esto sucede porque la densidad de la ionosfera (es decir, la capa externa de partículas cargadas creada por la interacción con el Sol) a 250 kilómetros de altura es sorprendente similar" en los dos planetas más cercanos a la Tierra, según explica Tielong Zang, principal investigador del magnetómetro de la 'Venus Express', que en realidad es igual al que lleva su sonda 'hermana', la algo más veterana 'Mars Express'.
Una diferencia entre ambas atmósferas se debe a que Venus está mucho más cerca de nuestra estrella. Allí el viento solar es más intenso y provoca que las partículas que flotan sobre el planeta se muevan de forma conjunta, como un fluido. En Marte, sin embargo, la acción del plasma es más débil y las partículas que escapan de su atmósfera actúan de forma individual. En todo caso, ambas investigaciones podrían servir para determinar el ritmo al que las dos atmósferas se disipan en el cosmos y extrapolar estos datos para dar marcha atrás en la historia y determinar cómo fueron en el pasado.
"Estos resultados nos ofrecen el potencial de medir la evolución de los climas planetarios", indica David Brain, investigador de 'Venus Express' desde la Universidad de California en Berkeley.
Los resultados que muestran las similitudes -y también importantes diferencias-entre ambos mundos se han publicado en 19 artículos distintos en la revista 'Planetary and Space Science'.
Fuente: elmundo.es, 5 de Marzo de 2008
La ministra de Medio Ambiente, Cristina Narbona, aseguró
que las playas canarias retrocederán más de 50 metros en los próximos años
como consecuencia del cambio climático, según diversos estudios, previsión
sobre la que el Ministerio trabaja actualmente.
"Lo que puede hacer desaparecer inmuebles que están hoy en la playa no es el
Ministerio de Medio Ambiente ni la Ley de Costas, sino el avance del mar
derivado del cambio climático", dijo Narbona al ser preguntada sobre las
demoliciones de inmuebles situados en dominio público en el litoral canario.
Con esos derribos, además de cumplir la ley, lo que hace el Ministerio es
prevenir un problema que debe ser abordado, tanto por la seguridad de las
personas y de los bienes, como para mantener la oferta turística de las playas
canarias, dijo Narbona durante el transcurso de una visita a Gran Canaria.
Según indicó, el Ministerio de Medio Ambiente ha demolido en los últimos
cuatro años 684 inmuebles que se encontraban en situación ilegal en Canarias,
lo que ha permitido recuperar 75.000 metros de costa para el uso de todos los
ciudadanos.
Narbona insistió en que el Ministerio actúa únicamente sobre inmuebles
situados en dominio público marítimo terrestre y de acuerdo a la Ley de
Costas. Para asegurar el futuro de las playas canarias, por ejemplo, durante
esta legislatura ha invertido 12 millones de euros para adquirir 4,8 millones
de metros cuadrados de fincas en el litoral de Gran Canaria.
Narbona anunció la compra por parte del Ministerio de Medio Ambiente de una
finca de 1,5 millones de metros cuadrados en Juncalillo del Sur, en el
municipio de San Bartolomé de Tirajana, en colaboración con el Cabildo de Gran
Canaria, con el de incorporarla al dominio público marítimo terrestre.
Asimismo, ha adquirido otra finca de 750.000 metros cuadrados en el entorno de
la playa de El Cabrón, en el municipio de Agüimes, también en Gran Canaria.
En total, el Ministerio de Medio Ambiente ha destinado 60 millones de euros en
la costa de Canarias en los últimos años. La ministra se refirió también
a las dunas de Maspalomas y aseguró que la forma de preservarlas es evitar
nuevas construcciones en su entorno, con el fin de asegurar su curso natural.
Narbona aludió asimismo al Convenio de Aguas entre el Estado y la Comunidad
Autónoma, pendiente de renovación, que, según dijo, se firmará próximamente,
una vez que el Ministerio de Economía y Hacienda autorice las fondos
consignados. El nuevo Convenio de Aguas prevé una financiación total de
320 millones de euros para Canarias, con unos fondos adicionales de 100
millones de euros para Gran Canaria. El acuerdo prevé actuaciones tanto
de desalinización como de depuración, reutilizaciíon y de embalses para lograr
una agua de calidad al tiempo que se logra una buena gestión medioambiental.
Narbona recordó que en los últimos cuatro años, el Ministerio de Medio
Ambiente ha invertido 190 millones de euros en diversas infraestructuras en
Gran Canaria. La ministra visitó hoy varias zonas de la costa del sur de
Gran Canaria y la evolución de las obras de la segunda fase de la
desalinizadora de Telde, que asegurará el abastecimiento y reducirá el consumo
de agua subterránea. Narbona recordó que las plantas desalinizadoras se
abastecen cada vez más de energías limpias, cuestión que el Ministerio de
Medio Ambiente impulsa a través de diversos planes.
Fuente: Canarias 7, 5 de Marzo de 2007
-El número de muertes por la mala calidad del aire se puede cuadriplicará
El número de muertes prematuras causadas por la mala calidad del aire se va a multiplicar por cuatro en las próximas dos décadas, si no se hace nada pronto para frenar la degradación del medio ambiente. A esta alarmante conclusión llega un informe, publicado ayer por la Organización para la Cooperación y el Desarrollo Económico (OCDE), acerca de las perspectivas medioambientales en 2030 y el modelo económico necesario para evitar un colapso. El texto, destinado a preparar las próximas reuniones del organismo multilateral sobre la economía del cambio climático, detalla los diferentes desafíos a los que debe hacer frente la humanidad, clasificándolos según su nivel de alerta.
Entre los problemas medioambientales en
vías de solución, la OCDE cita, por ejemplo, las superficies forestales en los
países ricos o las
emanaciones de clorofluorocarbonados (CFC) en el hemisferio norte. Entre los
problemas acuciantes y potencialmente muy dañinos que, de momento, todo el mundo
está dejando de lado, la organización destaca una lista de 15, que van desde la
"contaminación de los recursos hidráulicos por la agricultura", hasta las
celebérrimas "emanaciones de gases con efecto invernadero".
|
Calidad del aire urbano
El más desconocido de esos problemas frente a los cuales los poderes públicos siguen haciendo la vista gorda -pese a que pueden destruir a la humanidad- es el que figura en los apartados calidad del aire urbano, partículas y ozono troposférico y emanaciones relacionadas con el transporte por carretera. Al primero de ellos la OCDE le atribuye un "semáforo rojo", es decir, que la organización multilateral lo juzga como "muy grave, orientado hacia un empeoramiento y desatendido por los poderes públicos". Los tres otros tienen la luz de color "ámbar", es decir, considera que el problema tiene una evolución "poco previsible y de soluciones inciertas".
Contaminación del aire
Para la institución, "la contaminación del aire va a tener efectos crecientes sobre la salud a nivel mundial"; y si no se hace nada para remediarlo -como ha venido sucediendo hasta ahora-, advierte, en 2030 "el número de fallecimientos prematuros relacionados con el ozono troposférico se multiplicará por cuatro". A diferencia de otros problemas ecológicos -como los recursos hídricos o las emanaciones de CFC-, ese empeoramiento mortífero de la calidad del aire afecta tanto a los países del hemisferio norte como a los del sur, aunque lo haga en grados diferentes. En Europa, la OCDE prevé que el número de fallecimientos prematuros debidos al ozono en zona urbana pase de nueve muertes por cada millón de habitantes a casi 30 en un plazo de 22 años; y ello pese a la multiplicidad de anuncios de los poderes públicos. La palma del incremento de esos fallecimientos se la lleva Asia, que a causa del desarrollo en China e India, pasará de 15 fallecimientos prematuros por millón de habitantes, en 2000, a casi 90 en el año 2030.
El ozono en el aire urbano es sólo uno de los vectores de degradación de lo que se respira estudiados por la OCDE. El informe de la institución multilateral con sede en París analiza extensamente el modelo de acciones que deberían emprenderse para evitar el colapso ecológico. Subraya que intervenir hoy en prevención costaría sólo un 1% del PIB mundial de 2030, mientras que intentar intervenir dentro de unos años, cuando los cambios irreversibles del clima estarían ya dañando salud, ecosistemas y modelos económicos, resultará "inabordablemente caro".
Paradoja ‘verde'
Los expertos de la OCDE consideran necesario establecer una tarifa ecológica para todos los productos, apuestan por implantar una fiscalidad verde y apoyan la eco-innovación. Pero parecen no atreverse a dar un salto definitivo en línea con esa orientación ecológica hacia la que apuntan. La prueba es que siguen buscando en los instrumentos tradicionales del mercado la solución para corregir los destrozos que ese mismo mercado causa al medio ambiente.
Fuente: publico.es, 5 de Marzo de 2008
-Un buque japonés de 200 metros estudia el origen de los terremotos y los tsunamis
El escritor francés Julio Verne (Nantes, 1828- Amiens,1905) ha sido un visionario con muchas de sus novelas. Pero la realidad supera en ocasiones a la ciencia ficción. En 'Viaje al centro de la Tierra', sus tres protagonistas penetran por el cráter de un volcán hacia el interior del planeta. No se le ocurrió al novelista que se pudiera penetrar en las entrañas de la Tierra a través de los fondos oceánicos. Ahora, un grupo de investigadores, entre los que se cuenta la española María José Jurado, acaba de regresar de una expedición en la que han perforado los fondos oceánicos hasta una profundidad de más de 1.400 metros.
"El objetivo del proyecto es penetrar los fondos oceánicos de las zonas en las que se producen los epicentros de los terremotos para monitorizarlos y poder estudiar su origen", asegura la científico. "Las investigaciones que acabamos de comenzar, nos servirán para desarrollar un sistema de predicción de terremotos con un plazo suficiente como para poder actuar y evitar grandes daños". Eso será cuando termine el proyecto en 2012. Un equipo internacional de investigadores, con la citada presencia española incluida, ha perforado el suelo del océano Pacífico desde el buque 'Chikyu' ('Tierra', en japonés), con el fin de estudiar el origen de los 'tsunamis' y los terremotos, así como el pasado climático de nuestro planeta. La geóloga María José Jurado, del Consejo Superior de Investigaciones Científicas (CSIC), y sus compañeros de misión, a bordo del mayor y más sofisticado buque oceanográfico del mundo, han estudiado a fondo un área que se espera que genere fuertes terremotos en los próximos años.
|
Durante la primera fase del proyecto 'NantroSEIZE', de septiembre de 2007 a febrero de 2008, el equipo internacional ha realizado el reconocimiento más completo que se ha hecho nunca de esta zona sismogénica, la fosa de Nankai.
En esta zona de convergencia de dos placas tectónicas, a unos 100 kilómetros de la costa este de Japón, se esperan terremotos de magnitud superior a 8 en los próximos 30 años (escala de intensidad de Richter).
La única participación española en la primera expedición NantroSEIZE, cuyo coste diario ha sido de unos 260.000 euros, ha sido la de la investigadora del CSIC. Jurado explica los fundamentos del proyecto: "El objetivo final es conocer los procesos que dan lugar a terremotos devastadores, como los de la zona estudiada, y poder observarlos 'in situ' y en tiempo real allí donde se generan".
"El proyecto continuará hasta 2012, con el objetivo de perforar hasta 6 kilómetros por debajo del fondo del mar, en el límite de las placas donde se originan grandes terremotos.
En otras expediciones del proyecto se obtendrán muestras de las rocas y fluidos de la zona de falla, además de monitorizar y observar directamente los procesos ligados a la génesis del próximo gran terremoto. Para la observación directa de la actividad sísmica se instalarán observatorios permanentes que permitirán seguir los terremotos en tiempo real", detalla Jurado. El proyecto NantroSEIZE forma parte del Programa Integrado de Perforación Oceánica (IODP, por sus siglas en inglés), integrado por 21 países: Japón, EEUU, China, Corea del Sur y los países del Consorcio Europeo para Investigación Oceánica (ECORD), entre otros. España participa a través del Ministerio de Educación y Ciencia.
La expedición inaugural NantroSEIZE, en la que participaron 16 investigadores de seis países diferentes, se desarrolló en las aguas profundas de la fosa de Nankai, donde se realizaron cinco sondeos, en localizaciones situadas desde 1.970 metros a 3.830 metros desde el nivel del mar. Estos sondeos perforaron el subsuelo oceánico a profundidades de entre 400 y 1.401 metros.
En uno de los sondeos, los investigadores identificaron, con imágenes orientadas de microrresistividad y otras técnicas de testificación geofísica avanzada, abundantes depósitos de hidratos de gas metano, entre 220 y 400 metros por debajo del fondo del mar. "La información registrada permite la caracterización geológica y petrofísica de los materiales atravesados, así como estudiar su potencial de recursos económicos y evitar futuros riesgos inherentes a la presencia de gas en el subsuelo", subraya Jurado.
El equipo también descubrió en la fosa de Nankai un cambio en la orientación de los esfuerzos tectónicos (la fuerza a la que se ven sometidos los materiales geológicos en la Tierra), que no se conocía con anterioridad. El empuje que genera la convergencia de placas, al contrario de lo que se asumía, presenta variaciones en la zona de estudio.
Para la investigadora del CSIC, "este hallazgo dibuja una situación más compleja de lo que pensábamos, y estamos intentando interpretarla con la investigación en curso. El modelo de distribución de esfuerzos tectónicos resulta fundamental para entender los mecanismos de génesis de los terremotos". El buque de perforación Chikyu, con 210 metros de eslora y 38 de manga, está equipado para hacer perforaciones con una profundidad de hasta 10 kilómetros bajo el nivel del mar, y cuenta con una tecnología que permite perforar de forma segura hasta siete kilómetros en el subsuelo marino.
"Se trata del primer buque oceanográfico equipado con riser, un sistema que permitirá perforar de forma más segura y alcanzar profundidades tres veces mayores que lo conseguido por cualquier otro buque de perforación", amplía la investigadora del CSIC.
Fuente: elmundo.es, 5 de Marzo de 2008
-El "hobbit" indonesio no es una especie humana
Hace aproximadamente tres años, científicos australianos descubrieron en una cueva los restos fosilizados de lo que podía ser una nueva especie. Tras su recomposición lo bautizaron como «Hobbit» por su parecido con el personaje de El Señor de los anillos y comenzó una larga investigación en la que se valoraba la posibilididad de que este hallazgo se tratase de una nueva especie con una deformidad en el cerebro. Sin embargo, en la última edición de la revista especializada Science, los científicos rechazan la teoría sostenida por los arqueólogos australianos que descubrieron los restos y que los clasificaron como de una nueva y diminuta especie de ser humano: el homo floresiensis.
Se estima que el hobbit vivió en la isla indonesa de Flores hace unos 18.000 años. Medía escasamente un metro y tenía el cerebro más pequeño que el del hombre moderno, pero aparentemente utilizaba herramientas y ya conocía el fuego.
Algunos expertos piensan que el homo floresiensis podría descender del homo erectus que vivía aislado en Flores y que su descubrimiento obligará a «reescribir la historia de la cadena evolutiva».
Un estudio previo liderado por Dean Falk, de la Universidad del Estado de la Florida, EE.UU., comparó un modelo generado por ordenador del cráneo del hobbit con moldes de chimpancé, de homo erectus y de un paciente de microcefalia y de pigmeos.
«No tenemos ninguna duda: no es un caso de microcefalia» (trastorno neurológico en el cual la circunferencia de la cabeza es más pequeña que el promedio). Y tampoco se parece a un pigmeo», agrego. «Es, definitivamente, una nueva especie», dijo Falk.
Nueva teoría
Ahora, el biólogo Robert Martin, del Museo Field, de Chicago, EE.UU., y sus colegas anglo-estadounidenses, cuestionan la conclusión del equipo de Falk.
«Hay un problema fundamental entre el pequeño tamaño del cerebro y el uso de herramientas de piedras sofisticadas» que corresponden al hombre moderno, asegura.
«Estas herramientas son tan avanzadas que no hay forma de que hubieran sido confeccionadas por alguien distinto al homo sapiens», añadió otro especialista del Museo Field, James Phillips.
De acuerdo con Martin, los huesos del especimen no representan, de ninguna forma, a una nueva especie de homínido sino a un humano moderno que sufría microcefalia. Para él fue errado excluir la tesis de la microcefalia, ya que el estudio previo se basó en el análisis de un solo cráneo microcéfalo, pese a que ese padecimiento puede tener diferentes formas.
Fuente: lavozdegalcia.com, 4 de Febrero de 2008
-Avalanchas de hielo y polvo en el polo norte marciano
La sonda Mars Reconnaissance Orbiter ha captado imágenes de avalanchas de polvo y hielo en el polo norte de Marte, según ha informado el Laboratorio de Propulsión a Chorro (JPL) de la NASA. Un boletín de JPL ha indicado que ésta es la primera vez que el Experimento de Imágenes de Alta Resolución (HiRiSE) en la sonda capta este tipo de actividad en el planeta.
Avalancha en Marte
'Es fabuloso ver algo tan dinámico en Marte. Mucho de lo que hay allí no ha cambiado en millones de años', ha señalado Ingrid Dauber, científico de la Universidad de Arizona, encargada de dirigir las cámaras del orbitador.
Dauber ha agregado que el descubrimiento de esas avalanchas fue una sorpresa y sólo advirtió que se estaban produciendo el 19 de febrero cuando dirigía el enfoque de las cámaras de la sonda sobre posibles cambios estacionales en Marte. 'Estábamos buscando cambios en la escarcha de dióxido de carbono sobre una duna y el hallazgo de las avalanchas fue totalmente fortuito', ha declrado Candice Hansen, investigadora de JPL en Pasadena (California).
La imagen muestra detalles del tamaño de poco más de un metro sobre una faja de terreno de seis kilómetros de ancho y unos 40 kilómetros de largo. Según Patrick Russell, científico de la Universidad de Berna (Suiza) de momento se desconoce el origen de las avalanchas marcianas. 'Proyectamos recibir más imágenes del sitio durante el cambio de estaciones en Marte para ver si estas avalanchas ocurren todo el tiempo o sólo durante las primeras etapas de la primavera' marciana, ha añadido.
Otra de las imágenes transmitidas hoy por el Mars Reconnaissance Orbiter muestra a la Tierra y a la Luna vistas desde la sonda. En la foto se puede distinguir claramente una parte del océano Pacífico frente a las costas de América del Sur.
Fuente: Caracol Radio, 4 de Marzo de 2008
-Las sondas sufren unas extrañas anomalías en sus velocidades
Misteriosamente, cinco sondas que sobrevolaron la Tierra han mostrado anomalías inesperadas en sus movimientos. Estos enigmas se unen a la denominada ‘anomalía Pioneer’ y apuntan a que pueden estar apareciendo fuerzas inexplicadas en las sondas espaciales.
Hace una década, después de análisis rigurosos, se descubrieron anomalías en las sondas gemelas Pioneer 10 y 11, en trayectoria de escape del sistema solar. Parece como si ambas sondas tuvieran una minúscula, pero inexplicable, aceleración constante hacia el Sol.
Se han lanzado muchas explicaciones sobre la anomalía Pioneer. Algunas trataban sobre ciencia convencional – quizás fugas de los depósitos de las sondas que pudieran afectar a sus trayectorias. Otras veces las explicaciones se centraban más en la física especulativa – quizás la ley de la gravitación universal necesita una reforma.
Ahora, el astrónomo John Anderson de la JPL y sus colegas – que originalmente ayudaron a descubrir la anomalía Pioneer – han descubierto que cinco sondas que han sobrevolado la Tierra de camino a otros destinos del sistema solar lo hicieron a una velocidad ligeramente mayor o menor que la esperada.
Los investigadores revisaron seis sondas de espacio profundo – Galileo I y II hacia Júpiter, la misión NEAR al asteroide Eros, la sonda Rosetta hacia un cometa, Cassini hacia Saturno y la sonda Messenger hacia Mercurio. Estas sondas sobrevolaron la Tierra para ganar o perder la energía orbital necesaria para alcanzar con éxito sus respectivos destinos.
En cinco de estos seis sobrevuelos, los científicos han confirmado anomalías.
“Me siento humilde y perplejo a la vez por esto”, dice Anderson, que trabaja como jubilado. “Hay algo muy extraño en el movimiento de las sondas. No tenemos ninguna explicación convincente ni a la anomalía Pioneer ni a las anomalías de los sobrevuelos”.
En una de las sondas los investigadores no confirmaron una anomalía medible. Esto ocurrió con Messenger, que se acercó a la Tierra a una latitud de 31º norte y se alejó a una latitud de 32º grados sur. “Esta simetría casi perfecta respecto al ecuador parece que da como resultado un cambio de velocidad muy pequeño, en contraste con los otros cinco sobrevuelos”, explica Anderson, “tan pequeña que no podemos confirmar ninguna anomalía”.
Los otros cinco sobrevuelos tuvieron trayectorias de acercamiento y alejamiento que eran asimétricas respecto a su orientación con el ecuador terrestre.
Por ejemplo, la misión NEAR se acercó a la Tierra sobre la latitud 20º sur y se alejó del planeta a una latitud de 72º sur, midiéndose para la sonda una velocidad de 13 milímetros por segundo mas alta que la esperada. A pesar de ser sólo una millonésima parte de la velocidad total de la sonda, la precisión de las medidas de velocidad son de tan solo 0,1 milímetros por segundo, que se obtiene mediante la reflexión de las ondas de radio sobre la sonda. Esto sugiere que la anomalía es verdadera – y, por tanto, precisa una explicación.
El hecho de que esta anomalía sea mas evidente con sobrevuelos mas asimétricos respecto del ecuador de la Tierra “sugiere que la anomalía esta relacionada con la rotación terrestre”, afirma Anderson.
Sobre si estas anomalías están conectadas con la anomalía Pioneer, “me sorprendería si hubiéramos descubierto dos anomalías independientes asociadas a movimientos de sondas”, manifestaba Anderson a SPACE.com. “Sospecho que están relacionadas, pero realmente lo desconozco”. “Estas anomalías podrían ser los efectos que vemos en objetos con masas típicas de las sondas espaciales, entre los 300 y 1.000 kg”, especulaba Anderson.
“Otro aspecto común entre las anomalías Pioneer y estos sobrevuelos es que se tratan de órbitas abiertas alrededor de un cuerpo central”, afirma Anderson. “Por ejemplo, las Pioneer están escapando del sistema solar y no están orbitando su cuerpo central, el Sol. En los otros sobrevuelos, el cuerpo central es la Tierra. Este tipo de órbitas no suelen ocurrir mucho en la naturaleza – puede ser que ocurra que cuando tienes una órbita abierta alrededor de un cuerpo central, algo sucede que no figura en nuestros modelos físicos convencionales”.
Los investigadores están colaborando con colegas alemanes para encontrar posibles anomalías en el segundo sobrevuelo de la sonda Rosetta a la Tierra del pasado 13 de Noviembre. “Debemos continuar monitorizando las sondas durante los sobrevuelos a la Tierra y debemos observar con cuidado los datos recientemente recuperados de la Pioneer para hallar mas evidencias de la anomalía Pioneer”, añade Anderson. “Deberíamos pensar en lanzar una misión dedicada en una trayectoria de escape del sistema solar, sólo para observar las anomalías de su movimiento”.
El físico Ronald Hellings de la Universidad del Estado de Montana, que no participó en este estudio, dice que “definitivamente, algo está pasando. Si es debido a una nueva física desconocida o algún problema con los modelos que tenemos es algo a resolver. Hay mucha gente intentándolo”.
Fuente: Sondasespaciales.com, 3 de Marzo de 2008
Netscape Navigator se ha despedido del ciberespacio. Como venía anunciando su propietaria AOL en los últimos meses, el navegador dejó de tener un soporte oficial el pasado sábado, día 1 de marzo. La propia compañía aconseja a los internautas que cambien a Firefox o a Flock, construidos con la misma tecnología que Navigator, y les facilita la descarga de ambos desde su página web.
"Yo creo que nosotros somos la esperanza de lo que fue Netscape", asegura Mitchell Baker, presidenta de la Fundación Mozilla, que coordina el desarrollo de Firefox, en declaraciones a la británica BBC. "Hemos continuado muchas de las cosas que empezó Netscape y las hemos llevado más lejos en términos de participación pública", agrega Baker, una de las primeras trabajadoras de Navigator en 1994.
|
Caída en picado Netscape fue creado por Marc Andressen, uno de los padres de Mosaic, el primer navegador popular, y Netscape Communications Corporation lanzó su primera versión en 1994. El navegador alcanzó su apogeo con el despegue de las empresas en internet, cuando era utilizado por el 90% de los internautas. Desde entonces, su uso ha caído en picado hasta llegar al 0,6% mientras otros navegadores como el Explorer de Microsoft, que tiene una cuota de mercado del 80%, e incluso Firefox, con un 28%, se han repartido sus usuarios. Según cuenta la BBC, esta situación ha hecho inviable el futuro de Netscape y ya el año pasado se anunció por primera vez la posible desaparición de la plataforma. Tom Drapeau publicó en su blog de Netscape: "Aun cuando AOL ha invertido mucho tiempo y energía en revivir el Netscape Navigator y arrebatarle una cuota del mercado a Internet Explorer, estos esfuerzos no surtieron efecto". Cambiar a Firefox o Flock Durante la última semana, los usuarios de Netscape recibieron un mensaje anunciando la decisión del cierre. "Dada la estrategia de negocio de ahora tiene AOL, el navegador Netscape cesará el 1 de marzo de 2008", decía una nota que también sugería a los usuarios realizar el cambio a Flock o Firefox. Sin embargo, como recoge la BBC en su web, hay usuarios de Netscape que no están contentos con la idea de cambiarse de navegador. "Estoy triste. Flock necesita mejorar y no me agrada la interface de Firefox. Soy un huérfano", se lee en uno de los blogs de Netscape. Incluso hay quien predice el regreso del navegador: "Netscape es maravilloso, y lo será en el futuro", se lee en otro.
|
Fuente: adn.es, 3 de Marzo de 2008
-La gloria hundió a Alejandría
La llamada Ciudad de los Mil Palacios, fundada por Alejandro Magno, y otras legendarias ciudades de la región canópica de Egipto se hundieron en el agua y el fango porque el suelo no soportó el enorme peso de los suntuosos templos y edificios de aquél momento, incluyendo el Palacio de Cleopatra, situado en el mítico Portus Magnus de Alejandría, el mayor instrumento de poder que había en el mundo en aquél momento.
Así lo explicó a elmundo.es el arqueólogo submarino Franck Goddio, descubridor de estas ciudades sumergidas en la Bahía de Abukir, en el norte de Egipto. Franck Goddio, que desde 1992 dirige los trabajos arqueológicos de ciudades sumergidas como Canopo, Heraclion y Alejandría, ha venido a España para preparar la llegada a Madrid de más de 500 piezas arqueológicas recuperadas en estos últimos 15 años por su equipo de la Bahía de Abukir, y que se exhibirán, a partir del 16 de abril, en la exposición 'Tesoros sumergidos de Egipto', que acogerá el Matadero Legazpi Madrid. El arqueólogo submarino explicó en una entrevista concedida a este periódico que antes de que los desastres naturales (maremotos y 'tsunamis') cambiaran el perfil de las costas del Norte de Egipto, allá por el año 303 A.C. las ciudades que se localizaban en esta región africana fueron víctimas del llamado «fenómeno de liquefacción» y los enormes y pesados templos y palacios provocaron que el suelo se abriera y se los tragara literalmente. |
|
«El lodo del Nilo está compuesto por cristales que, a su vez, contienen agua dentro. Si se ejerce una presión muy grande sobre esta superficie, los cristales se juntan y dejan escapar esa agua que, en una fracción de segundos, es evacuada provocando que la tierra pierda entre el 50 y 60% de su volumen, por lo que todo lo que esté construido sobre este suelo se viene abajo», indicó Goddio.
Los palacios y templos que han encontrado Goddio y sus submarinistas en las oscuras y contaminadas aguas de la Bahía de Abukir son los más grandes que se construyeron nunca en Egipto. «Eran obras colosales. El peso de estos edificios y el desplazamiento del agua hicieron que ciudades como Heraclion, Canopo y el Portus Magnus de Alejandría se hundieran. La monumentalidad de estas construcciones fueron la causa de su hundimiento», señaló el célebre arqueólogo francés
En cuanto a otro de los mitos de estas ciudades, el fabuloso Faro de Alejandría, y que el equipo de Goddio ha buscado sin descanso en estos últimos 15 años, el arqueólogo francés ha llegado a la conclusión de que lo único que queda de esta construcción es el mito. «Ya no buscamos el faro. Hemos parado las prospecciones geofísicas, ya que los restos del faro no están bajo estas agua, ni en ningún otro sitio», explicó. Goddio está convencido de que el legendario faro de más de 150 metros de altura del que habla la historia, fue destruido en varias ocasiones antes de que se cayera por última vez. «El faro que se cayó en el siglo XIV no tiene nada que ver con el que veía la reina Cleopatra desde su palacio».
Franck Goddio es una celebridad en el mundo de la arqueología. En 1984, casi de la noche a la mañana este elegante caballero francés pasó de ser el asesor de presidentes de gobierno a cuenta de la ONU, a convertirse en el Indiana Jones de la arqueología subacuática. Tras descubrir importantes e históricos pecios en varios lugares del mundo, como el galeón San Diego en aguas de Filipinas, en 1992, el Gobierno egipcio le encomendó la misión de encontrar los restos de la ciudad sumergida de Alejandría. Desde entonces, junto a un equipo de expertos buceadores, ingenieros y arqueólogos, ha conseguido rescatar del fango del Nilo más de 18.000 objetos, algunos de ellos de incalculable valor.
«No se puede señalar a una de estas piezas como la más valiosa, ya que todas son muy importantes para la historia, el arte o la arqueología, como la estatua de la reina Arsinoe II, que es una de las pieza artísticas más importantes del mundo. También hemos encontrado una estela negra, intacta, en la ciudad de Heraclion, que resuelve un antiguo enigma de hace más de 2000 años y demuestra que las míticas ciudades de Tonis y Heraclion eran la misma cosa: Tonis es el nombre en egipcio y Heraclion, en griego», indicó.
Fuente: elmundo.es, 3 de Marzo de 2008
-Las mujeres prefieren a los solteros durante los días más fértiles del ciclo
La mayoría de las mujeres se sienten más atraídas, casi todo el tiempo, por los hombres con pareja, ya que demuestran tener más cualidades para la convivencia. Sin embargo, el instinto las conduce durante sus días fértiles hacia los solteros y sin compromiso, debido a un rasgo atávico que aún conserva nuestra especie y que favorece las posibilidades de reprododucción.
Esta es una de las conclusiones a las que ha llegado un estudio realizado en la Universidad de Padua, Italia, por las psicólogas Paola Bressan y Debora Stranieri, cuyos resultados se acaban de publicar en la revista 'Psychological Science'.
"Debido a que los hombres de mayores cualidades genéticas tienden a ser peores compañeros y padres que los de peores cualidades genéticas, las preferencias de las mujeres pueden orientarse hacia una inversión segura con los segundos, mientras que obtendrían los mejores genes mediante relaciones extramaritales con los primeros", indican las investigadores.
Por supuesto, sólo tiene lugar esta selección natural de genes si se produce un embarazo, por lo que las fuerzas evolutivas habrían propiciado que la mayoría de las mujeres se sientan inclinadas por los solteros únicamente en sus momentos más fértiles.
Con el fin de comprobar dicha tesis, cuyas autoras no dudan en calificar de "provocativa", se puso en marcha un estudio con 208 mujeres, que calificaron el atractivo sexual de distintos hombres divididos en dos grupos: emparejados y 'libres'.
Las investigadoras predijeron que, si estaban en lo cierto, las mujeres emparejadas debían preferir a los hombres también emparejados, ya que lo normal es que tuvieran más cualidades como posibles sustitutos de su relación.
Sin embargo, dicha preferencia debería dar un vuelco durante los días más fértiles, ya que los solteros y sin compromiso suelen ser más asequibles (o menos peligrosos) para mantener una relación esporádica, de acuerdo con la previsión de las autoras del estudio.
"Tal y como predijimos, las mujeres emparejadas favorecieron a los hombres comprometidos en las fases de baja fertilidad de su ciclo menstrual, pero prefirieron a los solteros (si eran masculinos, es decir, si mostraban buenas cualidades genéticas) cuando el riesgo de concepción era alto", concluyen las científicas.
Al mismo tiempo, el estudio confirmó que los rasgos genéticos asociados la fertilidad masculina, como un rostro varonil, también llaman más la atención de las mujeres durante sus fases más fértiles.
Este instinto femenino, según interpretan las autoras de la investigación, debió surgir en el Pleistoceno, cuando se vivía en sociedades de entre 175 y 475 individuos y menos de la mitad de ellos se hallaban en edad reproductiva.
Eso quiere decir que nuestras abuelas prehistóricas sólo tenían entre 20 y 45 hombres entre los cuales elegir un padre para sus hijos, por lo que la evolución favoreció a aquellas que desarrollaron las estrategias más efectivas en busca de buenos compañeros y, al mismo tiempo, buenos genes. El problema es que, según la psicología evolutiva, ambas cualidades no solían darse en la misma persona.
Fuente: elmundo.es, 3 de Marzo de 2008
-Thomson Scientific lanza ScienceWatch.com para las noticias más importantes sobre descubrimientos científicos
Un entorno de Web gratis suministra rankings, modas y análisis de toda la comunidad científica
Thomson Scientific, parte de The Thomson Corporation (NYSE: TOC, TSX: TOC) y suministrador líder de soluciones informáticas para la investigación mundial y las comunidades de negocios, anunció hoy el lanzamiento de ScienceWatch.com, un recurso de Web abierto y gratuito para sistemas métricos y análisis científicos.
ScienceWatch.com combina el material y datos, análisis, entrevistas, y comentarios actualizados con regularidad del boletín de noticias Science Watch más nuevo que antes se encontraba en In-Cites y ESI Special Topics. La página Web ofrece a la comunidad científica una situación conveniente para estar al día con los últimos desarrollos en ciencia - lo que los científicos más importantes tienen que decir, como afectan los temas más candentes a la investigación y a la vida diaria, donde tiene lugar la investigación más significativa, y mucho más.
"La base de datos ofrece una forma objetiva de estudiar el panorama científico y descubrir características de interés y significativas, incluyendo nuevos temas, nuevos desarrollos, nuevas modas," dijo Henry Small, científico jefe en Thomson Scientific. "Luego indagamos más profundamente y entrevistamos a los científicos implicados. Así que cuando accedes a sciencewatch.com, estás accediendo a la comunidad científica y descubriendo sus perspectivas e interioridades."
Además de las actualizaciones semanales, los usuarios podrán ver el número actual de Science Watch inmediatamente. Mientras tanto, el paquete de suscripción premium de Science Watch/Hot Papers Database existente -- incluyendo la edición impresa y el CD Hot Papers que la acompaña con su almacén de datos actualizados y que se pueden buscar en miles de periódicos recientes y muy citados - se seguirá suministrando para suscriptores actuales y futuros.
"Thomson Scientific es el primero en suministrar un entorno Web robusto," dijo Christopher King, redactor de Science Watch. "ScienceWatch.com será un recurso no sólo para la comunidad bibliométrica, sino para todo aquel remotamente conectado a cualquier ciencia, investigación - campo de evaluación."
Acerca de The Thomson Corporation
The Thomson Corporation (www.thomson.com) es un líder global en el suministro de soluciones de flujo de trabajo electrónicas esenciales para negocios y consumidores profesionales. Con sede operativa en Stamford, Conn., Thomson suministra información con valor añadido, herramientas de software y aplicaciones para profesionales en los campos de leyes, impuestos, contabilidad, servicios financieros, investigación científica y cuidado de la salud. Las acciones de la corporación cotizan en las bolsas de Nueva York y Toronto (NYSE: TOC; TSX: TOC).
Thomson Scientific es un negocio de The Thomson Corporation. Sus soluciones informáticas ayudan a profesionales en todas las etapas de la investigación y el desarrollo - desde el descubrimiento al análisis y al desarrollo y distribución de productos. Las soluciones informáticas de Thomson Scientific se pueden encontrar en scientific.thomson.com.
Fuente: labolsa.com, 3 de Marzo de 2008
Generalmente el vapor de agua acumulado en las nubes se
precipita en forma de lluvia cuando este agua se congela alrededor de una de las
muchas partículas sólidas que flotan en la atmósfera, desde arena y granos
minerales hasta polvo de origen biológico.
Los científicos sabían que sobre amplias zonas agrícolas y boscosas, como
extensas plantaciones de trigo y el Amazonas, la abundante presencia de polen y
bacterias en zonas medias y altas de la atmósfera eran los principales núcleos
sólidos alrededor de los cuales se catalizaba la formación de hielo.
Este hielo,
posteriormente, al atravesar capas más calientes de aire se transformaba en
lluvia.
Los meteorólogos llaman a este proceso nucleización, y es el origen, por
ejemplo, de las frecuentes lluvias de barro que se producen días después y a
miles de kilómetros de distancia de una tormenta de arena en el desierto. Según
un estudio que publicará mañana, sábado, la revista Science, Brent Christner,
biólogo de la Universidad Estatal de Luisiana (EEUU), junto a colegas de Montana
y Francia, han encontrado evidencias de que las bacterias que hacen llover se
distribuyen por toda la atmósfera terrestre y están entre las principales
partículas catalizadoras de lluvia. El estudio, que confirma algunas
suposiciones de biólogos y meteorólogos, podría tener aplicaciones prácticas
para provocar lluvia artificial, como ya se hace bombardeando las nubes con
sales de plata, si no fuera porque las principales bacterias que provocan
lluvias son organismos fitopatógenos. Estos organismos son perjudiciales para
los cultivos como la pseudomona syringae, bacteria gram-negativo que parasita el
tallo y hojas de las plantas y que ya fue identificada hace muchos años como un
importante agente de nucleización. Un producto se comercializa hace ya años para
crear nieve artificial en las estaciones de esquí con bacterias P. Syringae
deshidratadas, desactivadas con rayos gamma y diluidas en el agua del cañón que
fabrica la nieve.
Brent Christner afirma en el trabajo que publica Science que "mi colega David
Sands, de la Universidad de Montana, propuso el concepto de bioprecipitación
hace 25 años, pero pocos científicos lo tomaron en serio". El equipo de
Christner ha examinado el agua de lluvia en múltiples lugares y ha encontrado
que el principal agente de nucleización tiene un origen biológico, y que las
bacterias tienen la capacidad de provocar la formación de hielo a su alrededor a
temperaturas más altas que el polvo mineral. Este resultado, que convierte en
suceso general lo que antes se tenía por un fenómeno local, puede dar la razón a
algunos biólogos que suponían que la capacidad de las bacterias para provocar
lluvias era una adaptación evolutiva para mejorar su distribución.
En el caso de ciertas bacterias, la presencia de algunas proteínas concretas que
no aparecen en la membrana de otras especies y que son capaces de "nucleizar" el
hielo más rápido, les hacía pensar que esa capacidad era una forma de facilitar
su dispersión, como en el caso de ciertos hongos con esporas especialmente
volátiles.
"Hemos encontrado nucleización de origen biológico desde Luisiana hasta la
Antártida", afirma Christner, en un trabajo multidisciplinar que involucra a
meteorólogos, ecólogos, fitopatólos y microbiólogos "y demuestra que estamos al
comienzo de comprender la intrincada relación entre el clima del planeta y la
biosfera".
David Sands, el científico al que se refiere Brent Christner en el estudio de
Science, ya publicó en 2004 un trabajo sobre la nucleización en torno a
bacterias, en el que propuso tratar las heladas de los campos cultivados "como
se curan las infecciones", diseminando bactericidas.
Fuente: Terra.es, 2 de Marzo de 2008
-El futuro y la obra de arte hecho robot
“Es tímido”, comenta uno de los vigilantes del Museo de Arte Moderno de Nueva York (MoMA). El técnico que está a su lado le corrige: el software de WizKid ha sufrido un error y el robot yace boca abajo, con su cabeza colgando fuera del borde de la mesa. Cualquiera podría pensar que está deprimido.
Uno de sus creadores, Frederic Kaplan , explica que este robot-ordenador pretende revolucionar la forma en la que el hombre se relaciona con la máquina, y para ello revolucionar la forma en que la máquina se relaciona con el hombre. WizKid no tiene teclado, no tiene ratón y no obedece a los comandos por los que se rigen el común de los ordenadores.
Su sistema de seguimiento integrado
es capaz de identificar a un ser humano e interactuar con él, no utiliza un
diálogo verbal pero, dotado de movimiento y una pantalla que emula gestos,
WizKid se muestra curioso e intuitivo cuando percibe a su alrededor la
presencia humana, respondiendo a los estímulos externos con precisión y
empatía. El presente de WizKid y su futuro está determinado por los actuales avances de reconocimiento gestual, presencial y su capacidad de visión, que le confieren una diferenciación básica respecto de un ordenador tradicional. |
Wikid, el robot interactivo |
Funciones en desarrollo
Kaplan lo define como una pantalla de ordenador con una cámara, unida a un
cuello robot y, si bien su apariencia pueda recordar a la de un ordenador, “se
trata de un robot capaz de mirar en diferentes direcciones e interactuar cara a
cara con el usuario”, explica.
Wizkid todavía está muy lejos de la
versatilidad del ficticio robot de La guerra de las galaxias C-3PO, y su
funcionalidad hasta el momento es más reducida que la de
ASIMO
, el robot creado por Honda. A diferencia de éstos, WizKid no trata de imitar a
ser humano físicamente: no tiene brazos, no tiene piernas, apenas un cuerpo que
contiene todos los circuitos y mecánica del cuello robot responsable de sostener
sus órganos de interacción, compuestos por su monitor a modo de rostro y su
cámara como si fueran ojos.
Uno de los aspectos más sorprendentes
de Wizkid es cómo logra emocionar a los visitantes que se detienen ante él. No
sólo se muestra inquisitivo, examina, valora el entorno en el que se mueve,
incorpora otros personajes a la relación con sus interlocutores y crea vínculos
de comunicación que nutren su memoria y le hacen si bien no más inteligente en
cada ocasión, sí más acertado en la atención que presta.
Para crear este efecto fue necesario incorporar al equipo de científicos y técnicos que han trabajado en la Escuela Politécnica Federal de Lausanne (Suiza), del que forma parte Fréderic Kaplan, el saber de Martino d’Esposito, procedente de la Universidad de Arte y Diseño de la misma ciudad y experto en diseño de objetos de hogar y mobiliario. WizKid, al igual que el resto de las creaciones en las que ha participado d’Esposito, intenta comunicarse con aquellos que lo utilizan, “echar una mano sin perder, no obstante, su identidad de objeto”. El reto, por tanto, ha sido crear algo original “un ordenador con el que comunicarse de manera más natural manteniendo su forma no humana, su personalidad de robot. “La idea era que sus gestos fueran los que le humanizaran, no su apariencia”, resume.
Fuente: publico.es, 2 de Marzo de 2008
-La ciencia y la última verdad
El otro día una periodista le preguntaba a un eminente biólogo sobre cómo entendía una frase atribuida a Louis Pasteur:" Un poco de ciencia nos aleja de Dios y mucha ciencia nos acerca a Él”. El científico le contestó, pero no en los términos en que, creo, se refería Pasteur. Creo que él se refería a que la ciencia con un enfoque reduccionista, como conocimiento estanco sin conexión con el resto del conocimiento (“un poco de ciencia”) se queda en la superficie, nos aleja de las causas últimas y por tanto de Dios, pero cuando ahondamos en todas las maravillas, en toda la belleza que encierran las leyes que rigen este universo y sus conexiones aparece una humildad que nos ayuda a acercarnos a Dios.
Muchos de los grandes científicos, aunque no fueran religiosos, han experimentado esa cercanía de Dios, esa grandeza que sólo se intuye pero no se abarca (ver Los físicos y la metafísica). Lo he observado en físicos, en matemáticos, en entomólogos o en bacteriólogos. Recuerdo un artículo en el que un gran científico que se había pasado la vida estudiando las infecciones bacterianas se rendía ante la “inteligencia” de las bacterias, sí, he dicho bien, “la inteligencia” con que las bacterias logran burlar todos nuestros métodos para aniquilarlas.
Conforme profundizamos en cualquier aspecto científico, sea matemático, físico, o de cualquier otra índole, se observan múltiples conexiones que antes se ignoraban. Los grandes retos matemáticos, como el teorema de Fermat o la conjetura de Goldbach, aparecen como un determinado problema sobre potencias o sobre números primos y acaban involucrando las áreas más dispares de las matemáticas y haciéndolas avanzar por los caminos más inesperados.
Los grandes protagonistas de las ciencias, a menudo, trabajan con metáforas, recurso procedente de conocimiento general aplicado a cuestiones científicas particulares. En el caso de Niels Bohr, por ejemplo, sacó su poderosa idea de la complementariedad, en mecánica cuántica, de las llamadas imágenes “metamórficas” en las que puedes ver a la vez dos figuras diferentes según te fijes en su parte blanca o en su parte negra. Bohr siempre estuvo muy interesado por el arte y llegó a la conclusión de que, incluso, en la vida real y ciertamente en el ámbito de la física había que pensar en una especie de existencia simultánea de contrarios. |
|
Así pudo suponer que las partículas podían comportarse también como ondas y al contrario, que es lo que realmente ocurre con la luz y con los electrones, por ejemplo. Dependiendo de lo que tratemos de averiguar, y del experimento que diseñemos la luz será una partícula llamada fotón o el electrón una onda.
En el caso de Einstein, una de sus obsesiones temáticas era la unidad, la generalización, de tal manera que gracias a un esfuerzo de generalización Einstein pasó de la relatividad especial a la relatividad generalizada y de aquí a la teoría del campo unificado, la teoría del todo sobre la que se investiga, actualmente, en todas las universidades del mundo (supercuerdas, teoría M, supergravedad…) ¿ De dónde viene todo eso? Viene de las pasiones románticas de los filósofos y poetas del siglo XIX. Gente como Oersted ( descubrió el magnetismo que produce la corriente eléctrica) que era químico y filósofo querían la unificación, pensaban, como Kant les había enseñado, que en la ciencia todo podía explicarse en términos de una Grundkraft, una fuerza fundamental. La electricidad, el magnetismo, la gravitación…eran diferentes aspectos de una sola entidad fundamental…
La ciencia aborda en la actualidad cuestiones que no hace tanto eran consideradas puramente filosóficas: El espacio, el tiempo, el principio y el final del Universo, el propio origen de nuestra percepción y la conexión de ésta con el mundo objetivo, o incluso la propia cuestión de si existe ese mundo objetivo independiente del observador. La ciencia está dando un paso hacia el conocimiento más general y profundo, o como decía Pasteur : “ ... la mucha ciencia”. La unificación coherente, la conexión de las ramas del conocimiento parece el camino a seguir para alcanzar verdades cada vez más fundamentales, aunque todavía estamos lejos de la última verdad.
Fuente: librodenotas.com, 1 de Marzo de 2008