lunes, 22 de diciembre de 2014

El misterioso metano de Marte

La existencia de metano en la atmósfera marciana ha venido siendo un controvertido problema desde que se anunció su detección por primera vez hace más de una década. En la Tierra, la práctica totalidad del metano atmosférico procede de la actividad biológica, y solo un pequeño porcentaje tiene su origen en procesos volcánicos o en la liberación del que está contenido en clatratos, por lo que su presunta presencia en Marte dio pábulo a la posibilidad de que también en el Planeta Rojo algún tipo de vida pudiera haberlo generado en el pasado, habiendo quedado atrapado en el permafrost para liberarse luego circunstancialmente, o incluso seguir generándolo en la actualidad.
La primera medida positiva se realizó en 1999 mediante el Telescopio Canadá-Francia-Hawái, en Mauna Kea, que midió un valor de 10 ppbv (partes por mil millones en volumen) en término medio en la atmósfera de Marte. Posteriormente, el Telescopio Infrarrojo de la NASA (Infrared Telescope Facility, IRTF), midió concentraciones máximas de hasta 45 ppbv durante el verano en determinadas zonas del planeta, y se empezaron a utilizar los orbitadores operativos para intentar precisar los datos con medidas más cercanas. En aquel momento se contaba con Mars Express, que a través de su Espectrómetro Planetario Fourier (Planetary Fourier Spectrometer, PFS), obtuvo un valor medio global de 15 ppbv en la concentración de metano, con picos veraniegos de 45 ppbv en el Polo Norte provocados por emanaciones bien delimitadas en determinadas áreas del planeta. Por su parte, Mars Global Surveyor con su Espectrómetro de Emisión Térmica (Thermal Emission Spectrometer, TES), reportó valores de 5 a 60 ppbv también en diferentes zonas bien localizadas. Las mediciones realizadas con todos estos instrumentos, además de disconformes, resultaban en ciertos aspectos contradictorias, aunque mostraban algunos detalles comunes: el metano parecía emanar de fuentes localizadas espacialmente y, una vez en la atmósfera, desaparecía de forma misteriosa. Este hecho resultaba sumamente extraño puesto que, según los modelos de circulación general y fotoquímicos usados como referencia, de haber una cantidad cualquiera de metano en la atmósfera su permanencia se prolongaría durante unos 300 años en término medio, durante los que además debería acabar uniformemente distribuido por toda la atmósfera; ningún proceso conocido es capaz de eliminarlo con la rapidez con la que esto parecía ocurrir en Marte.
Siendo el comportamiento del metano inexplicable de acuerdo con los modelos atmosféricos de Circulación General y Fotoquímicos, que en definitiva compendian el conocimiento acumulado sobre la dinámica atmosférica, y dado que los valores obtenidos eran del orden de partes por mil millones y se habían obtenido en el límite de la capacidad de medida de los instrumentos utilizados, algunos científicos empezaron a poner en cuestión las detecciones al considerar que los márgenes de error derivados de estas circunstancias eran excesivos para otorgar validez a las medidas obtenidas. Entre otros estaba por ejemplo Franck Lefèvre, del Laboratoire Atmosphères, Milieux, Observations Spatiales (LATMOS), a quién tuvimos la ocasión de entrevistar para este blog hace unos meses en relación con esta cuestión precisamente, cuando las prospecciones de Curiosity en busca del metano aún no habían proporcionado datos conclusivos.
Pero finalmente, el pasado día 16 de diciembre durante el Congreso de Otoño de la American Geophysical Union (AGU Fall Meeting) celebrado en San Francisco, el investigador principal de la misión MSL John Grotzinger notificó en rueda de prensa la detección inequívoca de metano en la atmósfera marciana por el vehículo robótico Curiosity, sin duda uno de los más llamativos anuncios científicos de 2014, porque zanja definitivamente la vieja cuestión.
El nuevo estudio, que fue publicado en la revista Science el mismo día 16 tras el anuncio de Grotzinger y que firman los científicos españoles del equipo científico de MSL Fco. Javier Martín Torres y Mª Paz Zorzano Mier, se basa en un análisis exhaustivo de los datos obtenidos durante 605 soles o días marcianos en el que se han observado valores basales de metano en la capa límite atmosférica de la zona de operación de en torno a 0,7 ppbv. Este periodo abarca casi todo un año marciano con sus correspondientes variaciones estacionales, durante el que Curiosity ha recorrido unos 8 kilómetros sobre el fondo del cráter Gale. Sobre este valor, se ha detectado además un incremento episódico de hasta 7 ppbv durante 60 soles, en lo que se cree fue una emisión localizada y de corta duración, al cabo de los cuales el metano volvió a desaparecer. En cualquier caso la detección es ahora concluyente puesto que se ha obtenido con el Espectrómetro Láser Sintonizable (Tunable Laser Spectrometer, TLS) que forma parte del instrumento SAM (Sample Analysis At Mars). TLS consta de dos canales para efectuar análisis en el rango de longitudes de onda del infrarrojo, el segundo de los cuales mide en 3,27 μm y ha sido dispuesto específicamente para la detección de metano por su huella espectrográfica de tres líneas bien definidas e inequívocas. El dispositivo ofrece una resolución de 0,0002 cm-1, y además el método utilizado para hacer las mediciones es, según destacan los autores del trabajo, “simple, no invasivo, y sensible”, y ha incluido medidas en vacío y medidas de muestras enriquecidas artificialmente con metano para contrastarlas con las efectuadas sobre muestras de ambiente marciano, reduciendo de esta forma el margen de error hasta unos valores que permiten considerar los datos incuestionables.
Imagen del Espectrómetro Láser Sintonizable de SAM


En definitiva, el hallazgo supone un paso adelante muy importante en la caracterización del entorno marciano y la contestación definitiva de una cuestión abierta desde hace mucho tiempo, pero plantea al mismo tiempo dos nuevos problemas que serán sin duda más arduos de resolver: definir las fuentes de las que surgen las emanaciones del gas en eventos delimitados tanto espacial como temporalmente, y desvelar los mecanismos por los que después es eliminado. Quizá estos últimos sean más misteriosos, porque mientras que las primeras se pueden atribuir a procesos conocidos que pueden operar de forma particular en Marte (entre los que no se puede descartar de momento la biogénesis pasada o presente, o ambas), las ideas sobre cuáles pueden ser los segundos son más vagas y especulativas, y ninguno de los procesos propuestos hasta ahora consigue dar cuenta de su eliminación, al menos con la rapidez con la que ocurre. Por lo tanto se abren nuevos desafíos científicos ante este descubrimiento que se afrontarán inmediatamente con las nuevas sondas MAVEN, que llegó recientemente a Marte, y Trace Gas Orbiter (TGO), que será enviado en 2016 dentro del programa Exo Mars. Sus instrumentos proporcionarán datos globales en los que contextualizar el fenómeno para su mejor comprensión. También la estación meteorológica española REMS (Rover Environmental Monitoring Station) contribuirá a establecer las posibles correlaciones entre los eventos de incremento de la concentración de metano con los parámetros atmosféricos que monitoriza, que de momento no han podido ser determinadas y requerirán posteriores estudios específicamente dedicados.

viernes, 21 de noviembre de 2014

Y eso, ¿para qué sirve?; La pregunta más frecuente relativa a la ciencia

Es muy posible que un alto porcentaje de científicos, cuando se ha molestado en explicar fuera de su ámbito laboral los asuntos sobre los que investiga, se haya visto enfrentado a esta insidiosa pregunta más de una vez: Y eso… ¿para qué sirve?, espetada en muchas ocasiones con un despectivo tono de sorna inspirada en la previa convicción de que dedicar dinero y tiempo a “eso” es un mero desperdicio.
La pregunta resume una actitud de menosprecio hacia la ciencia que es particularmente notoria en nuestro país, donde se puede calificar de endémica y permea todos los estratos socioeconómicos y culturales desde la base hasta la cúpula política de turno y sin distinción de signo. Nadie, a lo largo y ancho de la estructura social, parece concebir que “eso”, la ciencia, entendida a escala general, sirva para algo. Hasta la revista Nature ha dedicado recientemente un artículo (http://news.sciencemag.org/europe/2014/07/spain-needs-major-cultural-change-do-better-science-international-panel-says) al estado del sistema científico español, en el que un grupo de expertos internacional concluye que sería necesario un “gran cambio cultural para hacer mejor ciencia”; una sugerencia que debería ser agradecida y atendida, lo que no parece probable que suceda porque ni siquiera existe una conciencia previa de que sea necesario “hacer ciencia”, ni mejor ni peor. En el más favorable de los casos se admira cualquier actividad investigadora si conduce de forma inmediata a la obtención de una aplicación práctica que mejore cualquier aspecto de nuestra vida, pero todo lo que no la tenga se considera automáticamente como un caro entretenimiento. Incluso los divulgadores científicos suelen asumir este criterio y, a menudo, se sienten en la obligación de justificar los asuntos científicos que difunden mediante la mención a los supuestos beneficios que el desarrollo de su investigación reportará a bote pronto. Es común, por recurrir a un caso especialmente notorio, que un destacado porcentaje de noticias referidas a avances en materia de citología o fisiología se rematen con la promesa (en muchas ocasiones traída por los pelos) de una inminente aplicación a la cura o el tratamiento del cáncer, el alzheimer o cualquier otra enfermedad cuanto más terrible mejor, por más remota que tal aplicación, si la hubiere, pudiera resultar.
Las disciplinas citadas se libran mediante este artificio del fastidioso escrutinio, otras sencillamente suelen caer lejos del conocimiento general y ni siquiera son consideradas pero algunos campos como por ejemplo la exploración espacial, que gracias a sus aspectos más espectaculares encuentra cierto eco en los medios de comunicación, es una actividad que, tras el pasmo inicial que sus actividades pueden llegar a causar en la opinión pública, es percibida finalmente como una serie de alardes tecnológicos caprichosos que se resuelven en su propia ejecución, para la cual es necesario invertir cantidades “astronómicas” de dinero; un despilfarro injustificable al que habría que anteponer innumerables prioridades.
Esta es una postura cuando menos absurda, por no decir aberrante, fruto de una concepción instrumental que sólo contribuye a empobrecer la ciencia con graves consecuencias y que puede ponerse en evidencia con un sencillo ejercicio de recapacitación histórica: cuando Coulomb, Volta o Galvani afrontaron el estudio de los fenómenos eléctricos en el siglo XVIII no lo hicieron con la intención previa y clara de establecer al cabo extensas redes de suministro energético para las poblaciones humanas, que sólo empezarían a desarrollarse un siglo después de sus trabajos; lo hicieron por el mero afán, humano dónde los haya, de comprender un fenómeno natural conocido desde la antigüedad. Cabe plantearse qué habría ocurrido si, en aquel momento, alguien hubiera cuestionado su dedicación con la interrogación de marras (y eso, ¿para qué sirve?) que tampoco tenía una contestación satisfactoria entonces. Y este es sólo uno de multitud de casos similares que se podrían relacionar.
Bajando hasta el mismo nivel de impertinencia en el que normalmente se sitúa quién la formula, se podría contestar que tampoco parece muy útil, por poner un ejemplo facilón, pagarle a un joven varias decenas de millones de euros (de los que, no nos engañemos, los ciudadanos aportamos al final una buena parte) para que exhiba sus habilidades jugando a la pelota los fines de semana, y nadie suele formularse la pregunta en relación a este asunto. Pero bueno, esto sería plantear una disputa vana en términos tabernarios poco acordes a la enjundia de la cuestión de fondo. Y además, hay que señalar que las aplicaciones y beneficios derivados de la actividad científica siempre acaban llegando, si bien de una forma imprevisible; quizá no inmediata ni directa en muchos casos (en los que acaban llegando a través de las intrincadas relaciones con el desarrollo tecnológico), pero que acaba verificándose antes o después y de un modo u otro. Por lo tanto, estos beneficios inmediatos no deben constituir ni la base ni el horizonte de la actividad científica en ningún caso, porque corresponden a un punto de vista miope y mezquino. En este sentido y retomando el asunto de la exploración espacial que se ha traído como ejemplo, se pueden alegar a bote pronto una serie de “paraqués” que podrían contestar la pregunta. De entrada, el gasto relativamente elevado que supone la puesta en marcha de una misión en este campo, no repercute en una persona y su estrecho círculo de adláteres, como sucede en el caso de determinado juego de pelota por todos conocido y de cuyo nombre no es necesario acordarse, sino que se invierte en gran medida en sufragar el trabajo de cientos de personas dedicadas a su ejecución. Gran parte de este trabajo, al menos en las etapas previas, consiste en la búsqueda soluciones innovadoras a problemas tecnológicos que se plantean para su desarrollo; ésto ya abre un extenso campo de posibilidades “prácticas” que pueden ser explotadas a renglón seguido. Pero además incrementará el conocimiento de nuestro entorno más amplio, que será fundamental para comprender mejor los procesos que tienen lugar en nuestro planeta y los mecanismos que determinarán su evolución, un conocimiento que quizá no nos interese como individuos, pero que desde luego nos incumbe como miembros de la especie. Lo mismo se podría argumentar en relación a cualquier otra disciplina o campo de investigación, desde las matemáticas a las ciencias del sistema tierra, desde la biología a la física teórica. Las miras de la ciencia son amplias y profundas, y el mundo en el que vivimos ha sido configurado en gran medida por la ciencia, como es fácil deducir del más somero repaso a la historia de la humanidad.
Así que, más ciencia por favor. Hagamos ciencia, pero no para nada en concreto aparte de para saber por qué, para saber cómo, para saber más… Lo demás vendrá detrás irremisiblemente.

viernes, 26 de septiembre de 2014

Charlando con el profesor Marcus

Entrevista con el premio Nobel de Química Rudolph Marcus
Por
Juan Fco. Buenestado Castro


El profesor Rudolph A. Marcus, ganador del premio Nobel de Química en 1992, ha estado de visita en Granada invitado por el Dr. F. Javier Martín Torres, director del Grupo de Ciencias Planetarias y Habitabilidad (grupo adscrito al Instituto Andaluz de Ciencias de la Tierra con sede en esta ciudad) durante los primeros días de septiembre en los que, además de participar en diversos actos protocolarios programados por la Universidad de Granada y trabajar con su anfitrión en el establecimiento de una línea de investigación conjunta, nos ha concedido una entrevista, la última de una serie de ellas que ha mantenido con diversos medios de comunicación a lo largo de su estancia.
Ésta se produce en el IACT, en un ambiente más distendido que las anteriores, en las que imperaba inevitablemente cierta rigidez formal. Quizá sufriendo todavía cierta incomodidad residual ante un nuevo cuestionario por más relajada que fuera la situación, opta por marcar el tono informal de la charla e inicia el encuentro recordando una anécdota que vivió en la universidad. Cuenta que un alumno reclamó a uno de sus colegas por la nota de un examen en el que había obtenido la calificación de aprobado, alegando que ya había hecho un examen de preguntas muy similares con otro profesor y en aquella ocasión había conseguido un sobresaliente. Su colega le replicó al alumno que, dado lo ingrato del trabajo docente y la especial dificultad que le suponía tener que estar elaborando constantemente nuevas preguntas, había decidido que era más cómodo cambiar las respuestas. Se muestra así como el hombre encantador y afable que es, propenso al acercamiento a través de la buena conversación. Nos habla de sus vivencias, de su familia, de sus pasiones (que se circunscriben al mundo de la ciencia fundamentalmente aunque incluyen el esquí), haciéndonos disfrutar de su compañía en todo momento, y se interesa por las nuestras con sincero interés; por detalles de nuestras circunstancias, de nuestros gustos, de la vida en nuestro país (sobre el que parece haberse informado expresa y previamente). Su voz, profunda e hipnótica, no acusa el más mínimo deterioro tras los 91 años que ya lleva en uso, como tampoco se notan en su amabilidad, su curiosidad, ni su entusiasmo científico. Nos queda de todas formas la duda de si habrá decidido aplicar la técnica de su colega en esta ocasión y su relato haya sido una advertencia.
El logro que le valió la concesión del premio fue “su contribución a la teoría de la transferencia electrónica en los sistemas químicos”, un tema que puede parecer indescifrablemente arcano, pero que trata sobre un fenómeno fundamental en innumerables interacciones químicas. Nos explica que en una reacción de transferencia electrónica típica, los reactivos que intervienen son idénticos a los productos resultantes (a salvo de sutiles diferencias estructurales que suponen un cambio en su estado termodinámico), y se produce sin que se rompan enlaces ni se forme ninguno nuevo, lo que la convierte en la más simple de las reacciones químicas posibles, que está en la base de una gran cantidad de procesos naturales, y cuya comprensión abrió todo un nuevo campo de estudio dentro de la química y planteó una profunda reformulación de otros muchos ya existentes.

Nuestra primera pregunta es precisamente sobre la trascendencia de su teoría en el ámbito de la química globalmente considerado.
Nos contesta que efectivamente su importancia es primordial, porque “aunque hay otros tipos de reacción, la transferencia electrónica es la más común en la naturaleza” y está en la base de los procesos químicos a partir de los cuales se producen muchas de esas otras reacciones y procesos. Esta condición elemental del fenómeno ha hecho que infinidad de problemas que atañen a muy diferentes áreas de la química estén siendo sometidos a revisión en relación con la transferencia electrónica, y que se hayan abierto innumerables vías de estudio nuevas.

Esta respuesta sugiere que su teoría pudiera suponer lo que Thomas Khun definió como paradigma en su libro La estructura de las revoluciones científicas, en el que define el concepto como aquellas teorías que definen qué se debe investigar, que determinan el tipo de cuestiones que hay que plantear, y que delimitan el marco de interpretación de los resultados científicos a partir de su formulación.
Preguntado sobre este particular, el profesor Marcus considera que su modelo sí se puede considerar como un nuevo paradigma, aunque matiza su respuesta con un prudente “en cierto sentido”, porque ciertamente impone una nueva forma de afrontar las investigaciones teóricas en la gran mayoría de las áreas que abarca la Química. “Sí”, repite para concluir, “en cierto sentido, se puede decir que la teoría de la transferencia electrónica supone un nuevo paradigma en química”.

El profesor Marcus suele contar que su encuentro con el tema de la transferencia electrónica se produjo en buena medida gracias a la confluencia de una serie de circunstancias casuales. Inclinado desde sus inicios en el trabajo de investigación al tratamiento teórico de los problemas (cuando, recuerda, no había en Canadá, su país de origen y de formación, ni un solo químico teórico con el que trabajar), había logrado ya culminar la formulación de la teoría RRK (de Oscar Knefle Rice, Herman Carl Ramsperger, y L.S. Kassel) que desde entonces se conoce como teoría RRKM con la adición de la inicial de su apellido, y que modela la dinámica de reacciones unimoleculares en fase gaseosa. Pero no había circunstancialmente muchos datos experimentales sobre los que seguir trabajando en el desarrollo de esta línea de estudio y estaba buscando, con actitud abierta y receptiva, algún otro asunto sobre el que investigar desde un punto de vista siempre teórico. En esta tesitura, uno de sus estudiantes le planteó algunas cuestiones sobre un asunto relacionado con polielectrolitos que despertó su interés, y para cuyo estudio se vio obligado a ampliar sus conocimientos de electrostática, en particular sobre los métodos de cálculo de la energía libre en este tipo de sistemas. Cuando poco después se topó (otro “accidente” como lo califica el profesor Marcus) con la cuestión de la transferencia electrónica a través de algunos artículos, el bagaje acumulado le permitió identificar comprensivamente los problemas que se planteaban en este campo, entre los que destacaba la explicación de la variación de velocidades de reacción de transferencia entre distintos tipos de iones observadas experimentalmente, y por supuesto afrontar su resolución. Así, se encontró “accidentalmente” ante un problema, dotado “accidentalmente” con las herramientas para superarlo, lo que consiguió con una brillantez solo al alcance de una mente privilegiada. Hay que señalar, para compensar la modestia con la que el profesor Marcus lo relata, que el problema no era nuevo y ya había sido tratado por notables científicos sin éxito y que, al margen de la favorable secuencia de circunstancias, él supo aplicar sus conocimientos para definir la solución, lo que según sus declaraciones le llevó “un mes de trabajo especialmente intenso” a lo largo del cual el núcleo de su teoría quedó estructurado, siendo desarrollado luego mediante la publicación de una serie de artículos entre 1956 y 1965


A sus 91 años, el profesor Marcus aún siente entusiasmo ante la “excitación de trabajar en cosas nuevas y diferentes que nunca antes se han visto…de aprender”

El carácter fundamental y revolucionario del modelo desarrollado por el profesor Marcus es a estas alturas unánimemente reconocido y ha sido ampliamente utilizado en multitud de áreas de la química en las que la transferencia electrónica tiene una importancia capital. Es el caso de estudios sobre electrodos semiconductores, transferencia electrónica en sólidos y polímeros, dinámica química de soluciones, conversión de energía solar, fotoquímica atmosférica, quimioluminiscencia, fotosíntesis o funcionamiento de proteínas, entre otros muchos que se podrían citar.


Para ejemplificar la relevancia que la transferencia electrónica tiene en alguno de estos asuntos, le preguntamos al profesor Marcus qué papel juega el fenómeno concretamente en los procesos de respiración celular y en la fotosíntesis.
Contesta describiendo como en los sistemas biológicos la transferencia de electrones es un mecanismo básico por el que “los electrones circulan a través de cadenas de transporte para impulsar el paso de carga a través de la membrana, estableciendo un potencial electroquímico que mueve otras reacciones como la formación de ATP…” En definitiva, la transferencia electrónica es, tanto en el caso de la respiración como en el de la fotosíntesis, un proceso fundamental, “una forma de producir un gradiente eléctrico a través de la membrana a partir del cual se impulsa toda una secuencia de eventos”.

Suponiendo que además de estos últimos quedarán muchos otros asuntos, aún dentro del ámbito de la bioquímica, pendientes de reformulación a la luz de la teoría de transferencia electrónica, pedimos al profesor Marcus que nos indique cuales serían.
Tras un silencio reflexivo que se prolonga durante 12 segundos y en el que intercala un halagador “buena pregunta”, comienza su respuesta haciendo un repaso por lo que sí se está haciendo de hecho. Alude a los recientes estudios encaminados a calcular las velocidades de reacción electrónica mediante expresiones desarrolladas a partir de mecánica cuántica. Pero, advierte, “algunas reacciones de transferencia electrónica son más complicadas porque se completan con una transferencia de protones, como ocurre con varias proteínas en las llamadas “transferencias electrónicas acopladas a protón”, o involucran a electrones procedentes de diferentes partes de la proteína. “Así que hay capas de complicación creciente en el estudio de estos fenómenos, y siempre quedan cosas por hacer en estas líneas de investigación”. Menciona también el caso de sistemas bioquímicos en los que hay que tener en cuenta las distancias de transferencia, o aquellos en los que se produce una transferencia simultánea de otras partículas como ejemplos de áreas en las que queda pendiente investigación apoyada en su teoría.

La consecución de este amplio predicamento, sin embargo, no fue ni mucho menos automática e inmediata. Un somero repaso de la cronología muestra como desde la publicación de los artículos en los que la propuso hasta que se reconoció su trascendencia con la concesión a su autor del premio Nobel pasaron varias décadas, durante las que fue objeto de controversia a pesar de que configuraba un modelo con gran capacidad de explicación, una circunstancia que sin duda merece atención y que nadie mejor que su principal protagonista puede aclarar.

El problema, según el profesor Marcus, radicó en un determinado punto de su teoría, porque “mientras algunos aspectos fueron comprobados pronto, había uno, extraordinario e inesperado, cuya comprobación llevó veinticinco años”, probablemente, sugiere, porque cuando se intentaba confirmar experimentalmente, se obtenían efectos contradictorios, y no se entendía que un proceso que debía discurrir “cuesta abajo” (es decir, favorable energéticamente), se viera “forzado a ir lento”, así que la doctrina, nos comenta, encontró una ruta alternativa por la que la reacción se producía como era de esperar eludiendo resultados que se consideraban absurdos. Finalmente, termina, se consiguió diseñar un experimento con el adecuado control que evitaba que ocurrieran procesos no deseados bajo las condiciones elegidas y el problemático aspecto se verificó.
El controvertido punto de la teoría es en concreto una chocante predicción de su modelo, para cuya elaboración se barajó entre otros parámetros la energía libre de Gibbs, que permite establecer si una reacción cualquiera tendrá lugar espontáneamente. Esto ocurrirá siempre que esta energía sea menor en los productos que en los reactivos, es decir, que la reacción sea exergónica, liberándose energía en el proceso y dando lugar a productos que son termodinámicamente más estables que los reactivos. La reacción será más rápida cuanto mayor sea la diferencia entre la energía libre de Gibbs de los reactivos y de los productos finales. Pero la Teoría de Marcus (como también es conocido su modelo) mostraba que la tasa de transferencia electrónica efectivamente aumentaba según la reacción se hace más exergónica pero sólo hasta cierto punto, a partir del cual empezaba a ocurrir lo contrario, en lo que se denominó la Región Invertida de Marcus. Este era el “aspecto” que la doctrina contempló como “absurdo” durante mucho tiempo, hasta que John R. Miller, a la sazón en el Argonne National Laboratory, consiguió verificar el efecto experimentalmente de forma fehaciente.

Un detalle que llama la atención en cuanto se indaga en la vida y obra del profesor Marcus es la insistente mención al trabajo de investigación teórico que se puede encontrar. Como último ejemplo, la conferencia que ofreció en el Salón de Grados de la Facultad de Ciencias de Granada se tituló Ventures in Science, Theory and Experiment, pero ya en la ceremonia de entrega del premio Nobel leyó la ponencia titulada Electron Transfer Reactions in Chemistry: Theory and Experiment, y hemos recordado más arriba como relata sus dificultades para dedicarse a esta vertiente del trabajo investigador en sus comienzos ante la desolación que sufría Canadá en el área de la química teórica. También ha contado en varias ocasiones como ante este panorama decidió, junto con un colega, instituir un “Seminario Semanal de Dos Personas”, en el que alternativamente estudiaban y exponían al otro algún tema de su interés que luego discutían.

Pensando que quizá pueda persistir cierto déficit de trabajo teórico dentro de la Química, le pedimos su opinión al respecto
En cuanto oye la mención a su preocupación por el desarrollo teórico su entusiasmo se desata… “Oh! Sí, hay muchos problemas en los que trabajar…”, pero en cuanto acotamos la pregunta a la posible carencia, en general, de base teórica en la disciplina lo niega, contestando que “siempre hay nuevos estudios, nuevas técnicas, nuevos experimentos, nuevos sistemas” que impulsan constantemente el desarrollo teórico. “Ahora mismo”, continua poniendo un ejemplo, “hay problemas muy excitantes, como tratar de explicar por qué ciertos materiales llamados perovskitas son maravillosos conversores de energía solar en el efecto fotovoltaico, un campo que se ha expandido en unos pocos años, o comprender en términos muy detallados la movilidad electrónica en semiconductores”.

Volvemos al campo de la bioquímica, dentro del cual la transferencia electrónica sea quizá de especial importancia por la cantidad de procesos en los que es relevante. Una de las actuales líneas de investigación que sigue su grupo en el Instituto Tecnológico de California (CalTech) es precisamente la catálisis de reacciones orgánicas en agua. Su entusiasmo se vuelve a disparar cuando oye la referencia.. “sí, es excitante… es divertido” antes de que acabemos de formular la siguiente pregunta sobre la importancia del agua como disolvente.
Nos cuenta a este respecto que “…un famoso químico orgánico que ganó el premio Nobel por estudios totalmente diferentes a la química del agua, experimentó una particular reacción de dos compuestos orgánicos con los que formó una solución que luego perturbó con agua. Sin ella, la reacción se prolongaba 48 horas, pero al ser añadida se producía en 10 minutos”. Intrigado por el fenómeno, pidió una explicación a un equipo de químicos teóricos que trabajaban en las propiedades del agua y que no supieron dársela. “Pero recuerdo otro tipo de experimento”, continúa el profesor Marcus, “que realizó un físico de formación que trabajaba en química en la Universidad de California en Berkeley, en el que encontró que el agua sobre la superficie de un compuesto orgánico no tenía todos sus posibles enlaces de hidrógeno unidos a oxígenos”. Y resultó ser en estos hidrógenos no enlazados en los que radica la explicación de la rapidez de la reacción anterior, concluye.
Ilustra así la importancia del agua y la cantidad de aspectos de su química que aún quedan por estudiar en profundidad, sobre todo en el ámbito de la bioquímica, y muchos de los cuales deben ser planteados con referencia a la transferencia electrónica.

Yendo un paso más allá en el tema, preguntamos a renglón seguido si, dadas sus peculiares características, se atrevería a imaginar algún tipo de vida que no estuviera inmersa en agua.
“Esa es una pregunta muy diferente” nos hace notar, y tras otro prudente silencio reflexivo su contestación es un definitivo “no lo sé”. “Habría que pensar en toda la química porque es un tema grande, muy grande…tendría que pensar en él… probablemente no muchos lo han hecho…uno tendría que pensar en todos los diferentes tipos de procesos químicos… No sé la respuesta… “estaría sorprendido” si tal vida apareciera “pero no sé la respuesta”.
Puede parecer sorprendente este tipo de respuesta en un premio Nobel que lleva más de 70 años trabajando, pero hay que advertir que una de las cosas que parecen apreciar primero aquellos que ascienden a las cimas del conocimiento es la extensión de la ignorancia que queda por conquistar. Además su respuesta no deja de ser esclarecedora, porque nos hace ver la magnitud del asunto propuesto, nos hace reflexionar sobre la ligereza y poco fundamento con el que en muchas ocasiones se plantea la cuestión en ciertos ámbitos científicos, y nos deja avisados para ponderarla más adecuadamente cuando volvamos a encontrarla.

Pasando a temas más mundanos y de general preocupación, le pedimos ahora que nos dé su opinión sobre la investigación en torno al ozono en nuestra atmósfera.
No duda que es “importante reducir el agujero de la capa de ozono” y recuerda que él mismo fue miembro en su momento de un comité en Estados Unidos cuyas predicciones sobre los efectos de los clorofluorocarbonos (CFC’s) en ella y las consecuencias que podría acarrear fueron tomadas en cuenta por el Congreso, que prohibió su uso como propelente para los aerosoles en lo sucesivo.


Las decisiones políticas deberían apoyarse en una valoración de las mejores opciones, y la buena ciencia ofrece una base lógica para plantearlas .

Y, al hilo de esta respuesta, pedimos al profesor Marcus que nos diga si la ciencia debería jugar un papel más importante en la actividad política.

“Creo que debería, pero soy un científico” nos dice, para seguidamente justificar su postura más allá de su condición de interesado. Piensa que las decisiones políticas deben apoyarse en “alguna valoración de las mejores opciones”, y no atender a las presiones de los diferentes grupos que financian o apoyan a los partidos políticos. La ciencia, “si es buena ciencia” ofrece “una base lógica”, unas soluciones “que se pueden comprobar yendo a un laboratorio, muy concretas, no son cosas imaginarias que la gente tiene en su mente” porque simplemente la ha recibido a través de la educación. “Como muchos otros científicos, soy un firme creyente en la importancia de la ciencia para cada país y para el mundo”. “Pero”, añade en tono de lamento, “hay mucha gente que no es científica en sus puntos de vista, y propone alternativas no verificables en las que depositan una confiada creencia…”

En cualquier caso, sea más o menos atendida, coincidimos con el profesor Marcus en que la ciencia debe preocuparse por los problemas más acuciantes del mundo actual, y nos interesamos por saber cuáles son estos a su juicio.
“En primer lugar, está claro que deberíamos hacer algo respecto del dióxido de carbono; esto es completamente claro. Esto significa menos combustibles fósiles y encontrar una forma de contener el CO2”. “La principal solución es quizá la energía solar”, área en la que su grupo está desarrollando una de sus líneas de investigación, “pero también la energía nuclear si se encuentra una forma de manejar los materiales radioactivos…” (es notable que, como hombre de ciencia no ha asumido el tabú que actualmente supone este recurso energético ni acata la corrección política que impone evitar su mera mención) “Pero creo que simplemente habría que reducir el uso de combustibles o encontrar una manera de evitar la contaminación”. A continuación matiza este planteamiento básico situando el problema en su adecuado entorno geopolítico, que conduce inevitablemente a cierta desesperanza, cuando dice que “las naciones son lo que son”, y tienen sus expectativas y sus propios planes, dando a entender que una solución aunada a nivel internacional es hoy por hoy complicada. Recuerda además que ha trabajado en alguna ocasión en una compañía carbonífera en China en la que “tuvo la impresión de que había preocupación por el problema, y se hacían esfuerzos para buscar soluciones”, aunque reconoce que en definitiva las compañías existen para hacer dinero y que “aunque haya buenas intenciones” no se sabe cómo de lejos pueden llegar en este camino.

Nos interesa también saber cuáles son, dentro de la Química y según sus previsiones, los grandes temas de investigación en los que se avanzará de ahora en adelante.
Nos advierte que no es la primera vez que se enfrenta a esta pregunta. Ya en cierta ocasión, un periodista le pidió que hiciera una predicción de hacia dónde evolucionaría la investigación en los siguientes 50 años. “No lo sé…” le contestó entonces, “…pero déjeme hacer otra cosa; permítame retroceder 50 años y preguntarme que hubiera predicho en aquel momento”. De este ejercicio resultó que “nada” de lo que hubiera podido prever era una realidad cuando fue preguntado. “La belleza de la ciencia” sigue “son las cosas imprevistas. ¿Quién hubiera podido predecir hace 50 años que en ciertos tipos de sustancias acabaría siendo posible observar una simple molécula…¡una molécula!” repite con enfático asombro. “Si algo es predecible es porque ha sido estudiado ya y es comprendido, pero predecir algo nuevo es un gran desafío. Quizá alguien que ha pensado mucho sobre ello y sobre lo que se hace en un determinado tiempo pudiera hacer este tipo de predicciones”. Pero reconoce que él no es capaz.

Un último detalle del trabajo actual del profesor Marcus que nos ha llamado la atención es la variedad de asuntos contemplados en el programa de trabajo de su grupo de investigación, que abarca temas relacionados con tecnología, bioquímica o fotoquímica atmosférica.

“Cuando yo era joven” contesta, “hace diez años”, bromea “hice la mayoría de mi investigación teórica por mí mismo, y podía centrarme en un particular problema intensamente”. Una vez formado su grupo de investigación y dada su “curiosidad por los problemas que tienen que ser contestados” necesariamente tuvo que dispersar su atención hacia diferentes temas y, reconoce, trabajar mucho más, puesto que debe “saber algo sobre muchas cosas diferentes”. Esta situación le supone algún inconveniente, como “la dificultad de profundizar hasta el mismo nivel que cuando solo se trabaja en una cosa”, pero también tiene ventajas que evidentemente le compensan de sobra: “la excitación de trabajar en cosas nuevas y diferentes que nunca antes se han visto…de aprender”.

miércoles, 9 de julio de 2014

Homoquiralidad L en aminoácidos o por qué la vida prefiere las proteínas "zurdas"

La quiralidad es una característica de ciertas sustancias químicas, entre ellas los aminoácidos, por la que se presentan en dos configuraciones relacionadas entre sí como imágenes especulares, que se suele ejemplificar con la consabida referencia a las manos, muy ilustrativa y palpable (nunca mejor dicho). Efectivamente, si enfrentamos nuestras manos (o, para introducir alguna novedad en el manido ejemplo, nuestros pies) observamos que cada una es respecto de la otra como su reflejo, y que no se pueden superponer de ninguna manera porque todos sus elementos quedan siempre orientados en sentido contrario, de forma que siempre hay que contar con un guante y un zapato expresamente fabricado para cada mano y pie que no son intercambiables.
En el caso de los compuestos químicos cada una de estas configuraciones recibe el nombre de enantiómero o isómero óptico, siendo esta última denominación debida al diferente efecto que inducen en un haz de luz polarizada que se haga pasar a través de una disolución que los contenga. Cada uno de ellos provocará el desvío de la luz hacia la izquierda o hacia la derecha recibiendo el nombre distintivo de levógiro o L y dextrógiro o D respectivamente. Pues bien, todos los aminoácidos que utiliza la vida en la construcción de proteínas son quirales con la única excepción de la glicina, y todos se presentan casi exclusivamente en su forma L, cuando en la naturaleza ambas formas se encuentran en igual proporción constituyendo mezclas llamadas racémicas (con un 50% de cada configuración), circunstancia cuya explicación aún no ha sido resuelta por los científicos a pesar de sus esfuerzos y de las numerosas teorías propuestas. Hay que advertir que se vienen identificando cada vez más aminoácidos dextrógiros integrados en diversas proteínas con importantes funciones fisiológicas en algunos casos, pero en su mayoría se producen a partir de aminoácidos L que posteriormente se transforman en D en un proceso relativamente sencillo. Además, su utilidad estriba precisamente en la dificultad para metabolizarlos, por lo que son comunes en secreciones venenosas o en películas protectoras de comunidades bacterianas, aunque según investigaciones recientes también parecen tener un papel importante en ciertos neurotransmisores. En cualquier caso la preeminencia de las formas L es abrumadora y la pregunta no ha perdido interés; ¿por qué precisamente aminoácidos L?
Las respuestas aportadas han sido muchas y variadas: algunos astrofísicos han propuesto que quizá la luz polarizada de una estrella, durante el periodo en el que la vida emergió, habría destruido selectivamente los aminoácidos dextrógiros, y otros han llegado a plantear que la propia Tierra pudo haberse formado con materiales enriquecidos en compuestos L a consecuencia de procesos ocurridos en el disco protoplanetario.
Robert M. Hazen se inclina por pensar que, a partir de una mezcla inicial racémica, alguna circunstancia del entorno físico privilegió una de las configuraciones durante la puesta en marcha de los sucesos químicos que acabaron por constituir la vida. Concretamente, y situándose en el escenario de un origen mineral de la vida, propone la concurrencia de cristales minerales en la selección de una particular configuración. Algunos cristales minerales tienen una estructura superficial especular, con caras de afinidad levógira y dextrógira que se presentan en igual número, de forma que cuando surgió una primera generación de moléculas autorreplicantes organizadas en el sistema del que al cabo surgió la vida, ocurrió sobre una superficie de afinidad levógira de algún cristal mineral, determinando de manera contingente y definitiva la vigencia de esta característica en su evolución posterior hasta hoy.
Otros autores como Koji Tamura, que se sitúa en este caso en un Mundo de ARN como el escenario en el que se impuso la homoquiralidad biológica, hace recaer la clave de la enantioselectividad en unas pequeñas estructuras que forman parte del ARN de transferencia y que se consideran la forma primordial de este tipo de ARN, así como los precursores de los actuales genes, las minihélices, que serían las responsables últimas de esta marcada preferencia por los aminoácidos L, impuesta cuando las proteínas se empezaron a incorporar a los incipientes sistemas bioquímicos, ya codificados en ARN, como herramientas enzimáticas. Más concretamente, propone que la aminoacilación de estas estructuras (que en la actualidad es un paso crucial en la construcción de proteínas), se empezó a producir mediante procesos no enzimáticos por oligonucleótidos aminoacil fosfato, compuestos que según estudios de R. Lohrmann se forman abióticamente. Este proceso provoca en la minihélice una marcada preferencia por los aminoácidos L, suficientemente eficaz según Tamura para determinar la enantioselectividad a lo largo de la evolución posterior de los sistemas biológicos.
G.L.J.A. Rikken y E. Raupach, por su parte, introdujeron la fotoquímica magnetoquiral como posible explicación del fenómeno. En sus trabajos apuntaron la posibilidad de que la influencia de un campo magnético jugara un papel determinante en la homoquiralidad de la vida. En este mismo sentido, un equipo de científicos españoles encabezado por Mª Paz Zorzano, del Centro de Astrobiología, ha publicado recientemente en la revista Challenges del Multidisciplinary Digital Publishing Institute (MDPI)[1] los resultados de un trabajo en el que se demuestra que la influencia de un campo magnético débil induce un sesgo en la orientación preferente de cristales de clorato sódico que se forman, por evaporación en condiciones ambientales, a partir de una disolución que contiene además una mezcla racémica de aminoácidos hidrófobos. Los autores concluyen que el campo magnético terrestre pudo haber jugado un papel decisivo en la química prebiótica, predisponiendo las condiciones que finalmente condujeron a la homoquiralidad L en todos los aminoácidos, quizá en concurrencia con otros procesos enantioselectivos como la interacción con minerales del tipo de la descrita por Hazen.
Sin embargo, después de todo lo expuesto, cabe hacer otras reflexiones sobre la cuestión desde otros
Representación artística de LUCA
puntos de vista. Por una parte, el hecho de que la vida funcione con compuestos de una única orientación está impuesto por una mera cuestión de funcionalidad, porque para utilizar las dos configuraciones cada célula tendría que contar con dos juegos completos de toda la maquinaria metabólica, lo que no sería operativo desde un punto de vista biológico. De otro lado y por lo que se sabe, toda la vida conocida desciende de un particular organismo, el celebérrimo LUCA, que por tanto ya debía utilizar aminoácidos L. Pero este antepasado común de toda forma de vida actual conocida era ya un organismo relativamente complejo que, según E. Koonin y M. Galparin, contaba con una dotación de 572 genes (sí, 572 precisamente es el número que ha resultado del método de cálculo matemático que emplearon en su estudio para caracterizarlo a partir de genomas actuales de diversas especies). Así, y de acuerdo con Boris Mirkin, LUCA sólo sería un paso intermedio entre los seres vivos actuales y sus propios ancestros, que constituirían una genealogía mucho más antigua y probablemente más amplia, de la que fue un representante con suerte. Es decir, que no fue el primer organismo ni, probablemente, el único que habría evolucionado a partir de la vida primigenia en los millones de años que separan la aparición de ésta de la del propio LUCA. Quizá en ese entretanto llegaran a existir variantes que se adaptaron a la utilización de aminoácidos D, cuya cuantía, incluso considerando los mecanismos de selección previa expuestos, se aproximaría al 50% del total de los disponibles.
Quizá una vez puestos en marcha los procesos químicos cíclicos autopromotores que las teorías del “metabolismo primero” consideran el fenómeno esencial en el origen de la vida, el acoplamiento posterior con un sistema de información basado en el ARN y la subsiguiente incorporación de las proteínas como herramientas metabólicas fuera un suceso puntual del que emergió la estirpe de LUCA, y la homoquiralidad L quedara establecida inevitablemente por mecanismos como los propuestos por Tamura, los únicos de los tratados que son deterministas y no plantean el hecho como una mera cuestión probabilística y fundamentalmente azarosa.
O quizá, como especula Paul Davies, la vida se hubiera originado más de una vez en el principio evolucionando en otra vía paralela a la de la vida conocida cuyos representantes podrían existir todavía y que, de hecho, son buscados por la ciencia en el todavía ampliamente desconocido mundo de los microorganismos, en el que algunos investigadores como Carol Cleland y Shelley Copley creen que podrían constituir una biosfera oculta o, mejor dicho, desapercibida hasta ahora. El hallazgo de organismos que usen aminoácidos D sería un indicio de que esto pudiera haber ocurrido, aunque incluso si se hallara tal organismo y resultara finalmente que también pertenece a la estirpe de LUCA, sería un descubrimiento sensacional que forzaría un replanteamiento de todo el asunto de la homoquiralidad. Un asunto que, de momento y como se puede ver, admite todavía demasiados “quizás”. Y aún queda explicar por qué los azúcares de los ácidos nucleicos son todos D.



[1] Enantioselective Crystallization of Sodium Chlorate in the Presence of Racemic Hydrophobic Amino Acids and Static Magnetic Fields. http://www.mdpi.com/2078-1547/5/1/175

sábado, 21 de junio de 2014

¿Metano en Marte?

Entrevista a Franck Lefèvre científico del Laboratoire Atmosphères, Milieux, Observations Spatiales (LATMOS)
Por Javier Martín Torres y Juan Fco. Buenestado

El anuncio de la detección de metano en Marte en 2003[1] supuso una conmoción en el campo de la exploración planetaria y concretamente en el de la astrobiología, porque abrió entusiastas expectativas sobre la posibilidad de que algún tipo de actividad biológica fuera la causa de su presencia en la tenue atmósfera marciana. El metano, efectivamente, es un reputado biomarcador de referencia en los estudios astrobiológicos. Los procesos conocidos que determinan su generación y su dinámica fotoquímica (analizados para diferentes condiciones ambientales a partir del modelo terrestre) y que explicarían la presencia de metano y, sobre todo, su variabilidad en Marte, no proporcionan una explicación que no se apoye en su producción por alguna suerte de metabolismo o algún singular proceso geológico no considerado. En nuestro planeta la cantidad de metano en la atmósfera es de 1.750 ppbv (partes por billón en volumen),[2] de las que entre un 90 y un 95% son de origen biológico, mientras que la actividad geológica (el vulcanismo) sólo da cuenta de un pobre 0,2% del total. Dado que en Marte la actividad geológica cesó hace millones de años, incluso la pequeña cantidad encontrada, que se cuantificó en una media de 10 ppbv, hizo pensar en la opción biogénica como explicación inmediata en un primer momento, si bien la detección del compuesto planteaba ya de entrada algunos puntos problemáticos. Parecía que el metano estuviera localizado espacial y temporalmente, es decir, en determinadas zonas y periodos, lo que exigía encontrar una explicación del mecanismo por el cual una vez emanado desaparecía antes de distribuirse homogéneamente por toda la atmósfera marciana como debiera de ocurrir teniendo en cuenta cuál sería su vida media estimada en las condiciones atmosféricas de Marte (unos 300 años) y según los modelos de su dinámica fotoquímica. En 2009, dos científicos franceses: Franck Lefèvre, del departamento Stratosphères, Haute Troposphère et Interfaces del Laboratoire Atmosphères, Milieux, Observations Spatiales (LATMOS), y François Forget, del Laboratoire de Mètèorologie Dynamique, publicaron un artículo en la revista Nature (Observed variations of methene on Mars unexplained by known atmospheric chemistry and physics, 6 de agosto de 2009, doi: 10.1038/nature08228), en el que incidían en las dificultades para justificar el comportamiento del metano “presuntamente” detectado, como por ejemplo la necesaria existencia de un proceso de pérdida o de un sumidero unas 600 veces más eficiente que los conocidos o los previstos en los modelos fotoquímicos al uso, adelantando la posibilidad de que tal detección se tratara de un error debido a la poca precisión de los instrumentos que la verificaron. Finalmente, las mediciones más exhaustivas efectuadas por el vehículo robótico Curiosity (si bien muy localizadas en la zona de estudio, el cráter Gale) no han confirmado que haya de hecho metano en la atmósfera marciana.
Durante su asistencia al IV Workshop del Grupo de Ciencias Planetarias y Habitabilidad en su sede del Instituto Andaluz de Ciencias de la Tierra en Granada (centro mixto CSIC-Universidad de Granada), hemos tenido la ocasión de entrevistar a Franck Lefèvre, que nos ha aclarado algunos detalles de este controvertido asunto a la vez que nos ha proporcionado una ilustrativa panorámica para entender sus claves.
Pregunta: Después de muchos años de discusión sobre la presencia de metano en la atmósfera de Marte, ¿ha quedado la cuestión resuelta con las mediciones de Curiosity?
Respuesta: No. No me vi sorprendido por la detección negativa de metano registrada por Curiosity, pero este resultado debe ser confirmado con medidas suplementarias en escalas temporales más amplias. Además, incluso aunque la no detección por Curiosity sea confirmada, queda pendiente una explicación de las detecciones positivas anteriores.
P.: En su artículo con Forget puso de manifiesto la dificultad de explicar el comportamiento observado del metano. ¿Tenía dudas sobre la validez de las detecciones anunciadas hasta ese momento?
R.: Si, las teníamos, porque las detecciones de metano estaban claramente en discordancia con la física y la química conocidas de la atmósfera marciana y se habían adquirido en el límite de la capacidad de detección de los instrumentos utilizados, es decir, con un alto riesgo de error. Uno de nuestros propósitos en el artículo era poner de manifiesto las implicaciones de las detecciones de metano desde un punto de vista cuantitativo.
P.: ¿Podría ser la sustracción de metano por aerosoles el desconocido proceso de eliminación que explicara la súbita desaparición del metano, y que según sus cálculos debería de ser 600 veces más eficiente que cualquiera de los conocidos en la Tierra?
R.: El estudio en laboratorio con análogos marcianos ha mostrado poca reactividad del metano en superficies sólidas, y los modelos desarrollados reproducen bien el comportamiento de otras especies sin necesidad de recurrir a procesos químicos acelerados en aerosoles. Por lo tanto, aunque no disponemos de muestras reales de aerosoles marcianos, no creo que sean extraordinariamente eficientes en la captura de metano de la atmósfera.
P.: Los índices químicos y fotoquímicos de metano que usaron en sus modelos, ¿estaban calibrados de acuerdo con las condiciones ambientales marcianas?
R.: Las reacciones de mi modelo son las utilizadas en la química de la estratosfera terrestre, pero en cualquier caso su dependencia de la temperatura es bien conocida, y en consecuencia puede ser ajustada para las condiciones marcianas. Por otra parte las temperaturas en Marte no son muy diferentes de las de la estratosfera y mesosfera terrestres, en las que la dinámica química del metano es fielmente reproducida por los modelos.
P.: ¿Y qué nos puede decir del papel del radical hidroxilo (OH) en la química marciana? ¿Existe un modelo de su evolución diurna en Marte?
R.: La mayor parte de la pérdida de metano ocurre por fotodisociación, pero al acercarse el perihelio de Marte la oxidación de metano por radicales OH supone hasta un 25% del total de la pérdida de metano, por lo que no es un proceso despreciable. Nuestro modelo incluye por lo tanto toda la química asociada al OH y sus variaciones diarias.
P.: Después de todo lo expuesto hasta ahora, ¿Se puede afirmar que las detecciones de metano son simples artefactos de los instrumentos utilizados?. Si es así ¿por qué no se ha concluido el asunto todavía?
R.: Captar relaciones de mezcla del orden de 10 partes por billón en volumen (ppbv) mediante instrumentos de detección remota en la tenue atmósfera de Marte es un reto extremadamente difícil. En mi opinión, las detecciones previas parecen efectivamente artefactos de instrumentos que no cuentan con la debida sensibilidad para registrar esas cantidades. Hay que destacar que todos los intentos para detectar metano con telescopios y técnicas más precisos no han conseguido confirmarlas.
P.: Entonces, ¿hay metano en Marte?
R.: ¡Estaría entusiasmado si ese fuera el caso!
P.: El Trace Gas Orbiter (TGO), instrumento que está previsto forme parte de la futura misión ExoMars, ¿se verá de alguna manera afectado en su desarrollo por los resultados de Curiosity en relación al metano?
R.: No, porque el metano es sólo uno de los muchos objetivos de observación del instrumento. Desde el principio, TGO no fue diseñado como una “misión del metano”, puesto que ya se consideraban cuestionables las detecciones anunciadas. De cualquier forma, TGO proporcionará la respuesta definitiva sobre el asunto de la presencia o ausencia de metano en Marte a una escala global gracias a su alta sensibilidad, muy superior a la de anteriores medios de detección desde la Tierra o en la órbita marciana.
P.: Si finalmente se establece conclusivamente que no hay metano en Marte, ¿habrá sido todo este debate y todo este esfuerzo investigador una mera pérdida de tiempo?
R.: Bueno, en mi opinión la investigación y el debate científico nunca es una pérdida de tiempo. Durante los años posteriores al primer anuncio de detección de metano en Marte hemos aprendido mucho sobre vías abiogénicas de producción y sobre mecanismos no conocidos de destrucción de metano en Marte.
P.: ¿Se ha visto afectada de alguna forma la consideración del metano como biomarcador a raíz de esta controversia?
R.: No lo creo así, porque ni la presencia de metano ni la ausencia de vida han sido todavía firmemente establecidas en Marte
P.: ¿Cuál es su opinión sobre la existencia de vida, pasada o presente, en Marte?
R.: No veo razón por la que la cantidad de materia orgánica aportada a la superficie de Marte haya sido drásticamente diferente de la que llegó a la Tierra en las épocas tempranas del Sistema Solar. Se trata entonces de cómo de rápido la vida pudo haberse desarrollado en el relativamente corto periodo húmedo que tuvo Marte en sus principios. Aunque no es una respuesta científica, debo decir que creo mucho más en la existencia de vida pasada que actual en el Planeta Rojo…




[1] Las detecciones se consiguieron con el Telescopio Infrarrojo de Hawai, el Telescopio Geminis del Sur, la Sonda Mars Express y el Telescopio Canadá-Francia-Hawai sucesivamente a partir del año 2003.
[2] Nótese que se utiliza billón en su acepción anglosajona, que es equivalente a mil millones.

lunes, 24 de febrero de 2014

Biosfera profunda


Distribución geográfica de las perforaciones
en las que se ha encontrado vida a gran
profundidad
En 1992 Thomas Gold publicó su célebre artículo The deep, hot biosphere (la biosfera caliente y profunda) en el que, además de insistir en su controvertida tesis sobre el posible origen abiogénico de los llamados combustibles fósiles (petróleo, carbón y gas natural), proponía un novedoso planteamiento sobre la composición de la biosfera terrestre según el cual todos los organismos que vivimos sobre las masas continentales o en el seno de los océanos no seríamos más que una fracción del total en el planeta. Inflitrados en los materiales subsuperficiales y hasta una profundidad de varios kilómetros parece medrar una cantidad de microorganismos de magnitud comparable a la del total de vida exterior, si no considerablemente superior en términos de biomasa total.
Desde entonces, el hallazgo de evidencias de vida en todo tipo de perforaciones practicadas en las más diversas localizaciones del planeta se ha convertido en rutinaria, desvelando un panorama muy parecido al adelantado por Gold; bajo el suelo y hasta una profundidad de al menos 5 km, prosperan florecientes poblaciones de bacterias y arqueas que parecen ser ubicuas alrededor del globo y que el proyecto de investigación internacional Observatorio del Carbono Profundo (DCO por sus siglas en inglés), en desarrollo desde hace cuatro años, está tratando de localizar y catalogar. Un detalle sorprendente e inexplicado de los estudios realizados hasta ahora en el marco de este programa de investigación es la gran similitud genética de las diferentes poblaciones analizadas, a pesar de su separación geográfica y del aislamiento inherente a las condiciones en las que viven.
Estas formas de vida no dependen para su sustento de la luz solar, porque se abastecen de recursos químicos que afloran desde niveles inferiores (la zona de interfaz entre la corteza y el manto) disueltos en agua que asciende después de haberse filtrado por hendiduras de la corteza en forma de compuestos en desequilibrio químico, siendo susceptibles por tanto de ser explotados como fuente de energía. Un ejemplo sería el proceso de oxidación de metano e hidrógeno a partir de oxígeno disponible en sulfatos y óxidos metálicos que sustenta ecosistemas enteros en las chimeneas hidrotermales del fondo marino. Entornos similares, abastecidos por un suministro similar de fluidos calientes ricos en “nutrientes” se pueden encontrar profusamente distribuidos por toda la corteza terrestre y, dada la conocida capacidad bacteriana para adaptarse al aprovechamiento de todo tipo de recursos metabólicos, todos podrían estar habitados.
Desde nuestro punto de vista de animales complejos no deja de sorprender que estos organismos puedan vivir en unas condiciones de temperatura y presión “extremas”. Se cree que pueden soportar temperaturas de hasta 150º C a profundidades en las que la elevada presión permite que el agua permanezca en fase líquida. Pero si tenemos en cuenta que la vida probablemente se originó en las mencionadas chimeneas hidrotermales en torno a procesos químicos similares a los descritos, estas condiciones ambientales serían las propias de la confortable cuna de la vida, abandonada después a lo largo de la evolución por algunos organismos que tuvieron que adaptarse a las temperaturas cada vez más frías y hostiles en su camino hasta la superficie. Los organismos sobre la corteza, desde este punto de vista, seríamos los “extremófilos”. Además, cabe pensar que la vida, en su inherente tendencia expansiva, se extendió en primer término de forma horizontal alrededor del globo por los entornos de características similares a las que propiciaron su emergencia. Así parece confirmarlo el hecho de que los tipos de organismos más antiguos que se pueden encontrar pertenezcan precisamente a los englobados bajo la denominación de termófilos.
Otro aspecto destacable de esta biosfera profunda es que las condiciones en las que prospera son en gran medida independientes de las de la superficie, circunstancia que ofrece una interesante perspectiva desde el punto de vista astrobiológico: en varios cuerpos del Sistema Solar, como es el caso de Marte o Venus, cuyas características iniciales fueron muy similares a las de la Tierra, podría haberse originado la vida con la misma inmediatez que aquí y, de haber sido así, quizá pueda haber persistido también en la profundidad de su corteza abastecida por la energía generada en el interior de su manto (que en ambos casos, y al igual que en el caso terrestre, procedería del decaimiento de los elementos radiactivos que contiene), y por los materiales movilizados a través de reservorios de agua líquida que podrían haber permanecido a lo largo de su evolución bajo la corteza sólida. En cualquier caso hay que hacer notar que, si se tratara de una biosfera ampliamente extendida bajo la superficie, sus rastros serían notorios en la atmósfera, en la que necesariamente se vierten los desechos metabólicos de cualquier suerte de vida que podamos imaginar. En Marte concretamente, el planeta más explorado de nuestras inmediaciones, no se han detectado gases (como por ejemplo metano) que denoten una actividad biológica, aunque en este momento no es posible aseverar conclusivamente que no la haya o la haya habido en su pasado. Sí parece poder deducirse de las investigaciones en curso que alguna vez fue un planeta “habitable”.
Además de los casos de Marte o Venus, hay otros ejemplos de cuerpos que podrían albergar vida semejante a la de nuestra biosfera profunda, que Gold cifra en hasta 10 dentro del Sistema Solar en una estimación quizá sesgada hacia la exageración entusiasta. Pero Europa o Titán, satélites de Júpiter y Saturno respectivamente, reúnen bajo su corteza helada las condiciones idóneas para haber dado origen y sostener algún tipo de vida: agua líquida, elementos esenciales contenidos en los compuestos de sus mantos rocosos, y un flujo de energía interna que en ambos casos procede del calor generado por el efecto marea en la interacción gravitatoria con los planetas que orbitan. Ganímedes, el mayor de los satélites de Júpiter, o Encélado, otro satélite de Saturno, serían también destacados candidatos a contener una biosfera profunda.
Todavía no se conoce detalladamente la terrestre, porque su prospección es compleja, y huelga decir que en otros objetos del Sistema Solar su rastreo plantea unas dificultades hoy por hoy insalvables, pero sin duda esta línea de indagaciones abren unas vías de estudio muy prometedoras en un futuro a medio plazo.

martes, 11 de febrero de 2014

Contacto extraterrestre

El contacto del hombre con alguna otra forma de vida extraterrestre, al margen de las propuestas planteadas en la ciencia ficción, es una posibilidad que va creciendo con el desarrollo de misiones espaciales específicamente diseñadas para buscarla, que de momento y en el futuro a medio y largo plazo quedará circunscrita a nuestro Sistema Solar, en alguno de cuyos cuerpos (otros planetas y ciertos satélites) cabe pensar que podrían haberse generado procesos definibles como “vida”. La previsión de este eventual hallazgo es muy grosera, y no contempla las múltiples implicaciones que acarrearía, ni las prevenciones que el encuentro con esa vida precisaría.

La ficción científica, principalmente en su manifestación literaria y cinematográfica, ha especulado abundantemente desde hace mucho tiempo en torno a la posibilidad de que se produzca un encuentro de la vida terrestre, con nuestra especie al frente, y alguna otra forma de vida inteligente procedente de lejanos sistemas planetarios. Normalmente el escenario suele ser la Tierra, que se ve amenazada por seres más avanzados tecnológicamente y cuya presencia está motivada por un agresivo afán colonizador. Huelga decir que el desarrollo de una cultura tecnológica sólo puede haber tenido lugar a distancias que se miden, en el más favorable de los casos, en decenas de años luz, y que cubrir un viaje de esta magnitud es una hazaña fuertemente limitada, (por no decir prácticamente imposible), por las propias leyes físicas que rigen el universo, invulnerables para cualquier tecnología por avanzada que la queramos considerar.
Incluso si se localizara algún tipo de vida compleja, consciente o no, en alguno de los nuevos sistemas que se exploran mediante instrumentos de detección remota, sólo podríamos saber de ellas a través de estudios indirectos del impacto que provoca su existencia en la atmósfera del planeta en el que habita a través de observaciones espectroscópicas, y el contacto directo tampoco sería factible.
Pero también existe la posibilidad, mucho menos remota y hasta se podría decir que “inminente” (si calibramos el concepto de inminente de acuerdo con el ritmo de programación y desarrollo de misiones espaciales, que se cifra en décadas), de encontrar alguna forma de vida extraterrestre, si la hubiera, en alguno de los planetas o satélites del Sistema Solar en los que, de acuerdo con los más recientes planteamientos sobre qué es la vida, cómo se origina, y con qué requerimientos básicos, hay fundadas opciones de que exista. De hecho, las numerosas misiones de exploración de Marte hace tiempo que tienen un marcado carácter astrobiológico, y buscan indicios de que el Planeta Rojo pueda haber estado habitado en algún periodo de su pasado o incluso de que lo esté en el presente. Y satélites de otros planetas como Titán, Europa o Encélado son asimismo objetivos inmediatos y preferentes para ser sondeados en busca de posibles rastros de alguna suerte de vida que presumiblemente podrían albergar, y que sería en cualquier caso vida simple microbiana.
En Marte está operando actualmente el vehículo Curiosity en desarrollo de la misión MSL, uno de cuyos objetivos principales es valorar las condiciones de habitabilidad presente o pasada del área de estudio, el fondo del cráter Gale, cerca del ecuador marciano, por el que con toda certeza una vez corrió agua en abundancia. Curiosity no está diseñado, en principio, para buscar vida explícitamente, pero si está presente en alguno de los entornos que analizará podría ser encontrada y reconocida a partir de los datos recogidos por sus instrumentos, dando pie a un posterior contacto directo que de seguro se procuraría a continuación, desencadenándose probablemente a una “carrera” entre las diferentes potencias con capacidad para desarrollar misiones espaciales a través de sus respectivas agencias.
Sin duda este sería uno de los más fascinantes descubrimientos de la humanidad, su impacto sería global, prolongado y perturbador, y sus repercusiones serían profundas no sólo en el ámbito de la ciencia, sino en muchos otros: filosófico, ético, legal o incluso teológico, que inevitablemente se solapan con la ciencia en muchos aspectos. En este punto aparece un primer problema que convendría plantear de forma previa, y que atañe a la gestión de la información y su difusión general. Hay que tener en cuenta que un proyecto como MSL, el ejemplo que nos ocupa, involucra a un elevado número de científicos e ingenieros repartidos por todo el mundo que, llegado el caso, no disponen de pautas bien definidas para regular la canalización de información al resto de la sociedad a la que, en atención al principio de libertad de información, se le debe hacer llegar incuestionablemente.
Un segundo problema, de mayor entidad, sería el de la protección tanto de la vida terrestre frente a las hipotéticas amenazas que la contaminación por la nueva forma de vida podría acarrear como, recíprocamente, de la vida hallada frente a nuestra invasión. Evidentemente en el supuesto planteado (encuentro con vida alienígena microbiana en entornos extraños), seríamos nosotros la especie agresora y hostil, responsable de minimizar al menos los daños derivados de nuestra curiosidad. Actualmente no existe un procedimiento unificado a nivel internacional que pueda servir de referencia a la hora de adoptar las medidas inmediatas con la diligencia que la situación requeriría. En este sentido se pueden plantear una serie de cuestiones que sería conveniente debatir desde un punto de vista científico y también legal, como la ya mencionada pauta de actuación para los científicos implicados, o la regulación de la información a suministrar y de los canales por los que hacerlo. Pero además cabría plantearse las repercusiones para el curso de la misión que verificara el hallazgo; como se verían afectadas sus operaciones posteriores y el uso de los instrumentos, y a qué instituciones correspondería dirigir el plan de actuación subsiguiente.
Se echa en falta, ante la mera probabilidad de que se encuentre vida en alguno de los cuerpos apuntados de nuestro Sistema Solar, que algún organismo internacional, creado al efecto en el marco de alguna de las organizaciones supranacionales existentes, arbitrara un protocolo amplio y bien detallado al que atenerse llegado el caso.
En definitiva, si el contacto con seres inteligentes procedentes de civilizaciones situadas en lejanos planetas seguirá siendo un tema propio del maravilloso mundo de la fantasía, el descubrimiento de algún tipo de vida en alguno de los planetas de nuestro inmediato entorno cósmico o sus satélites es una posibilidad real, y su hallazgo supondría una conmoción cultural de magnitudes extraordinarias, cuyas consecuencias están mal previstas en todos los aspectos (científico, legal, informativo etcétera).

lunes, 3 de febrero de 2014

Explorando Marte. Análisis de datos del instrumento español REMS

El tratamiento de los datos de la estación meteorológica REMS, uno de los instrumentos que lleva el róver Curiosity de la misión MSL de la NASA para estudiar la dinámica de la atmósfera de Marte, supone un reto científico que un equipo de investigadores españoles afronta con solvencia desde la llegada de la sonda al planeta.

No es difícil imaginar el enorme esfuerzo tecnológico que supone llevar a término una misión espacial, máxime si se trata de enviar un vehículo robótico a otro planeta, aunque sea de la inmediata vecindad como es el caso de Marte (apenas la puerta de al lado en la escala cósmica), pero en realidad hacer aterrizar el ingenio en la superficie del planeta no supone más que un primer paso hacia los objetivos que justifican en última instancia la puesta en marcha de la misión, y que en general son aumentar el conocimiento de algunos aspectos concretos del lugar de destino. Una vez allí, no se trata tan sólo de comenzar las operaciones del vehículo y recabar sin más datos inmediata y directamente productivos en el desarrollo de los estudios planteados, sino que su tratamiento requiere un continuo y arduo esfuerzo de interpretación y selección para depurar datos esclarecedores y fiables a partir del aluvión de datos crudos recogidos, que en principio aparecen como un volumen incongruente de información sin sentido.

El caso de REMS

Para ilustrar lo delicada y dificultosa que resulta esta tarea cotidiana, nada mejor que recurrir al ejemplo de
REMS (Róver Enviromental Monitoring Station), el instrumento español montado a bordo del vehículo Curiosity, que desde agosto de 2012 recorre el fondo del cráter Gale, en Marte, midiendo diariamente diversos parámetros atmosféricos además de la radiación ultravioleta incidente sobre la superficie durante cinco minutos de cada hora. En agosto de 2014, cuando la misión se dé por finalizada (quedando abierta la posibilidad de ampliar su periodo de operatividad), REMS habrá proporcionado a la comunidad científica el más extenso volumen de datos ambientales del Planeta Rojo recabados hasta ahora. Pero su utilidad, según lo apuntado más arriba, no es directa, y requiere un concienzudo análisis en función de una larga serie de factores, impuestos en gran medida por la propia situación del instrumento sobre una base móvil y caliente que introduce perturbaciones espurias en las medidas, haciendo necesario un complicado trabajo de interpretación previo a su validación inequívoca.
REMS es básicamente una estación meteorológica que mide la temperatura del aire, la temperatura del suelo, la dirección y velocidad del viento, la humedad relativa del aire, la presión atmosférica y la radiación ultravioleta a través de otros tantos sensores que integran el instrumento, y que previamente tuvieron que ser caracterizados, para su correcto calibrado, en función del comportamiento de sus componentes electrónicos bajo las condiciones ambientales marcianas. Pero además están montados sobre una plataforma, Curiosity, alimentada por un generador térmico de radioisótopos (RTG) que, como se puede deducir de su nombre, produce calor; de hecho, Curiosity es el punto más caliente de Marte, con una temperatura 200º C por encima de la ambiental. Este calor eleva la temperatura de su entorno inmediato, tanto la del aire que está en contacto con él como la del suelo a su alrededor, donde los sensores correspondientes toman sus medidas. Las de los sensores de temperatura se ven directamente afectadas como es evidente, pero también la del sensor de presión y la del de humedad relativa quedan alteradas, de una forma indirecta pero significativa, que debe corregirse. En el caso del sensor de temperatura del aire esta distorsión es crítica, puesto que opera desde el interior del volumen de aire calentado por el propio vehículo, por lo que para asegurar que sus medidas reflejan realmente la temperatura de la atmósfera marciana, ha sido necesario diseñar un modelo de su comportamiento térmico y un protocolo específico para calibrar las lecturas obtenidas y discriminar los valores debidos a la contaminación provocada por el calor del vehículo.
En cuanto a la temperatura del suelo, también hay que desestimar la aportación térmica de Curiosity, que evidentemente aumenta con el tiempo cuando está parado operando en un determinado lugar, aunque en este caso la contaminación tiene un aspecto provechoso, porque contrastada con las medidas que se toman cuando el vehículo se mueve, ayuda a estimar la inercia térmica del suelo, es decir, como de rápido se eleva su temperatura bajo una fuente de calor, un dato valioso como referencia para identificar los materiales que lo componen. Para la correcta interpretación de las medidas de este sensor en particular hay que manejar además información adicional sobre el tamaño y la orientación de los elementos dispuestos sobre el terreno delante del campo de medición del sensor.
Las lecturas del sensor ultravioleta, situado en la plataforma superior del vehículo, no se ven afectadas por el calor, pero presentan sus propios problemas particulares derivados en este caso de la movilidad de la plataforma y de la meteorología marciana. Así, deben ponderarse no sólo en relación a la posición del Sol, sino que están mediatizadas por la presencia de polvo en suspensión (opacidad de la atmósfera), que además se va depositando sobre los fotodiodos que lo integran imponiendo una continua calibración de los datos que registra en función de su estado, deducido de las imágenes tomadas por la cámara. Ésta, por otro lado, va montada en el extremo superior de un mástil vertical, que en ciertas orientaciones puede proyectar sombra sobre los fotodiodos desvirtuando sus medidas, y también hay que conocer en todo momento la posición del vehículo, puesto que la inclinación que puede tomar al disponerse sobre algunas irregularidades del terreno cambian el ángulo de incidencia de la radiación y por tanto su medida.
Todo esto supone que el procesamiento de los datos que recaba REMS diariamente sea un reto constante para el equipo científico que se encarga de realizarlo, y también una gran responsabilidad, porque además de engrosar los registros del Planetary Data System de la NASA para su consulta por cualquier equipo científico que los requiera en lo sucesivo, sirven como referencia para el desarrollo de investigaciones que se llevan a cabo a partir de datos de otros instrumentos de Curiosity y contribuye en buena medida al éxito global de la misión.

Pues bien, ese equipo científico, que también es español, ha sido distinguido con el Premio de Honor a sus “Logros como Grupo” por la Agencia Espacial Americana, tanto en la fase de diseño y desarrollo del instrumento como en la explotación científica de los datos que envía diariamente. En este último capítulo, el premio adquiere un valor añadido si se tiene en cuenta que uno de los seis sensores de los que consta el aparato, el sensor de velocidad del viento, quedó parcialmente inutilizado durante el aterrizaje del vehículo imposibilitando la recogida de algunas medidas necesarias para realizar los estudios previstos, a pesar de lo cual el equipo científico ha conseguido optimizar el tratamiento de los datos disponibles. De su trabajo resultará un conocimiento más profundo del entorno marciano y su climatología, sentando por otro lado unas sólidas bases para el desarrollo de investigaciones posteriores que incluirán desde indagaciones astrobiológicas hasta certificación de modelos climáticos terrestres mediante su estudio comparativo con los datos obtenidos en Marte.