Las perlas de la ciencia española


Por Miguel Ángel Sabadell


Proyecto PACE: crear vida en el laboratorio


La vida es algo tan hermoso como enigmático. Todas las formas de vida están compuestas por moléculas que, en sí mismas, no están vivas. ¿Cómo sucedió esa transición de la materia inerte a la vida? Dejando a un lado planteamientos religiosos -que lo único que hacen es sustituir el enigma por otro aún mayor-, desde mediados del siglo pasado se está intentando comprender este problema central de la biología.

En la actualidad diversos grupos de investigación por todo el mundo están intentando dar respuesta a cómo se pueden fabricar en el laboratorio formas de vida simples: son las llamadas células artificiales o protocélulas. Se piensa que serán totalmente distintas a cualquier forma de vida existente o extinta, muchísimas veces más pequeñas que la más pequeña de las bacterias y, por supuesto, más sencillas: intentamos entender la vida, no crear a Frankenstein.

Uno de los enfoques es el de «abajo arriba»: partiendo de «tornillería molecular» en bruto, los científicos tratan de fabricar una «protocélula» sin florituras, con todo aquello que sea estrictamente imprescindible.

Uno de estos proyectos en curso es el europeo PACE (Programmable Artificial Cell Evolution), que reúne 13 grupos de investigación europeos, entre los que se encuentra el Laboratorio de Sistemas Complejos de la Universitat Pompeu Fabra de Barcelona, dirigido por Ricard Solé. "Los modelos teóricos así como los datos experimentales nos dan buenos motivos para creer que seremos capaces de obtener protocélulas simples a partir de un sencillo sistema de reacciones acopladas en qué intervengan los componentes esenciales que hacen posibles las características básicas de las unidades vivas", explica Solé, cuyo grupo trata de predecir la dinámica de las protocélulas artificiales y su posible evolución.

Quizá la mejor forma de ver estas células artificiales sea como nanorobots, que tan de moda están ahora en las novelas y películas de ciencia ficción, trabajando a escala molecular: el resultado será una tecnología híbrida, mezcla de biotecnología con nanoelectrónica: "para crear una nueva generación de ordenadores y robots autoreparables, así como para dirigir con éxito cualquier tipo de operación a nivel nanoscópico, es fundamental la construcción de sistemas inteligentes autoorganizados y capaces de evolucionar en la dirección adecuada, como podrían ser las células artificiales programables". Integrarán tres sistemas bioquímicos microscópicos: un contenedor, que hará las funciones de las membranas celulares, un sistema de construcción (el metabolismo) y un sistema genético, que almacene y gestione la información (el ADN). Con investigaciones como éstas nos encontramos un poco más cerca de entender la vida, su origen y evolución. Las puertas que esto abre son inmensas. El problema es saber si vamos a estar a la altura a si seguiremos con la misma mentalidad que en el Paleolítico inferior.

Web: complex.upf.es/~ricard/PACEsite


Genoma mínimo: ¿qué necesitamos para vivir?

La secuenciación del genoma humano provocó cierta desilusión entre los científicos: la predicción de que teníamos 100.000 genes se vio drásticamente reducida a unos 30.000. Ante semejante cantidad uno puede preguntarse: si un organismo tan complejo como el ser humano requiere estos pocos genes, ¿cuántos requieren organismos más sencillos, como las bacterias? Aún más, ¿cuál es el número mínimo de genes necesarios para la vida?

Esta aventura la lanzó hace unos años Craig Venter, ex-director de Celera, la empresa biotecnológica que logró completar recientemente la secuencia de los 3.000 millones de nucleótidos que constituyen el genoma humano. Es parte de su ambicioso proyecto de sintetizar un organismo vivo en el laboratorio. Para ello Venter necesita identificar el mínimo número de genes que permita a un organismo crecer y reproducirse de forma autónoma.

Dentro de este contexto el Instituto Cavanilles de Biodiversidad y Biología Evolutiva de Valencia, en colaboración con otros centros de investigación de España, está secuenciando el genoma completo de bacterias endosimbiontes de insectos, como la de Buchnera aphidicola, que se completó hace unos años, siendo el primer genoma secuenciado íntegramente en España.

¿Cuál es la particularidad de Buchnera que la hace especialmente interesante en el ámbito de estudio de genomas mínimos? Buchnera está directamente emparentada con la conocida bacteria Escherichia coli, organismo habitual del intestino del hombre y sistema modelo en investigación genética bacteriana; pero a diferencia de ésta, Buchnera ha sufrido una evolución por reducción de su material genético, alcanzando un tamaño genómico casi ocho veces inferior al de E. Coli, lo que le convierte en una de las bacterias de menor tamaño genómico conocido.

Este genoma mínimo es consecuencia del sistema de vida de Buchnera, adaptada a vivir en simbiosis en el interior de células especializadas de diversas especies de pulgones. La relación de simbiosis es tan estrecha que actualmente ninguno de los dos organismos puede vivir el uno sin el otro. La adaptación al sistema de vida intracelular en Buchnera queda reflejada en su genoma, como puede deducirse de este estudio: aquellos genes responsables de funciones celulares prescindibles en el protegido ambiente del interior del pulgón se fueron eliminando a lo largo del tiempo.

Con este tipo de trabajos se puede, no solo delimitar el genoma mínimo necesario para un sistema de vida intracelular, sino conocer cómo estas bacterias se integran en el insecto-huésped.

Web: www.uv.es/~biodiver/c/inve/grup_gen_evolut.htm


Estudiando la luz más antigua del Cosmos

Hace más de 75 años Edwin Hubble descubrió la expansión del universo. En realidad lo que encontró con su telescopio del Monte Wilson (California) es que la luz proveniente de las galaxias se encuentra desplazada hacia el rojo del mismo modo que la bocina de un coche nos parece más grave cuando se aleja de nosotros. Y eso ocurre tanto si observamos desde la Tierra como si lo hiciéramos desde cualquier planeta situado en cualquier galaxia. Tan sorprendente observación se interpretó como que el universo entero se expande del mismo modo que lo hace un pastel de pasas o un globo al que le hemos pintado con un rotulador puntitos es su superficie. Ni las pasas ni los puntos (las galaxias) se mueven; crece la masa del pastel o se estira la goma del globo (el espacio-tiempo).

Si el universo se originó con una formidable explosión ¿no es posible que aún podamos escuchar algún eco de aquello? Así pensaba a comienzos de los 60 el cosmólogo de Princeton Robert H. Dicke. Creía que debía quedar algún tipo de resto de radiación y propuso a uno de sus investigadores, Jim Peebles que se pusiera a calcular lo que sucedería si realmente el universo hubiese nacido de este modo. Y encontró que hoy día tendríamos que ver un fondo de microondas cubriendo todo el espacio, algo que ya había sido predicho 10 años antes por el padre del Big Bang, el ucraniano George Gamow, y que había caído en el olvido. Curiosamente este fondo estaba siendo observado y traía de cabeza a dos radioastrónomos de la compañía Bell, Arno Penzias y Robert Wilson. Esta radiación cósmica de fondo proviene de cuando el universo tenía 300.000 años de edad. Hasta ese momento la historia del universo se había caracterizado por un aburrimiento únicamente roto por fotones chocando contra núcleos de hidrógeno y helio y electrones: el universo era opaco a la radiación. Fue entonces cuando la luz dejó de interaccionar con la materia -el universo se hizo transparente- y esa luz es la que hoy vemos en forma de radiación de microondas que inunda el cosmos. Esta es la luz más antigua que podemos observar y marca el comienzo de lo que se ha dado en llamar la Edad Oscura del universo.

Fue el satélite COBE quien anunció a los cosmólogos que la radiación de fondo se distribuía de manera extremadamente uniforme por el espacio, pero no perfectamente uniforme. Existían fluctuaciones, del orden de una parte por 100.000; mínimas pero decisivas para el futuro del universo. Porque gracias a ellas pudieron aparecer las primeras estructuras de lo que hoy es nuestro universo: galaxias, cúmulos y supercúmulos deben su existencia a esas ínfimas variaciones, de las que nadie sabe todavía a qué fueron debidas. Determinar con la mayor sensibilidad posible el valor de estas anisotropías de la radiación de fondo es uno de los objetivos de este programa de investigación desarrollado en el Instituto de Astrofísica de Canarias dirigido por Rafael Rebolo, para poder acotar el valor de los parámetros cosmológicos más relevantes, como las densidades de materia ordinaria, materia oscura y energía oscura, la masa del neutrino, la constante de expansión o de Hubble...

Web: www.iac.es/project/cmb/index_esp.php


Enfermedades del segundo genoma de la célula

Todas nuestras células poseen dos sistemas genéticos. Uno es bien conocido por todos: se encuentra en el núcleo y codifica la mayor parte de las proteínas de la célula. El otro está en las mitocondrias y, aunque codifica un número pequeño de proteínas, es fundamental al ser responsable de la producción de la energía necesaria para vivir. Las mitocondrias son el pulmón de la célula, el lugar donde la célula utiliza el oxígeno para llevar a cabo las reacciones químicas que le permiten vivir. Su ADN fue descubierto a finales de los años 60 y a principios de los 80 se convirtió en el primer genoma humano que se describía en su totalidad.

Quien descubrió su origen fue la microbióloga Lynn Margulis, conocida entre aquellos que se interesan por temas científicos por dos motivos: uno social y el otro investigador. El social es que estuvo casada con el famosísimo Carl Sagan. El aspecto científico es el que se encuentra vinculado al concepto de simbiogénesis.

Hace unos años Margulis tuvo la feliz idea de plantear seriamente que uno de los motores de la evolución es la simbiosis entre especies que se encuentran en contacto. La simbiosis no es otra cosa que la "colaboración", dicho entre comillas y con muchas matizaciones, entre dos seres vivos de dos especies distintas porque se benefician mutuamente en su lucha por la supervivencia. Un ejemplo lo tenemos en los líquenes, simbiosis de un hongo y un alga.

Margulis propuso que la mitocondria era, en realidad, una bacteria que simbiotizó en las primeras épocas de la vida en la Tierra con las células primitivas. Las pruebas en que basó tal afirmación eran, en cierta medida, circunstanciales: las mitocondrias tienen el aspecto de bacterias y poseen un ADN distinto al de la célula en la que se encuentran. Hoy sabemos que tenía razón: son descendientes de bacterias aerobias que fueron absorbidas hace 1.500 millones de años por los antecesores de las nuestras células actuales. Gracias a ello adquirieron la capacidad de utilizar el oxígeno para producir energía. A lo largo del tiempo estas bacterias primitivas fueron perdiendo su capacidad autónoma de multiplicarse y se hicieron dependientes de la célula huésped. Al final solo quedaron los genes que codificaban las proteínas participantes en la producción de la energía celular.

El ADN mitocondrial es unas 3.000 veces más pequeño que el más pequeño de los cromosomas y contiene información para 37 genes que se encuentran uno a continuación del otro sin espacios intermedios.

Una de las características más llamativas del sistema genético mitocondrial, es que se hereda exclusivamente de la madre. Las mujeres lo pasan a todos sus hijos, pero sólo las hijas lo transmitirán a la siguiente generación.

En el Departamento de Bioquímica, Biología Molecular y Celular de la Facultad de Veterinaria de la Universidad de Zaragoza, Julio Montoya y su grupo investigan para entender el conocimiento básico del funcionamiento de este sistema genético y estudian las enfermedades mitocondriales, un grupo de trastornos originados por un defecto en la producción de la energía celular. Estas enfermedades, muy devastadoras y difíciles de identificar, afectan tanto a niños como a adultos y su diagnóstico pasa por el análisis genético. Solo así se puede decidir mejor su tratamiento paliativo.

Web: http://wwwbioq.unizar.es/anterior/departamento/investigacion/servicio%20diagnostico.htm


Química verde

Química verde significa reducir los problemas medioambientales generados por la producción química sin usar soluciones de final de tubería, eliminando la contaminación, sino atacando el problema de raíz: utilizando procesos químicos que no produzcan productos de deshecho.

En los primeros años de los 90 la EPA, la agencia de protección del medioambiente de los EE UU, acuñó el término de Green Chemistry con el objeto de promover tecnologías químicas innovadoras que reduzcan el uso o generación de sustancias químicas peligrosas en el diseño, fabricación y uso de los productos químicos. Puede considerarse el momento de arranque de esta nueva manera de hacer química.

Resulta curioso descubrir que la industria a la que todos apuntaríamos como más contaminante, la petroquímica, sólo genera unos 0,1 kg de residuo por kilo de producto. Y, curiosamente, la más sucia es la que parece más limpia, la farmacéutica: hasta 100 kg de residuo por kilo de producto útil. Por eso éste es el campo en el que mayores esfuerzos se están realizando. Así, la síntesis del principio activo de la Viagra fue uno de los primeros procesos farmacéuticos que incorporaron la química verde.

Dentro de esta filosofía se encuentra lo que se conoce como economía atómica: todos los átomos que entran en una reacción deben aparecer en el producto, sin generar ningún subproducto. Para ello pueden utilizarse catalizadores, unas sustancias que sirven para acelerar o mejorar el rendimiento de la reacción al mismo tiempo que su consumo energético, pero que no desaparecen en la reacción.

Este uno de los campos de investigación del Instituto de Tecnología Química de Valencia, donde el grupo de Avelino Corma ha desarrollado una serie de catalizadores basados en oro cuya utilización en la obtención de anilinas -vitales para la industria farmacéutica y la obtención de herbicidas y pigmentos- no genera ningún residuo. Este resultado es tremendamente importante pues los procesos usados hasta ahora llegan a generar casi la misma cantidad de residuo que del producto deseado. En particular, los catalizadores desarrollados están basados en nanopartículas de oro y evitan la formación de otros productos secundarios.

Web: : itq.webs.upv.es


Marte en la Tierra

Las perlas de la ciencia españolaEn la sierra de Huelva nace el río Tinto. Su nombre viene dado por el color rojo de sus aguas, de marcada acidez y alto contenido en metales pesados, tóxicos para la vida, que se encuentran disueltos. Como determinaron hace años un grupo de biólogos de la Universidad Autónoma de Madrid dirigido por Ricardo Amils, el principal componente presente en el agua es el hierro. De hecho, este río se caracteriza por su extrema acidez y una alta saturación de hierro y sulfatos. En algunos casos, los instrumentos de medida utilizados en el laboratorio dan valores próximos a 20 gramos por litro de concentración de hierro, es decir, concentraciones difícilmente alcanzables en cualquier otro ambiente de la superficie de la Tierra. La alta concentración de sulfatos junto con la elevada acidez del río hace que podamos imaginar el agua del río como una disolución de ácido sulfúrico.

En un principio se pensó que nada podía vivir en semejante ambiente, por lo que se le creyó muerto. Sin embargo, los estudios realizados han demostrado que no sólo la vida puede desarrollarse en este tipo de ambientes extremos sino que, además, presenta una enorme biodiversidad. No sólo eso, es ella la responsable de sus peculiares características.

La alimentación de estos microorganismos, llamados quimilitótrofos, se realiza oxidando el hierro de la pirita del subsuelo, lo que da el color rojizo característico del río. Pero la mayor sorpresa surgió al descubrir que no sólo se encuentran allí formas de vida extremófilas, sino una diversidad biológica mucho más amplia. Se ha podido comprobar que están representados gran parte de los grupos mayoritarios que forman el árbol de la vida: microorganismos pertenecientes al grupo de los animales, plantas, hongos...

El estudio de este ecosistema proporciona una gran cantidad de información sobre la robustez de la vida y resulta ser un modelo a pequeña escala de las condiciones que podrían estar presentes en el planeta Marte, pues es posible que el hierro fuera un elemento preponderante en la química de los primeros ambientes en su superficie. La alta disponibilidad del hierro en la corteza terrestre puede que favoreciera ciertas reacciones catalíticas que culminaron en la síntesis prebiótica de las primeras moléculas orgánicas.

Web: www.cab.inta.es/



Semillas para la eternidad

La próxima vez que acuda al mercado deténgase un momento en la verdulería y cuente los tipos de lechugas que ve; seguro que no van más allá de cinco. ¿Sabía que en el Banco de Germoplasma del Centro de Investigación y Tecnología Agroalimentaria aragonés se conservan semillas de más de 800 lechugas diferentes? ¿O de 3.000 pimientos distintos? No sólo existen los del piquillo...

Un Banco de Germoplasma sirve para lo mismo que un banco de esperma humano: guardar genes. Claro que el objetivo es bien diferente, y no sólo por el interés del segundo de hacer negocio. La misión de un banco hortícola es el de crear una fuente de variabilidad genética para la mejora de la agricultura en un futuro no demasiado lejano. Estamos hablando de investigación, no de una casa de semillas.

España cuenta con diversos bancos repartidos por las diferentes comunidades autónomas. Perfectamente coordinados y organizados, el liderazgo de todos ellos va rotando, siendo los tres más importantes del país el de la Universidad Politécnica de Valencia, el de Madrid (donde se encuentra el banco nacional), y el aragonés. Estos bancos atesoran decenas de miles de semillas distintas. Y siempre están en aumento.

Prospectar, multiplicar, evaluar y conservar. Este es el lema de cualquier banco de germoplasma. Los técnicos, verdaderos Indiana Jones de las semillas, buscan contactos entre los agentes de protección de la naturaleza y gente vinculada al mundo de la agricultura... Aunque lo normal es que el agricultor compre las semillas, a veces se puede encontrar que tiene una cebolla, un tomate o un perejil que ya cultivaba su abuela. Entonces le piden unas pocas semillas. De regreso al banco, se cultiva -dicho técnicamente, se multiplica- de modo que por cada gramo de semilla se obtienen 300. Nadie muere si alguien te recuerda y ese melón que una familia cultivaba con mimo desde siempre no se perderá. Los bancos de germoplasma recogen esa semilla que lleva en el pueblo cientos de años para preservarla.

Pero no sólo se buscan plantas útiles para el hombre. El Banco de Germoplasma del Jardín Botánico de la Universidad de Valencia también conserva las especies endémicas, raras o amenazadas de la flora del mediterráneo occidental, especialmente, las del territorio valenciano. Las esporas o semillas se recolectan en las poblaciones naturales procurando recoger la mayor diversidad genética posible.

Todo este trabajo sería inútil si no se conservaran: se limpian y se deshidratan hasta el 5% de humedad. Luego se meten en un tarro hermético con gel de sílice, que absorbe la humedad, y se guarda en cámaras frigoríficas entre 18 y 24 grados bajo cero. En estas condiciones la viabilidad de la semilla es de más de un siglo, incluso puede llegar a miles de años. De este modo, cuando haya muerto el hortelano que la entregó o el investigador que la encontró, y aunque nadie las haya usado, no se habrán perdido.

Web: www.comav.upv.es/comav_banco.html


Información cuántica: la revolución subatómica

Desde hace más de 20 años algunos científicos están tratando de aprovechar las reglas que rigen el mundo cuántico para propiciar un cambio radical en los fundamentos de la computación. La llamada computación cuántica está, hoy por hoy, de moda, y en los últimos años esta utopía parece encontrarse mucho más cerca.

Los fundamentos de la física cuántica se enfrentan a la intuición y lógica tradicionales. No resulta para nada evidente descubrir que la medida de una magnitud física en un sistema cuántico no siempre genera el mismo resultado. Sin embargo, a pesar de esta aparente incertidumbre, la teoría indica con absoluta precisión qué valores pueden obtenerse y con qué probabilidades deben aparecer. Eso sí, la sorpresa está a la vuelta de la esquina porque resulta difícil de asumir que cualquier medida realizada afecta al sistema cuántico de tal modo que lo empuja a un nuevo estado (es como si por pesarnos en una báscula cambiase nuestro peso). Aún más, ese estado final depende tanto del estado inicial del sistema como del resultado de la medida realizada. La teoría cuántica resulta a nuestros ojos -acostumbrados a piedras, coches y personas- totalmente antiintuitiva.

Como todos sabemos, la información se almacena en un ordenador en piezas discretas llamadas bits. Cada bit puede valer 0 ó 1. En un ordenador digital un bit de información viene representado por una cierta situación eléctrica. Por ejemplo, un condensador cargado puede ser un 1, y uno descargado, 0. Si nos fijamos bien, el bit no es otra cosa que un cuanto de información. ¿Podemos crear sistemas cuánticos que funcionen como un condensador? Existen varios tipos de dispositivos que se han propuesto para realizar computación cuántica. En un ordenador cuántico el almacenamiento de información básica se realiza en un sistema cuántico con dos estados independientes: el qubit (bit cuántico). La gran diferencia entre el bit y el qubit estriba en que, mientras que los bits clásicos son independientes unos de otros, lo qubits cuánticos pueden interferir entre sí formando lo que los físicos llaman estados colectivamente enredados. Este hecho hace que aumente de forma increíble la rapidez con que se pueden realizar algunas operaciones.

Éste es el campo de investigación del español Ignacio Cirac, director de la división teórica del Instituto Max Planck de Óptica Cuántica y profesor invitado del Instituto de Ciencias Fotónicas de Barcelona y que es uno de los mayores expertos mundiales en esta línea de investigación.

Web: www.icfo.es/index.php?section=people0&lang=english&op=show_card&people_id=29&nick=Ignacio%20Cirac


Autopia: coches sin conductor

En el Instituto de Automática Industrial del CSIC se intentan conseguir robots que se muevan y actúen por sí mismos. Lo más sencillo es diseñar el sistema de movimiento: pueden ser patas (útiles para terrenos raros, como escalar por los laterales de los buques) aunque lo habitual son las ruedas. Más complicado de conseguir es que se muevan sin asistencia humana. Es aquí donde centra sus esfuerzos el grupo de Ricardo García: coches controlados por un computador unido a un sistema sensorial que reconoce el entorno.

En Arganda del Rey han construido un barrio de mentira, ZOCO, ZOna de COnducción. Para que el coche se mueva por ese entorno se utiliza GPS y un sistema de visión artificial, desarrollado en la Universidad de Alcalá de Henares, que reconoce la calzada y los obstáculos en ella situados. Para coordinar todo ello utiliza como sistema de control la lógica borrosa, que simula el comportamiento de un chofer humano y permite controlar un coche con instrucciones idénticas a las del lenguaje normal. Así, el ordenador no tiene que resolver ecuaciones diferenciales que explican su dinámica, sino simplemente responder a instrucciones tales como "si estás cerca de una esquina, frena" o "si te has desplazado un poco a la izquierda, mueve el volante a la derecha". El coche obedece y hace las cosas bien... en la mayoría de las ocasiones. Lo que los investigadores quieren conseguir es que siempre haga lo que se le pide.

Suena a ciencia ficción pero en los próximos años es probable que veamos cómo se van incorporando alguno de estos dispositivos a nuestros vehículos: en un atasco, para que no tener que ir pendiente de mover el coche poco a poco, o llevar el coche a un aparcamiento y que aparque solo. De hecho, ya se comercializan sistemas que mueven automáticamente el volante del coche para aparcar, dejando al conductor el control de los pedales.

Web: www.iai.csic.es/autopia/


Proteínas en un ordenador

Lo más fascinante de la biología es entender el funcionamiento de una célula a nivel molecular. Más asombroso aún es que por primera vez en la historia los científicos piensan que es posible resolverlo, aunque puede que les lleve un siglo. Está claro que estamos en una fase optimista.

El famoso "dogma central de la biología molecular", un gen codifica una proteína, quedó hace tiempo obsoleto. Nada es tan sencillo como parece y cada gen codifica muchas proteínas. Es más, hay un 98% de nuestro ADN que no tiene esta función y, aunque existen muchas hipótesis que pretende explicar para qué sirve, todavía no se tiene nada claro. Lo seguro es que el tamaño del ADN no se corresponde con la complejidad del organismo: algunas plantas tienen genomas enormes y no son más complejas. Puede que parte de ese ADN sean restos históricos y que a determinadas especies les cueste tiempo eliminarlos; pueden ser secuencias repetidas, virus que se han insertado...

¿Es sencilla la vida? No lo sabemos, aunque ahora estamos en condiciones de responder la pregunta. Algunos expertos piensan que si fuera muy compleja sería inestable. Eso sí, lo que tienen claro es que la vida es persistente. Esto indica que hay mecanismos robustos, que no se estropean con facilidad; para que sean resistentes no deben encerrar muchos mecanismos de control. Además, la complejidad de la vida no parece venir por grandes mecanismos de control y regulación, sino por pequeños detalles de los mecanismos de interacción molecular. Por ejemplo: el investigador piensa que cierta interacción de dos proteínas controla un proceso, de modo que se unen en un lugar determinado de la superficie molecular. Pero, claro, también pueden hacerlo en otro un poco distinto con una pequeña variación; simplemente son dos o tres aminoácidos que han cambiado de posición unido a una pequeñísima variación en energía. Saber cuál de todas esas infinitésimas variantes es la correcta es impredecible con las tecnologías actuales.

El gran fracaso de la biología molecular es su incapacidad de predecir cómo se pliegan las proteínas. Se trata de un problema físico, pues en el fondo se encuentra lo que realmente sabemos de la interacción entre los átomos y el agua, de la entropía del agua, de la interacción de las moléculas del agua... Nuestro conocimiento de la ciencia subyacente es importante: podemos formular las ecuaciones adecuadas y hacer cálculos. Pero el margen de error de nuestras simulaciones es demasiado grande comparado con el que se cuenta realmente para poder determinar la estabilidad de las proteínas. Eso es debido a que están construidas justo en el borde: si fueran solo un poco más inestables se degradarían y si fueran más estables no desempeñarían su función. Es este baile en la cuerda floja lo que convierte el problema en algo muy complejo. Es, en esencia, una falta de física.

Este es uno de los campos de acción de la bioinformática, una disciplina que es impulsada por el Instituto Nacional de Bioinformática, creado en 2003 y dirigido por Alfonso Valencia.

Web: www.inab.org/


Una red para el magnetismo

MAGMANet. Bajo este acrónimo se ocultan las siguientes palabras: Molecular Approach to Nanomagnets and Multifunctional Materials. Se trata de una red de grupos de investigación europeos en el campo de imanes moleculares, que va más allá de los imanes tradicionales; significa conseguir nuevos materiales magnéticos a escala de nanómetros. Pero MAGMANet es muchísimo más que eso. Estamos hablando de una Red Europea de Excelencia con 15 "nodos" (centros de investigación) que aglutinan a 150 investigadores de 10 países. Lo más llamativo es que España cuenta con tres: Barcelona (CSIC), Valencia (Universidad de Valencia) y Zaragoza (Universidad de Zaragoza y CSIC). Con ello se convierte en el país con mayor número de nodos (le siguen Francia y Gran Bretaña con dos).

Fernando Palacio es la figura visible de MAGMANet en Zaragoza y un experto mundial en imanes moleculares: participó en la caracterización del primer imán molecular de la historia y su grupo, del Instituto de Ciencias de Materiales de Aragón, posee el récord mundial en la caracterización del imán orgánico a la más alta temperatura. Esta red ha recibido de la Unión Europea 11 millones de euros y con ellos pretenden alcanzar un triple objetivo, definido por las palabras Integración, Investigación y Excelencia. Bajo este paraguas se pretende constituir un instituto de investigación virtual europeo (European Institute of Molecular Magnets) -único en su género-, integrar grupos industriales (IBM, Philips o Bosch, por mencionar los más potentes que ya lo han hecho), dar formación a científicos y postdoctorales, potenciar líneas de investigación fundamentales para el desarrollo futuro de aplicaciones de imanes moleculares. Y, como punto también fundamental, divulgar la ciencia de sus laboratorios entre la población.

La transferencia de tecnología es de vital importancia. Este hecho lo demuestra que la poderosa IBM piensa que los imanes moleculares van a constituir un punto de inflexión en el campo de la electrónica, informática, biomedicina... Según muchos expertos dentro de pocos años los sistemas actuales van a quedar totalmente obsoletos.

Web: http://www.magmanet-eu.net/


¿Qué hace una molécula como tú...?

Si hay algo esencialmente difícil en química es establecer modelos teóricos capaces de predecir la reactividad de las moléculas. Consiste en averiguar por qué las moléculas se transforman unas en otras, qué es lo que hace que se transformen de un modo determinado y no de otro. Si se consigue se puede dirigir la reactividad de las moléculas.

Debemos tener en cuenta algo importante: las sustancias pueden reaccionar de muchas formas. En química es muy frecuente encontrarse con una molécula activa, por ejemplo un medicamento, del que si cambiamos de un modo casi imperceptible su estructura se transforma en un tóxico potentísimo. Equivocarse en la reacción no implica solamente que se está generando una impureza, sino que puede crearse una molécula que tiene efectos totalmente indeseables.

Curiosamente este tipo de reacciones muy casuales, esporádicas, de las que se desconoce su mecanismo, se tiene conciencia desde finales del siglo XIX. En los libros antiguos de química se puede encontrar un capítulo final titulado Reacciones sin mecanismo de reacción. O sea, que les era imposible saber por qué tenían lugar. Tiempo después, los químicos Woodward y Hoffman descubrieron las reglas por las que se regían. El problema con el que se enfrentaban era que los modelos disponibles eran relativamente rudimentarios debido a la complejidad intrínseca de los procesos de cálculo. Fue en los años 80 y 90 cuando fue posible, por primera vez, abordar su estudio.

Sólo con el advenimiento de los ordenadores con gran capacidad de cálculo se han podido utilizar estar reacciones como verdaderas herramientas para sintetizar moléculas complicadas de manera eficaz. Estos problemas se pueden resolver por ensayo y error: Probamos condiciones y reactivos diferentes hasta dar con la solución. Pero este camino es muy costoso en tiempo y dinero. La otra posibilidad es estudiar por ordenador cómo reaccionan y cómo escoger el camino a tomar. Después en el laboratorio se verifica si se está en lo cierto o si hay que matizar lo encontrado. Entonces se introducen nuevos parámetros, se cambia el modelo o se genera otro camino y así hasta que aparezca la autoconsistencia necesaria entre la teoría y el experimento, hasta que todo encaja.

En España el número de grupos que se mueven en este campo, la llamada Química Computacional, es más bien escaso. Uno de estos grupos es el de de Reactividad Molecular y Diseño de Fármacos de la Universidad de las Islas Baleares, cuyo interés es el estudio químico-físico de las reacciones químicas con implicaciones biológicas. Un conocimiento profundo de estas reacciones es interesante, no únicamente en el mundo de la química, sino también para la biología, farmacología y biomedicina en general. Entre sus investigaciones se encuentra el diseño de nuevas moléculas capaces de hacer frente a los sistemas de defensa que han logrado desarrollar muchas bacterias contra los antibióticos.

Web: www.uib.es/depart/dqu/dqf/introc.htm

Etiquetas: ciencia

Continúa leyendo

COMENTARIOS

También te puede interesar