Los 10 colosos de la ciencia

Frente a la imagen tópica que se tiene del científico (un solitario encerrado en su laboratorio, rodeado de pipetas y tubos de ensayo, o de extraños instrumentos que producen descargas eléctricas), en la II Guerra Mundial nació la Gran Ciencia: un grupo numeroso de investigadores, trabajando conjuntamente en un proyecto importante. Ejemplo de ello fue el Proyecto Manhattan de construcción de la bomba atómica, una empresa científico-tecnológica de una escala sin precedentes hasta entonces. La ciencia de la segunda mitad del siglo XX dejó de ser obra de individualidades para convertirse en el esfuerzo de grupos más o menos amplios. Quizás el último científico trabajando en solitario fue el genial Albert Einstein. La Gran Ciencia (Big Science) suele implicar, como su nombre indica, grandeza: ingentes cantidades de dinero, que pueden llegar a miles de millones de euros; un gran número de científicos ?nunca menos de un centenar-; enormes instrumentos, como pueden ser los aceleradores de partículas o un elevado número de máquinas, como los numerosos secuenciadores utilizados en el proyecto Genoma Humano. Y por supuesto, grandes laboratorios, como el CERN, en Ginebra o el Lawrence Livermore National Laboratory, en EE UU.

Elitismo en la Gran Ciencia

Sin embargo, algunos critican este modo de investigar porque mina los principios básicos de la ciencia; en particular, el de reproductibilidad de los experimentos por investigadores independientes. Así, ¿cómo se puede comprobar la afirmación de que un grupo ha descubierto una nueva partícula elemental si todos los que son capaces de hacerlo trabajan en ese macrogrupo de investigación y no existe otro acelerador capaz de hacerlo más que aquél en que se ha realizado el experimento? Además, el acceso a estas gigantescas instalaciones para realizar las propias investigaciones suelen estar sujetas a un comité que evalúa su conveniencia y en el que no faltan los argumentos personales y las presiones políticas. Éstos son en la actualidad los 10 mayores experimentos de la ciencia en todos los campos: telescopios, aceleradores, láseres, naves espaciales, ordenadores... Todo por bien del conocimiento. Al menos, así debería ser.


1. Arecibo, una inmensa oreja

Escuchar las ondas de radio que se producen en el universo, ésa es la misión de los radiotelescopios. Al igual que sucede con los telescopios ópticos, la apertura es determinante: cuanto más grande sea el tamaño del plato, mayor será la resolución con la que observaremos los diferentes objetos celestes y seremos capaces de detectar objetos cada vez más lejanos. El radiotelescopio mayor del mundo compuesto por un único disco es el de Arecibo, encajado en un valle natural de Puerto Rico. En operación desde 1963, tiene un tamaño de 305 metros y forma parte del National Astronomy and Ionosphere Center de la Universidad de Cornell. Con él estudian los púlsares ?estrellas de dos y tres veces la masa del Sol, con un tamaño del orden de una ciudad media y que dan mil vueltas sobre sí mismas en un segundo-, la distribución de las nubes de gas en la Galaxia o las emisiones de radio de los planetas gigantes del Sistema Solar.

 


Sin embargo, en radioastronomía no es necesario construir antenas cada vez más grandes: si tenemos dos radiotelescopios separados por una distancia de 10 km y los hacemos apuntar al mismo lugar del cielo, usando técnicas interferométricas, será como tener un radiotelescopio con un plato de 10 km. En este caso, la mayor formación de antenas es la Very Large Array, en Nuevo México: 27 antenas -cada una de 25 metros de diámetro? formando una inmensa Y griega, lo que equivale a un radiotelescopio de 36 km con la sensibilidad de un plato de 130 metros. Pero el que será sin duda el mayor radiotelescopio del mundo se está construyendo en Europa. En lugar de las clásicas antenas parabólicas, los científicos de ASTRON en Dwingeloo, Holanda, han decidido sembrar los campos del país de los tulipanes y parte de Alemania de pequeñas antenas con forma de pirámide unidas entre sí por fibra óptica y controladas por el supercomputador más rápido del mundo, IBM Blue Gene/ L. Esta distribución equivale a un radiotelescopio con un diámetro efectivo de 604 metros.

 


2. LHC, el gran acelerador de partículas

En el año 2007 entrará en funcionamiento el mayor acelerador de partículas del mundo: Large Hadron Collider o LHC (Gran Colisionador de Hadrones), en el Centro de Física de Partículas CERN, cerca de Ginebra. En un anillo de 27 km las partículas subatómicas alcanzarán velocidades cercanas a las de la luz y se las hará colisionar en busca de respuestas a la pregunta que desde hace décadas se plantean los físicos de partículas, ¿cuál es la estructura íntima y última de la materia? Para hacernos una idea de su tamaño: tardaríamos 4 horas en recorrerlo y en el interior del anillo entrarían las islas Bermudas, Mónaco y cuatro veces la Ciudad del Vaticano. Está enterrado a 80 m bajo la superficie entre las fronteras de Francia y Suiza, y para guiar los protones en su viaje por su interior se necesitan potentes campos magnéticos, que son proporcionados por imanes superconductores enfriados a temperaturas del orden de ?270 ºC. Entre sus objetivos se encuentra descubrir una elusiva partícula: el bosón de Higgs, que se supone que es ?la madre de todas las partículas?, pues es ella la que otorga la masa al resto. Si no se encontrara, sería un duro golpe para el llamado Modelo Estándar de la física. Otro de los objetivos es hallar la prueba de la existencia de partículas superpesadas, que serán la evidencia de que puede ser cierta una de las teorías más queridas de la física teórica, la supersimetría, que en esencia busca la unificación de las cuatro fuerzas de la naturaleza. Además, en este acelerador se encuentra el mayor detector del mundo, el ATLAS. Sus dimensiones son de impresión: 46 m de largo por 25 de alto y un peso de 7.000 toneladas, lo que significa que es una vez y media mayor que la ballena azul, el animal más grande.

 

Y todo para registrar el paso de partículas que son ¡100.000 billones de veces más pequeñas! Semejante aparato va a observar las colisiones más energéticas que jamás se hayan conseguido en un laboratorio. Semejantes gigantes tienen costes también monstruosos: 2.000 millones de euros para el LHC y 365 millones el detector ATLAS. El nivel de precisión que se debe alcanzar con estos inmensos aparatos es tal que han de tenerse en cuenta hasta los efectos prácticamente imperceptibles; por ejemplo, el de las mareas lunares en los haces de partículas, que representan 1 mm en 27 km. Insignificante, pero detectable.

 


3. ITER, la superbotella estelar

Embotellar una estrella: éste es el objetivo de todos los programas de fusión nuclear del mundo. En esencia consisten en reproducir los procesos que se dan en el interior de las estrellas: calentar una mezcla de isótopos de hidrógeno ?átomos de hidrógeno que poseen distinto número de neutrones en su núcleo? a una temperatura del orden de los 100 millones de grados centígrados para que, por fusión entre ellos, se produzca helio y neutrones y se libere gran cantidad de energía. El problema fundamental es calentar el hidrógeno y mantenerlo así. Alcanzar la temperatura necesaria se realiza mediante una combinación de ondas de radio, corrientes eléctricas y ráfagas de partículas. En esas condiciones el átomo de hidrógeno pierde su electrón y se convierte en plasma, el estado de agregación de la materia por encima del gaseoso y requisito previo para que se produzca la fusión. Es evidente que no hay contenedor que resista tales temperaturas sin fundirse; luego, para mantener el plasma confinado se utilizan o láseres o campos magnéticos. El mayor reactor de fusión nuclear hoy en funcionamiento, Joint European Torus, JET (Gran Bretaña), utiliza estos últimos. Se trata de un reactor cuya vasija tiene unas dimensiones de 15 m de ancho por 20 de alto y en él trabajan 600 investigadores de 20 países.

 

Sin embargo, la mayor instalación de este tipo se empezará a construir en Cadarache, Francia, y ocupará una extensión de 40 hectáreas con otras 30 para equipamientos adicionales: se trata del ITER -una palabra que en latín significa camino-. Si, como se espera, la organización queda completamente definida en 2006, el primer plasma de fusión se obtendrá en 2016. El objetivo de ITER, cuyo reactor es 6 veces mayor que JET, es demostrar que los críticos de la fusión nuclear están equivocados cuando afirman que es la energía del futuro... y siempre lo será. En definitiva, demostrar que se puede construir un reactor comercial, esto es, del que se extraiga más energía que la que consume; los cálculos teóricos estiman que se obtendrá 10 veces más energía. El plazo en el que el ITER pretende demostrar la viabilidad de la fusión nuclear es de 40 años después de su comienzo. La apuesta es muy fuerte, pues el coste de operación estimado es de más de 220 millones de euros por año y no hay garantías de que vaya a funcionar.


4. El IceCube, neutrinos bajo el hielo

En la Antártida se está construyendo el telescopio de neutrinos más grande del mundo: el IceCube. Los neutrinos son las partículas más elusivas conocidas, capaces de atravesar un bloque de plomo de varios años luz de tamaño sin interaccionar prácticamente con nada. Por ello, su detección exige grandes instrumentos, habitualmente enterrados bajo toneladas de roca en las montañas, como es el caso de los laboratorios de Gran Sasso (Italia) o Canfranc (España). El hecho de haber escogido la Antártida como base para un gran telescopio de neutrinos tiene su razón de ser en que el hielo que hay bajo la superficie es una región grande para detectar los escasos neutrinos de origen galáctico o extragaláctico que atraviesan la Tierra, suficientemente transparente para que la luz producida por los neutrinos al interaccionar con el hielo llegue a los detectores y suficientemente oscura para que no haya interferencias de la luz natural exterior. El predecesor del IceCube fue AMANDA -Detector Antártico de Neutrinos y Muones-, terminado en 2000, donde los científicos enterraron 750 detectores bajo el hielo. Con ellos registraron esos tenues destellos de luz que producen los pocos neutrinos que atraviesan el hielo del Polo Sur y demostraron la viabilidad y eficacia de un telescopio de estas características. Así que la comunidad internacional se ha lanzado a construir el IceCube, cuya "primera luz" se verá en 2009 y ocupará una extensión de un kilómetro cúbico de hielo. Esto es, 1.000 m de anchura por 1.000 m de profundidad. Con semejante extensión los expertos esperan detectar el paso de 100.000 neutrinos de alta energía al año, lo que servirá para entender los procesos explosivos que se producen tanto dentro de nuestra galaxia, la Vía Láctea, como en otras cercanas. Este experimento, localizado bajo la Estación Admunsen-Scott del Polo Sur, recibirá del gobierno de Estados Unidos 300 millones de dólares, unos 250 millones de euros, en la próxima década. Con él se abrirá una nueva ventana de observación al universo todavía no explorada al igual que intentará dar respuesta a uno de los mayores misterios de la astronomía desde mediados del siglo pasado: ¿cuál es la naturaleza del 90% de la materia con la que está hecho el universo, conocida con el nombre de materia oscura?


5. Cassini, el mayor explorador planetarioLos 10 colosos de la ciencia

El 15 de octubre de 1997 se lanzó la que hasta la fecha es la nave de exploración espacial más grande jamás construida. Se trata de la Cassini-Huygens, que llegó a Saturno el 1 de julio de 2004 después de pasar por las cercanías de Venus, la Tierra y Júpiter. El porqué de estos pasos, llamados "ayudas gravitatorias", es debido a que no existe ningún cohete en el mundo capaz de llevar esta sonda de 5.600 kg directamente a Saturno; de este peso, sólo 2.500 kg pertenecen a la nave "en seco"; el resto es el combustible necesario para el viaje. Para poder llegar tuvo que pasar en dos ocasiones cerca de Venus y una vez cerca de nuestro planeta con el fin de adquirir la velocidad necesaria que le permitiese arribar a su destino en el Sistema Solar exterior. La nave, que pesa tanto como un elefante africano adulto, tiene unas dimensiones de 6,7 m de alto por 4 m de largo, y ha costado 3.270 millones de dólares, unos 2.790 millones de euros. Ha viajado 4.000 millones de kilómetros en apenas 7 años y transporta 18 instrumentos científicos de la Agencia Europea de Espacio (ESA), además de la sonda Huygens. Ésta, con un peso de 320 kg, fue lanzada con éxito sobre la segunda mayor luna del Sistema Solar, Titán, el día de Navidad de 2004, a la que llegó 21 días después. Huygens estuvo emitiendo información durante todo su descenso a la superficie de Titán hasta 3 horas y 44 minutos después de su entrada en la atmósfera. Entre los datos que proporcionó se encuentran los primeros sonidos grabados en la superficie de un cuerpo del Sistema Solar.

 

Sin embargo, no se trata del mayor instrumento puesto en el espacio. En este caso el premio se lo lleva la Estación Espacial Internacional, con un tamaño final esperado de 110 m de largo -paneles solares incluidos- y un peso de 460 toneladas. Existen serias dudas de que acaben construyéndose todos los módulos previstos, pero la NASA confía tenerla acabada en 2010. Su coste es también astronómico: 100.000 millones de euros, de los cuales la parte correspondiente a Europa es de 8.000 millones. A pesar de que la ESA afirme que se trata del coste de una taza de café para cada ciudadano de la Unión Europea cada año durante 10 años, muy pocos ven valor alguno en lo que se ha dado en llamar el agujero negro económico de la investigación espacial.

 

6. Blue Gene/L, el ordenador más rápido

Hoy la informática adelanta que es una barbaridad, como diría Don Sebastián a Don Hilarión en La Verbena de la Paloma. En 2004 el supercomputador más rápido se encontraba en el Instituto Yokohama para las Ciencias de la Tierra de Japón, un monstruo con 5.000 procesadores unidos por 2.800 km de cables que ocupa tanto como cuatro campos de tenis. Hoy se sitúa en el puesto séptimo, y el primer lugar es para Blue Gene/L, el superordenador desarrollado por IBM y por investigadores del Lawrence Livermore National Laboratory. Se trata de una máquina con más de 65.000 procesadores que pueden realizar 280 billones de cálculos por segundo y consume la quinta parte de la potencia eléctrica que tiene destinada el laboratorio a la división de computación, algo más de 15 MW, casi lo que genera una pequeña central de gas. Inicialmente el destino de este supercomputador de 200 millones de dólares es el de simular explosiones nucleares y reacciones bioquímicas complejas.

 

Por su parte, investigadores del proyecto GridPP están poniendo a punto la que será la red (grid, en inglés) de computación más grande del mundo, destinada a gestionar la ingente cantidad de información que aparecerá cuando se ponga en funcionamiento el nuevo acelerador del CERN, o LHC. Por poner un ejemplo: los físicos que están desarrollando el mayor de los detectores del LHC, el ATLAS, planean producir más de 10 millones de eventos de partículas subatómicas. Uno de los últimos test de esta red consistió en transferir el contenido equivalente a 17.000 CD en 9 días entre la Universidad de Edimburgo y el Rutherford Appelton Laboratory en Oxfordshire. Pero no todas las matemáticas las hacen los ordenadores; también el ser humano es un pequeño ordenador andante. Para saber cómo, se realizó durante 3 años el que está considerado como el mayor experimento matemático de la historia, que terminó en 2003 y ha involucrado a más de 7.000 personas. En él se ha resuelto un enigma que intrigaba a los científicos desde 1949: tenemos dos formas de solucionar problemas matemáticos; una instantánea ?que nos permite reconocer de inmediato y sin tener que contar que hay tres monedas encima de una mesa- y otra es la que nos enseñan en la escuela ?las clásicas técnicas que nos permiten sumar, restar, multiplicar y dividir-. Por el número tan amplio de participantes, se han podido descubrir tendencias generales, como el hecho de que las mujeres son más veloces a la hora de realizar juicios matemáticos instantáneos.

 

7. LBA, el mayor experimento medioambiental

Los gases invernadero podrían causar un aumento de la temperatura global de la Tierra en un valor mayor del doble que el predicho por el Panel Intergubernamental para el Cambio Climático (IPCC), una organización de las Naciones Unidas que aglutina a un gran número de climatólogos de todos los países del mundo. Éstos son los primeros resultados obtenidos por el mayor experimento de predicción climática en curso, publicados en la prestigiosa revista Nature. Para ello se ha usado el tiempo de cálculo cedido por personas particulares en sus propios ordenadores y que sigue el modelo de computación distribuida que tanto éxito ha tenido con el programa SETI@Home, destinado a analizar las señales que se reciben en los radiotelescopios en busca de posibles emisiones de civilizaciones extraterrestres. De hecho, la plataforma de software utilizada es BOINC (Berkeley Open Infrastructure for Networking Programming), desarrollada por el equipo de SETI@Home en la Universidad de Berkeley. Este proyecto, que comenzó el 12 de septiembre de 2003, cuenta en la actualidad con más de 95.000 participantes de 150 países; para colaborar, basta con visitar la página web www.climateprediction.net. Los primeros resultados apuntan a una posible subida global de las temperaturas de 11 grados centígrados de media.

 

Por otro lado, en este año está previsto que concluya el Large-Scale Biosphere Atmosphere Experiment in Amazonia (LBA), el mayor experimento medioambiental de la historia. Este estudio se concentra en cómo la selva del Amazonas y los cambios en los usos de la tierra de la región afectan a la atmósfera, tanto a escala regional como global. Además, el LBA estudia también cómo los cambios climáticos influyen en el funcionamiento químico, biológico y físico de la selva amazónica. Los ciclos del agua y del carbono, la agricultura... todos esos asuntos se tienen en cuenta a la hora de estudiar y predecir los efectos que la deforestación o el fuego tienen sobre uno de los pulmones del planeta; cada año se pierden 20.000 kilómetros cuadrados sólo en la parte Brasileña. Para este gran experimento medioambiental son claves satélites como Terra o Aqua, que la NASA posee en órbita. El LBA se considera ya un éxito completo, con 61 proyectos finalizados y 59 todavía en desarrollo en los que están participando 17 países.

 

8. La carrera por los supertelescopios gigantes

Si se quieren observar los objetos más lejanos y débiles del universo es necesario construir telescopios de gran apertura, esto es, con un gran espejo principal. Durante muchos años el récord lo tuvo el mítico telescopio Hale de Monte Palomar, California, con un espejo de 5 m. Los nuevos que hoy están en construcción, como el Gran Telescopio de Canarias, se encuentran entre los 8 y 10 m de diámetro. Al igual que sucede con los radiotelescopios, el avance en microelectrónica e informática permite acoplar diversos telescopios independientes para formar uno de mayor resolución. En este sentido, el Very Large Telescope del European Southern Observatory (VLT) en el desierto de Atacama, Chile, es el mayor del mundo. Consta de 4 telescopios de 8,2 m de diámetro, que si operan juntos funcionan como si se tratara de un único telescopio de 16,4 m de espejo. Detrás les siguen los dos telescopios Keck de Mauna Kea, Hawai, con un diámetro cada uno de 10 m y una apertura conjunta de 14,6 m.

 

Pero la carrera por el más grande continúa. La Universidad de California junto con el Instituto Tecnológico de California están diseñando el California Extremely Large Telescope (CELT), un telescopio de 30 m de diámetro. Claro que los europeos no se quieren quedar cortos y también tienen su propio telescopio extremadamente grande, con un espejo entre 50 y 100 m de diámetro, que se espera que entre en funcionamiento en 2015. Por supuesto, los astrónomos de altas energías no se quieren quedar atrás y han construido su observatorio de rayos cósmicos en Mendoza, Argentina, el Observatorio Pierre Auger, cuyos detectores ocupan una superficie de 3.000 kilómetros cuadrados, que registra las partículas subatómicas que llegan del espacio exterior con una energía que es 10 millones de veces mayor que la que se alcanzan con los aceleradores de partículas más potentes que haya construido el ser humano. Para ello a finales de este año se habrán colocado los 1.600 detectores previstos -cada uno lleno con 12 toneladas de agua?, así como 24 telescopios destinados a observar la débil luz azul que emiten los rayos cósmicos cuando chocan contra los átomos de nitrógeno de la atmósfera. En este proyecto participan 350 físicos de 15 países distintos. Pero lo más soprendente es que su coste será de unos 40 millones de euros, 4 menos de los inicialmente presupuestados. Ahora se quiere construir uno análogo en el hemisferio norte, posiblemente en EE UU.

 

9. LIGO, unos brazos kilométricosLos 10 colosos de la ciencia

En las cercanías de Livinsgton, en el estado de Luisiana, y en Hanford, Washington, se hallan los mayores detectores de ondas gravitacionales del mundo: LIGO. En estas dos localizaciones se encuentra una estructura en L donde cada uno de los brazos mide 4 km de largo. El objetivo de estos instrumentos es confirmar una de las predicciones más llamativas de la Relatividad General de Albert Einstein, las ondas gravitacionales. Según esta teoría, que explica lo que es la gravedad -una medida en cada punto de la curvatura del espaciotiempo en el que vivimos-, diferentes fenómenos en el universo, como la explosión de una supernova o la colisión entre dos agujeros negros deben producir unas perturbaciones en el tejido del espacio similares a las olas que genera una piedra al caer sobre la tranquila superficie de un estanque. El verdadero problema es detectar el paso de estas ondas por nuestro planeta. Para ello se hacen interferir dos haces láser, que recorren cada uno de los brazos de la L, donde se produce lo que los físicos llaman un patrón de interferencias: un conjunto de bandas que se alternan oscuras y claras. Si pasara una onda gravitacional se modificaría este patrón de interferencia, pero en una cantidad mínima, del orden de una milbillonésima de milímetro, o una cienmillonésima parte del diámetro de un átomo de hidrógeno en un brazo de 4 kilómetros de largo. El porqué de usar dos detectores similares separados más de 2.000 km entre sí es poder eliminar todas aquellas interferencias locales debidas a microterremotos, perturbaciones del aire, el paso de un tren o de un avión comercial... que pueden parecer verdaderas detecciones. Si una onda gravitacional pasase por la Tierra, debería observarse simultáneamente en ambos detectores. Ahora bien, para identificar la fuente celeste de donde ha surgido, se necesita un tercer detector. Por ello los nortemericanos de LIGO colaboran con otros proyectos, como el europeo VIRGO, que se encuentra cerca de Pisa, Italia, y se puso en marcha en julio de 2003. Este instrumento, un proyecto conjunto Italofrancés, es más pequeño que su homólogo norteamericano: los brazos son de 3 km de largo. Para 2012 la NASA y la ESA quieren enviar un detector de estas características al espacio: 3 naves volando en formación triangular y separadas 5 km.

 

10. NIF, un superláser para la fusión nuclear

En el National Ignition Facility (NIF), situado en el Lawrence Livermore National Laboratory, California, se está construyendo el mayor láser del mundo y se espera que esté a pleno funcionamiento en 2010. Consta de 192 haces de láser ultravioleta encerrados en un espacio del tamaño del Coliseo romano. Con semejante aparato se van a poder reproducir las condiciones físicas en las que se encuentra el centro del Sol. Por eso, uno de los objetivos de este centro es obvio: estudiar lo que sucede a la materia cuando se la somete a altísimas temperaturas y densidades. Lo más fascinante es que, para conseguirlo, se dispararán esos casi dos centenares de láseres ultravioletas de tan mastodóntica construcción sobre un blanco cuyo tamaño es menor que el de un perdigón de un rifle de aire comprimido. Tan diminuta diana está constituida por hidrógeno pesado, esto es, hidrógeno que posee en su núcleo un protón y un neutrón ?el núcleo del hidrógeno "normal" consta de únicamente un protón?. Pero no creamos que se tratan de disparos sostenidos: cada pulso de láser, cada ráfaga, tendrá una duración de unas 3.000 millonésimas de segundo. Cuando los pulsos entren en la cámara de blancos producirán un fogonazo de rayos X que convergerán sobre el centro de la cámara, justo donde se encuentra una pelotita de plástico que almacena el hidrógeno pesado en su interior. Los técnicos del NIF aseguran que se podrán alcanzar los 100 millones de grados necesarios para que se produzca la fusión nuclear.

 

En esencia, el NIF es una alternativa al ITER. Mientras que este último utiliza campos magnéticos, el NIF pretende probar la viabilidad de conseguir la fusión nuclear mediante el bombardeo con láser: es el llamado confinamiento inercial. La pregunta, al igual que sucede en el caso del ITER, es si los científicos del NIF serán capaces de hacer rentable este proceso. O lo que es lo mismo, obtener más energía que la que necesita para funcionar. En este sentido, los expertos consideran que se obtendrá 15 veces la energía consumida por el sistema. Con un coste estimado, sólo en su construcción, de 3.400 millones de euros y más de un centenar de científicos planteando experimentos, que semejante monstruo dependa de un laboratorio destinado esencialmente a investigaciones militares ha despertado duras críticas en diferentes sectores de la sociedad norteamericana.


Miguel Ángel Sabadell

Continúa leyendo

COMENTARIOS

También te puede interesar