Así suena un amanecer en Marte

Unos investigadores convierten en música una imagen de la salida del Sol captada por el robot Opportunity en el planeta rojo.

 

El rover  Opportunity lleva recabando datos de Marte y enviándonos imágenes de su superficie desde que se posó en el planeta rojo, en 2004. Los expertos de la NASA que pusieron en marcha la misión esperaban que esta se prolongara durante 90 días marcianos –para definirlos se suele emplear el término ‘sol’; en este caso, equivalen a 92 y medio terrestres–, pero este ingenio de 185 kilos de peso y alrededor de metro y medio de largo ha resultado ser especialmente resistente. El vehículo, equipado con seis ruedas, ha continuado explorando los alrededores de Meriadiani Planum, la llanura en la que amartizó, hasta el 10 de junio de 2018, cuando una gran tormenta de polvo se abatió sobre él.

 

De momento, no se ha podido restablecer el contacto con el Opportunity, aunque es posible que el viento acabe por despejar los paneles solares que suministran energía a la nave, como ya ha ocurrido en otras ocasiones, y que esta continúe con su labor. Durante este tiempo, la información que ha aportado ha sido determinante para, por ejemplo, establecer que el agua modeló grandes extensiones de Marte en el pasado. De hecho, en la mencionada Meriadiani Planum –en este tiempo, el robot ha recorrido unos 45 kilómetros desde el punto en el que tomó tierra– se ha encontrado hematita, un óxido de hierro que en nuestro planeta aparece a menudo en estanques y formaciones hidrotermales.

 

Imágenes convertidas en sonidos

Ahora, un equipo de investigadores de las universidades de Anglia Ruskin y Exeter, en el Reino Unido, ha presentado lo que denominan “la banda sonora del amanecer marciano”, una pieza de algo más de dos minutos que han construido a partir de una imagen de la salida del Sol tomada por el citado rover el 16 de febrero de 2018. Era el alba número 5.000 que fotografiaba.

 

Para ello, el físico y compositor Domenico Vicinanza y la profesora Genevieve Williams, especializada en biomecánica, escanearon la instantánea de izquierda a derecha y la analizaron píxel a píxel. A cada uno le adjudicaron un tono en función de su color y brillo –el algoritmo que utilizaron asignaba los más elevados a los más brillantes– y, en el caso de los que se encontraban en un área ocupada por terreno, su elevación.

Esta técnica, conocida como sonificación de datos, se ha venido empleando en distintos campos, como, por ejemplo, en el estudio de las erupciones volcánicas, las tormentas y otros fenómenos atmosféricos, la trayectoria que siguen las partículas en ciertas condiciones o incluso las ondas gravitacionales.

El contraste entre los sonidos más graves, que se corresponden con las zonas de la imagen en la que dominan los tonos más oscuros, y los más agudos, que aparecen cuando el escáner alcanzó la posición del astro rey, en el centro de aquella, puede apreciarse nítidamente.

La obra, titulada Mars Soundscapes, llamó notablemente la atención de los asistentes a la pasada Conferencia sobre Supercomputación SC18 de Dallas (EE. UU.), en la que fue mostrada.

Imagen: NASA – Vídeo: Universidad Anglia Ruskin

Abraham Alonso

Abraham Alonso

Desde 1997 me dedico a la feroz tarea de contar la ciencia –lo único que puede salvarnos de nosotros mismos– y el futuro. A veces lo consigo.

Continúa leyendo