Grabando desde la caverna de Platón

Una nueva tecnología nos permite grabar escenas ocultas detrás de un obstáculo, si somos capaces de acceder a las sombras que proyectan. Dicho logro se ha publicado el noviembre de 2021, en Nature Comunications por un equipo de investigadores de las universidades de Wisconsin-Madison y Milán.

En su libro La República, Platón presenta la famosa alegoría de la caverna. Según esta alegoría (que no es un mito como suele afirmarse), un grupo de prisioneros viven en el interior de una cueva desde su nacimiento. Las cadenas que los tienen presos están colocadas de tal forma que solo pueden mirar a la pared del fondo de la caverna, sin ninguna posibilidad de mirar a otro lugar. Ha otros hombres, que caminan por detrás y portan objetos, pero no los pueden ver. Una hoguera colocada estratégicamente proyecta las sombras de los hombres caminantes sobre la única pared que pueden ver los prisioneros. Por tanto, dichos prisioneros piensan que las sombras son la verdad, pues no tienen más información. Pero sin un prisionero fuese liberado y viese el mundo externo, verían una nueva realidad más profunda y ampliada. Al regresar este prisionero a la cueva a contar lo sucedido lo tomarían por loco e, incluso, podrían matarlo. A no ser que usaran una cámara con tiempo de vuelo de baja latencia a cinco fotogramas por segundo, para generar imágenes sin línea de visión.

La línea de visión

nlos
Esquema de funcionamiento de NLOS. Fuente: Artículo 'A mitigation of line-of-sight by TDOA error modeling in wireless communication system' (2008)

El término "Non Line Sight" (NLOS) o “Sin línea de visión” se usa para designar la recepción de una señal de radio que no sigue el trayecto directo desde el objeto hasta el receptor. Esto ocurre cuando hay un objeto que obstaculice la señal, como pueden ser árboles, edificios o montañas. La línea de visión, por definición, está determinada por la capacidad del ojo humano promedio para resolver un objeto distante. Mientras que las longitudes de onda de ópticas rondan los 400-700 nm, las de ondas de radio oscilan entre 1 mm y 30 km. La longitud de onda de radio más corta es unas 2000 veces más larga que la longitud de onda óptica más grande. Por tanto, las obstrucciones visuales y de radio no son comparables. Sin embargo los científicos que están detrás del artículo han conseguido ver detrás de objetos, de la misma manera que ya se viene haciendo con las ondas de radio desde hace algún tiempo.

La idea es apetecible, pero parece algo de ciencia ficción: poder ver una escena que está oculta detrás de un objeto. ¿Cómo? Proyectando su sombra de una manera determinada. Se refleja luz verde sobre una pared y mediante la técnica de tiempo de vuelo se reconstruye la imagen en un ordenador. Sin embargo, hasta ahora llevaba varios minutos poder reconstruir una escena estática. El avance de Nam y el resto del equipo ha sido lograr escenas en tiempo real con cinco fotogramas por segundo. Aunque la idea parece simple, esta técnica necesita muchos sensores de luz ultrarápidos, con una sensibilidad altísima y algoritmos de reconstrucción de vídeo nada sencillos que puedan funcionar en el lapso de tiempo transcurridos entre dos fotogramas. El algoritmo mejorado aún más por uno de los coautores, el estudiante de doctorado Brandt. La lentitud de los algoritmos anteriores usados den NLOS se debían en parte a que cada sensor solo tenía un pixel.

 


Para lograr un vídeo a tiempo real el equipo necesitó diodos de avalancha de fotón único (SPAD), algo que ahora es más común y que incluso están en los últimos iPhone. Tienen la capacidad de poder detectar fotones individuales, es decir, son ideales para captar señales muy débiles. Los científicos de Wisconsin-Madison trabajaron junto con colegas de Italia, para perfeccionar el SPAD mucho más allá de los comerciales, 50 veces más lentos. Han llegado a tal punto que han podido detectar la profundidad, lo cual se traduce en reconstrucción de imágenes en 3D. Cuando proyectamos sobre la pared diferentes tonos de luz y sombra, aunque puede que muy sutiles. Esta sensibilidad en la cantidad de luz es lo que han logrado con sus SPAD mejorados de 28 píxeles.

Los vídeos

Los vídeos que han resultado hasta el momento son monocromáticos y difusos, pero reflejan el movimiento y la geometría tridimensional. Puede incluso decepcionar, pero pensemos en un momento en las primeras fotografías. La primera que conservamos es Vista desde la ventana de Gras, realizada por Niepce en 1826. También podría decepcionar en el momento, a no ser que los que la tuvieron en la mano supieron que estaban haciendo historia y solo era el principio. El tiempo de exposición fue de ocho horas. El equipo de Wisconsin-Milán ha podido comprobar con los vídeos grabados se pueden resolver letras o distinguir miembros humanos en movimiento. En uno de los vídeos distribuidos y que puede ver en esta página, Nam está escondido detrás de una tela, como un biombo. Tiene un peluche en la mano y lo lanza hacia arriba y abajo. El SPAD detecta el movimiento, la forma y la profundidad a tiempo real, a pesar de que la imagen es difusa.

Una tecnología con afán salvavidas

Derrumbe
Tal vez en el futuro esta nueva tecnología pueda usarse para salvar vida en algunas catástrofes.

Más allá de parecer una película de Star Trek o una serie de moda, las aplicaciones pueden ser muy variadas. Incluso podrían salvar vidas. Por ejemplo, el auxilio en caso de desastres. Imaginemos lugares donde queda atrapada gente y no se puede acceder con la vista, sería estupendo poder reconstruir la imagen por medio de esta técnica. O para los vehículos autónomos, que sabrían qué hay detrás de una esquina antes de llegar a ella. El profesor Andreas Valten es el último firmante del artículo, pero también el principal promotor de la técnica. Trabaja desde hace una década con NLOS, la técnica mencionada que consiste en registrar los ecos de los rebotes de la luz en una superficie. En palabras de Valten: “Es básicamente ecolocalización, pero usando ecos adicionales, como la reverberación”. Estas investigaciones, por supuesto, fruto de muchas miradas. El trabajo ha sido financiado por la Agencia de Proyectos de Investigación Avanzada del Departamento de Defensa de los Estados Unidos (DARPA) y la Fundación Nacional de Ciencias. A partir de ahora la idea es mejorar la técnica y quedará en la imaginación y la creatividad las múltiples aplicaciones que tenga en el futuro.

Artículo original: Nam, J.H., Brandt, E., Bauer, S. et al. Low-latency time-of-flight non-line-of-sight imaging at 5 frames per second, Nature Communincations 12, 6526 (2021).

Eugenio Manuel Fernández Aguilar

Eugenio Manuel Fernández Aguilar

Soy físico de formación, aunque me interesan todas las disciplinas científicas. He escrito varios libros de divulgación científica y me encanta la Historia de la Ciencia.

Vídeo de la semana

Continúa leyendo

#}