Las IA colocan estructuras, edificios y vegetación falsas en imágenes de satélites

Mientras que los científicos siguen analizando los sesgos de la inteligencia artificial, ahora un grupo de investigadores alerta de su uso en la creación de imágenes satelitales falsas.

Deepfakes con imágenes de satélites
Foto: Istock

Cuando hablamos de deepfakes posiblemente lo primero que nos venga a la cabeza sea una grabación de video o de audio realizada o modificada mediante inteligencia artificial (IA), pero que se caracteriza por una característica muy concreta: se trata originalmente de contenido falso, que la IA hace profundamente creíble.

Las deepfakes provienen de una técnica inventada por el investigador Ian Goodfellow en el año 2014, conocida con el nombre de GAN (Generative Adverarial Networks), mediante la que dos algoritmos se entrenan entre sí, de manera que uno intenta conseguir que las falsificaciones sean lo más fiables posibles; y, el otro, se “encarga” de intentar detectar las falsificaciones.

De esta forma, ambos algoritmos mejoran juntos con el tiempo a través de su correspondiente entrenamiento, por lo que cuanto mayor sea el número de muestras disponibles, mayor será la mejora en esas muestras.

Desde el año 2017, año en el que oficialmente nació el fenómeno deepfake apareciendo por primera  vez en el sitio web Reddit, su número se ha incrementado considerablemente, hasta alcanzar, en 2019, alrededor de 15.000 vídeos deepfakes, cuando el año anterior llegaban a poco menos de 8.000 videos. Pero su uso puede ir mucho más allá.

Un grupo de investigadores de la Universidad de Washington han detallado que es posible generar imágenes de satélite deepfake mediante el uso de la inteligencia artificial. Aunque pueden ser de mucha utilidad para, por ejemplo, comprender cómo era en el pasado un determinado lugar, o cómo podría transformarse una determinada ubicación si se llevaran a cabo algunos cambios, las imágenes satelitales creadas mediante deepfakes podrían ser utilizadas para todo lo contrario; y la desinformación podría ser uno de los objetivos más peligrosos.

Precisamente, para la producción de estas imágenes falsas el equipo de investigación norteamericano utilizó redes GAN, mediante un tipo de IA relativamente fácil de usar, y que comúnmente se utiliza para la creación de caras falsas.

Como advierten y alertan los investigadores, el uso de deepfakes en las imágenes satelitales puede acabar siendo muy peligroso, ya que al visualizar este tipo de instantáneas es muy común pensar que son reales, dado que, se supone, son fotografías del lugar, y no se corresponden con interpretaciones llevadas a cabo por un cartógrafo. Pero los deepfakes han demostrado que no tiene por qué ser así.

Y van más allá: temen que si un intruso consigue acceder a imágenes satelitales de equipos militares, cabe la posibilidad de que pueda añadir estructuras falsas con la finalidad de atrapar al enemigo. Incluso podrían ocultar al enemigo edificios o estructuras importantes, evitando su destrucción, al hacer creer que no existen cuando en realidad sí.

Ahora, a través de la ingeniería inversa, esperan crear herramientas que puedan ser capaces de detectar con facilidad cuando una imagen satelital ha sido modificada mediante IA.

Vídeo de la semana

Continúa leyendo