Cómo prevenir y detectar ataques deepfakes, según los expertos
Aunque necesitamos fijarnos en algunas características, existen determinados detalles en videos y fotografías deepfakes que pueden ser de ayuda a la hora de detectarlos e identificarlos.
Gracias al poder cada vez mayor del “aprendizaje” de las IA, y tal y como alertan los expertos, los deepfakes se están volviendo más sofisticados, lo que obliga a los investigadores a perfeccionar sus herramientas de detección.
Discursos manipulados, vídeos o imágenes falsificados… No hay duda que los deepfakes se están difundiendo a toda velocidad a través de las redes sociales. Consiste en una técnica, basada en inteligencia artificial, en la que se superponen vídeos, uno encima del otro, permitiendo reemplazar rostros y, con ello, lograr efectos especiales.
A veces, se utiliza esta tecnología por una causa “noble” (como el vídeo falso de Trump producido hace algún tiempo por Solidarité SIDA), o para hacer sonreír a los usuarios, pero más a menudo también está siendo usado con la finalidad de desacreditar a un personaje público en particular, manipular a la opinión pública o incluso difundir información falsa.
Debido a ello, no es de extrañar que, en los últimos años, algunas de las principales plataformas de redes sociales, cada vez más señaladas, hayan presentado el desarrollo de distintas armas anti-deepfake. Es el caso, por ejemplo, de Facebook, que en diciembre de 2019 apoyó el desarrollo de tecnologías de detección. O Twitter, que anunció pocos meses después la inclusión de una etiqueta aplicable a los medios “engañosos”.
Pero, ¿existe alguna forma de poder prevenir ataques deepfakes? Y si es así, ¿de qué manera podríamos ser capaces de detectarlos en nuestro día a día?
Empezando por el principio: ¿cómo se hace un deepfake?
Fundamentalmente existen dos técnicas que se utilizan comúnmente para el desarrollo de contenido deepfake. Uno de los principales consiste en usar la sincronización de los labios (concretamente, el movimiento de los mismos) con el habla de otra persona. Se trata, es cierto, de un ataque pernicioso, puesto que únicamente se modifica una pequeña parte del video original.
En segundo lugar, se aplican distintas expresiones faciales de un actor (podríamos definirlo como el titiritero), al rostro original del objetivo (el títere). Seguidamente, se modifican la cara y los movimientos de la cabeza en su conjunto.
Pero en los últimos meses también ha surgido otro tipo de técnica que sorprende y alarma a los expertos: aunque se aleja un poco del deepfake tal y como lo entendemos, consistiría en la producción de imágenes completamente artificiales, utilizando para ello rostros inéditos en particular.
A la hora de hacerlo, debemos tener en cuenta que “deep” proviene del aprendizaje profundo, que consiste en un método de inteligencia artificial basado en el aprendizaje. Así, alimentado por una enorme cantidad de ejemplos diversos, la máquina es capaz de aprender automáticamente a realizar una tarea.
Por ejemplo, en el caso típico de la sincronización de los labios, la IA es entrada procesando discursos de audio, con el objetivo principal de conseguir que los labios puedan moverse de forma realidad. Luego, se le pide a la IA entrenada que realice este trabajo a partir de una nueva cinta de audio, cuyas imágenes no existen, que luego serán creadas.

Deepfake de Mark Zuckerberg
Como es de imaginar, se trata de un método que requiere de una gran cantidad de datos de entrenamiento, lo que significa que, en un principio, se utilizan videos reales con discursos reales, con sus correspondientes movimientos de labios. Podríamos decir que este principio sería similar al que se sigue comúnmente para la técnica de las marionetas, por lo que toda una completa gama de expresiones faciales terminan por convertirse en el punto de partida.
Un buen ejemplo lo encontramos en un video del CEO de Facebook, Mark Zuckerberg, en el que habla sobre cómo Facebook “controla el futuro” a partir de los datos de usuarios robados. Se trata, en realidad, de un video deepfake, ya que el video original fue tomado de un discurso que pronunció sobre la interferencia rusa en las elecciones estadounidenses de apenas 21 segundos de duración, tiempo suficiente para sintetizar el nuevo video.
¿Cómo podemos protegernos frente a un ataque deepfake?
Por el momento, la legislación de diferentes países está empezando a abordar las amenazas que plantean los contenidos deepfake (tanto vídeos como imágenes). Por ejemplo, en el estado de California ya se han planteado dos proyectos de ley que han convertido en ilegales ciertos aspectos relacionados con el deepfake, como prohibir el uso de imágenes humanas sintetizadas para hacer pornografía (sin el consentimiento de la persona que aparecería en ellas), y la prohibición de la manipulación de imágenes de candidatos políticos 60 días antes de una elección.
Por suerte, las distintas empresas de ciberseguridad ofrecen constantemente algoritmos de detección cada vez más eficientes, capaces de analizar la imagen de video y detectar pequeñas distorsiones que generalmente aparecen durante el proceso de “manipulación”.
Por ejemplo, por ahora, los sintetizadores deepfakes generan un rostro en 2D, que luego distorsionan para que se ajuste a la perspectiva 3D original del video. Y, como manifiestan los especialistas, la dirección en la que apunta la nariz suele ser una pista esencial muy reveladora.
A su vez, dado que los videos de deepfake aún se encuentran en una etapa inicial, es posible fijarnos en algunas características específicas para poder identificarlos como falsos por nosotros mismos:
- Variaciones de luz de una toma a otra
- Variaciones en el color de la piel de la persona original
- Ningún parpadeo o parpadeos extraños en los ojos
- Labios que se sincronizan mal con el habla
- Movimiento espasmódico
En el video de Mark Zuckerberg, por ejemplo, resulta evidente que se trata de una creación deepfake porque algunos movimientos del rostro no resultan naturales; además, al comienzo del video la oreja izquierda hace movimientos extraños, y la nariz no termina de convencer del todo.
No obstante, es evidente que pronto tendremos que disponer de herramientas básicas capaces de identificar fácilmente este tipo de contenidos, ya que, originalmente, la mayoría de los usuarios no suelen fijarse en aquellos detalles que sí podrían alertar que nos encontramos ante un contenido falso.