La IA podría ayudar a contrarrestar la propagación de campañas de desinformación
Este nuevo sistema es capaz de identificar si las cuentas que participan en las campañas de desinformación son controladas por bots o humanos, y ayudaría a predecir si determinadas contramedidas serían útiles para detener su propagación.
Junto con las elecciones norteamericanas o la actual pandemia de coronavirus en la que todavía nos encontramos inmersos, las campañas de desinformación, con la difusión de bulos y de fakes news, se han incrementado notablemente en los últimos años. Pero no se trata de algo nuevo. Podemos pensar, por ejemplo, en la propaganda en tiempos de guerra, cuando este tipo de campañas eran utilizadas con la finalidad de influir en la opinión pública contra un enemigo concreto.
Pero, como ya hemos visto, ahora los expertos se enfrentan a un problema palpable y latente, especialmente si tenemos en cuenta el uso de Internet y de las redes sociales a la hora de difundir este tipo de campañas. Por ejemplo, la propagación de la desinformación a través de las redes sociales tiene el poder de fortalecer teorías de la conspiración, fomentar campañas negacionistas contra el coronavirus o las vacunas COVID-19, o incluso cambiar el resultado final de las elecciones.
Investigadores del Grupo de Algoritmos y Arquitecturas de Software de Inteligencia Artificial del Laboratorio Lincoln del MIT han formado parte de un equipo de especialistas que se propuso comprender y entender mejor este tipo de campañas, para lo cual lanzaron el programa Reconnaissance of Influence Operations (RIO). ¿Su objetivo? Crear un sistema capaz de detectar de forma automática narraciones creadas para desinformar, así como identificar a aquellos individuos que las compartían y participaban de su difusión en las redes sociales.
Después de varios años de trabajo, consiguieron que este sistema fuera capaz de combinar múltiples técnicas de análisis con la que crear una visión integral de dónde y cómo se están extendiendo las campañas de desinformación. Así, desarrollaron un enfoque estadístico para ayudar a determinar no solo si una cuenta específica de redes sociales estaba difundiendo la campaña, sino también en qué medida esa cuenta concreta hacía que la red en su conjunto cambiara, amplificándose con ello el mensaje.
Por otro lado, los investigadores también aplicaron un nuevo enfoque de aprendizaje automático, útil para permitir que RIO pueda clasificar estas cuentas al analizar datos relacionados con comportamientos, como si la citada cuenta interactúa con medios extranjeros y, además, qué idiomas utiliza. De esta forma, el sistema fue capaz de detectar cuentas hostiles que únicamente se activan en distintas campañas, que van desde las elecciones presidenciales francesas de 2017 hasta la propagación de la información relacionada con la COVID-19.
Una de las principales ventajas de este sistema es que es capaz de detectar y cuantificar el impacto de las cuentas de redes sociales operadas tanto por humanos como por bots. Es más, ayudaría a pronosticar cómo distintas contramedidas podrían detener la propagación de una campaña de desinformación en concreto.
Referencia: Steven T. Smith et al, Automatic detection of influential actors in disinformation networks, Proceedings of the National Academy of Sciences (2021). DOI: 10.1073/pnas.2011216118