Cómo puede la IA ‘cognitiva’ combatir las Fake News

Un informe de la consultora Deloitte cuenta las claves para que las empresas de medios puedan utilizar la inteligencia artificial 'cognitiva' para identificar y eliminar la 'Fake News'.

 

Las noticias falsas o 'Fake News' y el contenido ofensivo siguen siendo temas de gran relevancia para la mayoría de las empresas de medios y para la sociedad. El problema surge cuando se comparte demasiada información a una alta frecuencia a través de Internet, por lo que no queda suficiente tiempo para una revisión manual. Como resultado, y en ausencia de soluciones para monitorizar el contenido, las empresas contratan a más y más empleados para revisar y verificar el contenido y evitar que la información inapropiada se vuelva viral. 

Sin embargo, esta no es una solución a largo plazo porque, a medida que el volumen de datos crece rápidamente, el manejo manual de la información errónea y el contenido inapropiado se vuelve muy costoso. La verificación manual de los hechos también introduce sesgos en el proceso de selección, ya que es casi imposible evitar que las opiniones y creencias personales de los miembros del equipo influyan en su juicio. Además de las noticias falsas, también existe la lucha contra el material ofensivo, es decir, el contenido con violencia y / o desnudez, que se publica en las redes sociales y se marca y reporta manualmente por los usuarios.

TAMBIÉN TE PUEDE INTERESAR

Y esto es lo que trata de contarnos, ofreciendo soluciones y recomendaciones, un estudio de Deloitte titulado ‘Inteligencia Artificial Cognitiva, la invasión invisible de los medios de comunicación’. La afirmación principal de la consultora es que “la inteligencia artificial (IA) cognitiva puede ayudar a garantizar la veracidad de los datos, identificar noticias falsas y automatizar la censura o la eliminación de dicho contenido de manera inteligente. En la era digital, no solo las compañías de medios sociales, sino también las compañías de medios tradicionales pueden usar tecnologías cognitivas para detectar contenido inapropiado, ayudándolos a seguir siendo creíbles y confiables”. 

La cuestión entonces es cómo y por dónde comenzar. Deloitte dice que se puede empezar usando técnicas de procesamiento natural del lenguaje (PNL) para extraer información de un texto, ya sea un artículo o una publicación en una plataforma de redes sociales. Un modelo de clasificación ayuda a identificar el (los) tema (s) general (es) de los que trata un texto y si un texto es clickbait o no. Este último funcionaría de manera similar a cómo se identifica el correo no deseado. Se pueden usar otras técnicas para la extracción de información, que consisten básicamente en extraer datos estructurados de un texto.

Hay muchas técnicas diferentes para realizar la clasificación de texto. Una simple sería el aprendizaje automático no supervisado llamado k-means clustering, aplicado a una colección de textos de muestra. K-means agrupa aquellos textos que son más similares en grupos distintos. Como esta es una técnica para el aprendizaje no supervisado, el ingeniero tendría que mirar los grupos resultantes y asignarles nombres (por ejemplo, apropiado y no apropiado). El modelo resultante se puede usar para clasificar texto nuevo. Por supuesto, este es un enfoque muy limitado; existen métodos mucho mejores, pero más complejos. Un ejemplo sería usar redes neuronales y una técnica llamada 'word2vec'.

En caso de que un texto venga con una imagen o un video, que técnicamente es solo una secuencia de imágenes, se puede usar un modelo para la clasificación de imágenes para identificar su contenido. Facebook, por ejemplo, utiliza redes neuronales para agregar etiquetas sobre el contenido de una foto a cada foto que se carga. Si una etiqueta se considera problemática, la foto / video puede simplemente eliminarse.

 

Para construir un modelo de este tipo, primero habría que crear una base de datos que contenga muchas imágenes etiquetadas que contengan el contenido no deseado. Usando la inteligencia artificial y el aprendizaje automático, estos pueden usarse para entrenar un modelo (por ejemplo, una red neuronal) que muestre cada imagen publicada en un sitio web. El mismo principio se aplica a los vídeos, pero requiere mucho más poder de procesamiento de datos.

En un paso siguiente, la información extraída del contenido en las etapas de procesamiento anteriores se puede usar para verificar los hechos, lo que se podría hacer simplemente comparando la información ahora estructurada con la información de las bases de datos o comparando la información con información extraída de fuentes confiables.

En resumen, el uso de la IA cognitiva permite a las compañías de medios combatir noticias falsas y contenido violento de manera más efectiva y con mayor confiabilidad. Puede ayudar a los editores y periodistas a tomar decisiones informadas sobre la publicación de una parte específica del contenido, ya que tiene el poder de hacer frente a la gran cantidad de datos y buscar en todo el Internet pruebas para verificar una parte del contenido, al tiempo que elimina juicio político y emocional que los seres humanos tienen sobre ciertos temas. 

“Los principales beneficios de la inteligencia artificial cognitiva en la lucha contra las noticias falsas”, cuenta Delotte, “permite un ahorro considerable de costos al eliminar los controles de hechos que consumen mucho tiempo, por lo que los editores y periodistas pueden centrarse en su trabajo principal y una mayor confiabilidad”.

Juan Carlos F. Galindo

Juan Carlos F. Galindo

Tras dos décadas dedicado a la comunicación de Productos y Servicios, Innovación, Tecnología, I+D, Televisión y Patrocinios de una gran empresa, me embarco en este blog que dedicaré a mi pasión, la tendencia tecnológica que va a protagonizar la 4ª Revolución Industrial: la Inteligencia Artificial.

CONTINÚA LEYENDO