Muy Interesante

Twitter presenta una iniciativa para analizar posibles sesgos en sus sistemas de IA

Después de descubrir algunos sesgos relacionados con los sistemas de inteligencia artificial que utiliza Twitter en su plataforma, con la finalidad de evaluarlo y analizarlo está llevando a cabo un escrutinio muy profundo.

La red social Twitter ha lanzado recientemente una nueva iniciativa con la que persigue evaluar y analizar sus sistemas de inteligencia artificial con la finalidad de “educar” mejor a los usuarios, abordando con ello las crecientes preocupaciones sobre los sesgos exhibidos por sus algoritmos.

¿El objetivo? Someter a algunos de sus sistemas de aprendizaje automático a un escrutinio muchísimo más profundo, allanando el camino para llevar a cabo cambios en cualquier modelo.

Se trataría, concretamente, de una iniciativa cuyo objetivo no es solo aumentar la transparencia de los diferentes sistemas de inteligencia artificial (IA) utilizados por Twitter, sino mejorar la equidad de sus algoritmos, ofreciendo a los usuarios una especie de “elección algorítmica” sobre las diferentes tecnologías que les puedan afectar directamente.

En este sentido, Twitter se ha comprometido a asumir la responsabilidad de las decisiones algorítmicas de la plataforma, y decidió nombrar hace pocas semanas un grupo de trabajo para liderar esta iniciativa, en la que parece haber puesto todo su empeño. No en vano, este grupo cuenta con miembros de toda la empresa, y sería administrado por el equipo encargado de la ética, transparencia y responsabilidad de Twitter.

Debemos tener en cuenta que, cada día, alrededor de 200 millones de usuarios utilizan esta red social. Una plataforma que se basa en modelos de aprendizaje automático para una amplia variedad de tareas y funciones, desde la organización del contenido en función de su relevancia hasta identificar aquellas publicaciones que violan los términos de uso.

Como opinan los expertos, cuando la red social utiliza el aprendizaje automático, cientos de millones de tuits al día pueden acabar viéndose afectados. En este sentido, la propia Twitter se ha mostrado preocupada ante la posibilidad de que un sistema originalmente diseñado para ayudar pueda comenzar de forma distinta a lo esperado en un primer momento.

Para ver los resultados de los análisis tendremos que esperar unos cuantos meses. Pero cuando podamos tener acceso a la evaluación, podríamos conocer cuál sería el daño potencial de tres de los principales algoritmos de la plataforma: un análisis del sesgo racial y de género de recorte de imágenes; una evaluación de la equidad de las recomendaciones que aparecen en nuestro Timeline en distintos subgrupos raciales; y un análisis de las recomendaciones de contenido para distintas ideologías políticas en un total de siete países.

El primero de los análisis, por ejemplo, tiene especial relación con el problema al que la red social se enfrentó cuando descubrió que el uso de recorte de imágenes de la plataforma favorecía de manera automática las caras blancas (un sesgo sobre el que ya han hablado muchos especialistas en IA).

En este sentido, aunque la compañía reconoció que la forma en que las fotos se recuperaban automáticamente sí podría causar daños, en realidad no mostraban evidencias de prejuicios raciales o de género.

En cualquier caso, no hay duda que la decisión es muy importante, puesto que al comprometerse a llevar a cabo un análisis mucho más profundo de su plataforma, la red social también se ha comprometido a brindar a los usuarios una mayor visibilidad en el futuro.

La ventana a un mundo en constante cambio

Muy Interesante

Recibe nuestra revista en tu casa desde 39 euros al año

Suscríbete
Suscripciones a Muy Interesante
tracking