Muy Interesante

La Inteligencia Artificial es racista y sexista

Los prejuicios implícitos en el lenguaje humano se transmiten a los sistemas de inteligencia artificial que los imitan.

Luis Otero

Sabemos que las máquinas pueden aprender a hacer rápidamente cosas que a los humanos nos cuestan años de estudio y aprendizaje, y además las pueden hacer mejor y con más precisión que cualquier persona. Ahora un estudio llevado a cabo por científicos de la Universidad de Princeton (Estados Unidos) y de la Universidad de Bath (Reino Unido) ha demostrado que los sistemas de inteligencia artificial también se contagian y aprenden nuestros defectos. Por ejemplo, que cuando los sistemas de inteligencia artificial aprenden un idioma a partir de textos ya existentes se impregnan de los mismos prejuicios raciales y de género incluidos en el lenguaje.

En suma, que las máquinas son el espejo de lo que somos. El estudio, publicado en la revista Science, se basa en el llamado Test de Asociación Implícita (TAI), un método usado habitualmente para medir los conceptos preconcebidos que distorsionan la percepción en los seres humanos. Para ello se insta a los individuos participantes a asociar dos ideas que consideren semejantes y las contrapongan a dos que consideran opuestas. Este test es una buena herramienta para analizar cómo se transmiten este tipo de sesgos en el comportamiento humano y la relación que tienen con el lenguaje y los estereotipos culturales.

Los autores de la investigación replicaron el TAI en sistemas de aprendizaje automático, como los que se emplean en traductores o procesadores de textos de la web. Tras analizar las asociaciones que hacía el sistema con más de dos millones de palabras, descubrieron que reflejaba los mismos prejuicios transmitidos a través de la lengua por los seres humanos. "Por ejemplo, los nombres femeninos se asociaban sobre todo a términos relacionados con la familia, mientras que los masculinos aludían a conceptos relacionados con carreras profesionales", dice Aylin Caliskan, una de las autoras de la investigación. Por ejemplo, al pasar del turco al inglés la frase "él es enfermero", el sistema lo traducía como "ella es enfermera", mientras que la expresión "él es médico" no cambiaba de género al pasar del turco al inglés. Y también se transmiten los prejuicios raciales. Diversos estudios sobre el comportamiento humano muestran que en Estados Unidos un mismo currículum tiene el doble de posibilidades de pasar la fase de la entrevista si el nombre y apellido del candidato es europeo y no afroamericano. En el caso de la IA, también se asocian los apellidos europeos con estímulos o términos positivos relacionados con el placer, como 'regalo' o 'felicidad'.


Según Arvid Narayanan, otro de los autores del estudio, la transmisión de los prejuicios se debe no solo a los programadores de los sistemas sino a los datos con los que se alimentan y a textos procedentes de las redes sociales, de lo que escribe la gente on line.

La ventana a un mundo en constante cambio

Muy Interesante

Recibe nuestra revista en tu casa desde 39 euros al año

Suscríbete
Suscripciones a Muy Interesante
tracking