Científicos y juristas estudian los sesgos de la inteligencia artificial
Muchos expertos analizan actualmente algunos de los principales sesgos encontrados en los últimos años en diferentes sistemas y tecnologías que utilizan inteligencia artificial. Y advierten que, en realidad, muchos de estos sesgos reflejarían la existencia de un mundo todavía injusto.
Tanto los algoritmos como la propia inteligencia artificial ya intervienen e influyen en muchos aspectos de nuestra vida diaria: desde la música que escuchamos a las películas que vemos, pasando por las personas que conocemos o incluso el acceso a financiación bancaria.
Poco a poco hemos permitido que la inteligencia artificial pueda tomar decisiones en nuestro nombre sobre determinados asuntos, como en muchas otras áreas, debido a los beneficios que nos pueden ofrecer en términos no solo de eficiencia, sino también de rapidez de decisión.
Si bien es cierto que la dependencia de la inteligencia artificial continúa en crecimiento, también es legítimo plantearse la cuestión de los riesgos de tal dependencia. Y es que, como coinciden en señalar muchos especialistas, una mejor comprensión de nuestra percepción de la IA es fundamental, precisamente por el aura de infalibilidad y objetividad que le atribuimos, tal vez de manera abusiva.
Para muchos, los algoritmos son imparciales y neutrales, y representan una especie de justicia de paz incorruptible porque se basa en las matemáticas. Pero la realidad es un poco distinta. Y es que, a diferencia de la mayoría de los sistemas expertos basados en reglas especificadas a priori, la IA aprende de los datos del pasado, determinando las reglas de decisión que hacen posible reproducirlo.
Así, bajo el supuesto de que las mismas causas producen los mismos efectos, la inteligencia artificial es capaz de usar esas mismas reglas con la finalidad de predecir el futuro. Pero se trata de un sistema de aprendizaje alimentado, entrenado e interpretado por un ser humano. Y, de hecho, casi por naturaleza, potencialmente sesgado, ya sea consciente o inconscientemente.
Por este motivo, un equipo de investigación cada vez mayor coincide en señalar que el sesgo de la inteligencia artificial puede originalmente acabar conduciendo a resultados sesgados, especialmente para las poblaciones minoritarias y las mujeres.
Las tecnologías de reconocimiento facial, solo por citar algún ejemplo, han sido objeto de un escrutinio cada vez mayor porque se ha demostrado que tienden a detectar mejor los rostros blancos que los rostros de las personas con la piel más oscura, así como los rostros de los hombres, en comparación con los de las mujeres. De esta manera, los errores en estos sistemas han estado implicados en una serie de detenciones falsas debido a un error de identidad.
La preocupación por el sesgo en las tecnologías de reconocimiento facial llevó a una serie de prohibiciones relacionadas con su uso. De hecho, en junio de 2019, San Francisco (en Estados Unidos) se convirtió en una de las primeras ciudades del país en prohibir el uso de tecnologías de reconocimiento facial no solo por parte de la policía, sino también por otros departamentos de la ciudad. Y California hizo lo propio pocos meses después, en enero de 2020, imponiendo una moratoria de tres años sobre el uso de esta tecnología en las cámaras corporales de la policía.
El sesgo de la IA reflejaría un mundo injusto
Los expertos se preguntan si también se ha digitalizado el perfil racial, debido al hecho de que varias tecnologías han llevado el reconocimiento facial mucho más allá, analizando e interpretando los atributos faciales y otros datos para llevar a cabo evaluaciones de riesgo o identificar comportamientos inusuales o amenazas.
Es lo que los expertos denominan como “detección de anomalías”, y cada vez más, estas tecnologías son implementadas por las fuerzas del orden, las empresas de seguridad o los propios sistemas de seguridad del aeropuerto.
En un estudio publicado recientemente, los expertos demostraron que estos tipos de algoritmos de detección de anomalías tenían más probabilidades de predecir que los afroamericanos o los hombres de piel más oscuras eran anomalías.
Y dado que la detección de anomalías se aplica a menudo a personas de las que se sospecha que podrían tener o tienen un comportamiento inusual, es evidente que garantizar la equidad se vuelve importantísimo. Dicho de otra forma, si uno de estos algoritmos es usado con fines de vigilancia, es más probable que identifique a personas de color.
Pero esto no significaría que la máquina originalmente esté sesgada. Simplemente que ha visto más caras blancas en los datos con los que con anterioridad fue entrada, de manera que únicamente habría aprendido a asociar eso con la normalidad. Y este sesgo reflejaría un mundo que, en realidad, continúa siendo muy injusto.
No en vano, el peligro proviene realmente de considerar a la IA como un sistema capaz de tomar decisiones por sí misma. Por tanto, si la información que se ha proporcionado desde un primer momento es parcial, o incorrecta, la decisión será igualmente incorrecta.