La inteligencia artificial de Google ya no usará etiquetas de género
En las fotos de personas, la inteligencia artificial de Google ya no usará etiquetas de género como 'mujer' u 'hombre' por considerarse poco inclusivas.
En 1993, la bióloga Anne Fausto-Sterling propuso que debería reemplazarse nuestro sistema de dos sexos por cinco: machos, hembras, herm (hermafroditas “auténticos”), serm (“seudohermafroditas” masculinos) y serf (“seudohermafroditas” femeninos). Más allá de que esta idea revestía cierto tono irónico, lo que quería poner de manifiesto es que las etiquetas “hombre” o “mujer” no solo tienen un componente científico, sino también sociológico.
Por ello, la intersexualidad cubre varias condiciones que dan lugar a cuerpos con mezcla de partes masculinas y femeninas. Actualmente, ya se han descrito diversos tipos de intersexualidad en función de su origen fisiológico, como el síndrome de insensibilidad androgénica o la hiperplasia adrenocortical congénita.
Así pues, habida cuenta de que determinar a una persona con una etiqueta como “hombre” o “mujer” ya resulta dificultoso para la inteligencia humana, aún lo resulta más para una inteligencia artificial (IA), cuyos algoritmos de reconocimiento facial son víctimas de sesgos sexuales.
Cloud Vision
Google Cloud Vision API es una herramienta en la nube de Google que permite analizar gran cantidad de imágenes y extraer información valiosa de las mismas para comprender su contenido. La característica Face Detection, por ejemplo, tiene como objetivo detectar caras humanas en imágenes.
Sin embargo, dado que el género de una persona no puede inferirse solo por la apariencia, a fin evitar los sesgos sexuales y otros prejuicios, Google Cloud Vision dejará de etiquetar las fotos de personas como “hombres” o “mujeres” y optará por el genérico “personas”.
No es la primera vez que Google se enfrenta al problema de corregir sesgos sexuales, raciales o de otro tipo en sus diversas herramientas de software. Los sesgos en la inteligencia artificial son un asunto ampliamente debatido entre los desarrolladores, pues los datos que se usan para entrenar los algoritmos, si son defectuosos, incompletos o simplemente también son víctimas de sesgos, finalmente pueden reforzar situaciones injustas y prejuicios. Un ejemplo son los algoritmos de reconocimiento facial que identifican erróneamente a las personas negras con más frecuencia que las personas blancas.
En 2015, por ejemplo, un ingeniero de software señaló que los algoritmos de reconocimiento de imágenes de Google Photos estaban categorizando a sus amigos afroamericanos como "gorilas". Como de momento los ingenieros y programadores no han sabido cómo refinar el algoritmo, sencillamente se bloqueó la opción de identificar "gorilas" en las imágenes.
El sesgo algorítmico, pues, tiene lugar cuándo un sistema informático refleja los valores y prejuicios de los humanos que están implicados en la codificación y recolección de datos usados para entrenar el algoritmo. Sin embargo, algunos desarrolladores no otorgan tanta importancia a esta clase de sesgos y consideran que estas preocupaciones responden más a una moda asociada a la corrección política que a un aspecto puramente técnico. Según su planteamiento, si un sistema es capaz de identificar correctamente la mayoría de las veces a una persona por su sexo o su etnia, tal y como lo hace un ser humano, entonces hemos de poder usar esa información aunque se produzca una pequeña cuota de errores.