¿Quién le pone el cascabel a la inteligencia artificial?

La Unión Europea tratará de proteger los derechos de los ciudadanos por un lado y, por otro, acelerar el desarrollo de la inteligencia artificial en la industria local.

Reconocimiento facial de un hombre
iStock

Antes se decía que Estados Unidos inventaba, China copiaba y Europa regulaba. Ahora lo que se dice es que China tiene los datos; Estados Unidos, la pasta; y que Europa tiene un plan. El plan de la Unión Europea (UE), tal como se manifiesta en su propuesta de regulación de sistemas de inteligencia artificial y reconocimiento facial, es tratar de conciliar dos aspectos que, en principio, parecen contradictorios: por un lado, proteger los derechos de los ciudadanos europeos y, por otro, acelerar el desarrollo de la inteligencia artificial en la industria local. No lo tenemos fácil. En el ranquin de 2020 de las cien startups de inteligencia artificial más prometedoras, solo hay seis dentro de la UE: dos alemanas, dos suecas, una francesa y una española llamada Sherpa, que hace un asistente de voz en tiempo real. La media del viejo continente sube un poco si sumamos una en Suiza y seis en el Reino Unido, pero sigue siendo muy baja comparada con la de China y Estados Unidos.

Pero la oportunidad existe. Sabemos que las soluciones chinas y estadounidenses tienen un precio en datos, y hay incentivos para evitarlas, sobre todo por parte de las administraciones, los servicios públicos y, muy especialmente, la defensa. También podríamos ser pioneros en tecnologías no extractivas que muchos países están deseando comprar. Sin embargo, la propuesta de la Comisión carece de los incentivos suficientes para generar esa alternativa. Está diseñada para actuar solo “cuando los derechos fundamentales están en juego”, lo cual deja un amplio margen para la innovación.

La Comisión propone regular solo aquellas cosas que considera de alto riesgo, que no son los algoritmos de recomendación de canciones o titulares o qué libro comprar después. Por una parte, están los sistemas que puedan causar daño, conductas criminales, perjuicios o discriminación a los ciudadanos de forma oculta o maliciosa; por otra, los sistemas de identificación biométrica automática y remota, aunque con un amplio abanico de excepciones.

Por ejemplo, prohíbe los programas de IA que permiten cambiar la cara de una persona por la de otra en un vídeo, popularmente conocidos como Deep Fake. Aunque solo aparecen en los medios cuando se usan en campañas políticas o para resucitar faraonas en anuncios de cerveza, el 99 % de las incidencias están vinculadas al acoso y humillación de exnovias y compañeras de clase o de trabajo, un género tan habitual que tiene su propia etiqueta: revenge porn.

También prohíbe sistemas de crédito social, como el que usa el gobierno chino para castigar o recompensar a los ciudadanos, aunque no queda claro cómo piensa monitorizar los que ya se hacen de forma opaca, caso de los algoritmos que seleccionan candidatos para recibir un riñón o un puesto de trabajo o calculan el precio de un seguro o una hipoteca. Son sistemas entrenados sobre decisiones anteriores y, por lo tanto, propensos a heredar sesgos económicos, raciales y sexuales y automatizar una silenciosa discriminación. De momento, la propuesta está pensada para fiscalizar a las empresas que desarrollan el software, que tendrán que estar dispuestas a abrir el código para inspección y a que ese código sea auditable. Una novedad excitante en un mundo dominado por las cajas negras de Google, Facebook, Amazon, Apple, IBM y Microsoft.

Más preocupante es la propuesta sobre sistemas de reconocimiento facial automáticos en tiempo real. En principio, la policía no podría realizar barridos de reconocimiento en tiempo real de todas las personas que entran y salen de un estadio, un concierto o una manifestación. Salvo que se esté buscando a un niño desaparecido o a un sospechoso de terrorismo, de asesinato o de fraude. Es una red de arrastre demasiado grande que ofrece oportunidades de abuso en poblaciones vulnerables.

Vídeo de la semana

Continúa leyendo