Europa busca limitar el uso de la IA en la sociedad
Después de que muchos expertos hayan encontrado sesgos en la inteligencia artificial y algunos científicos hayan alertado acerca de sus usos, la Comisión Europea busca limitar su uso en nuestro día a día.
En su futuro reglamento sobre inteligencia artificial (IA), la Comisión Europea desea prohibir el uso de los algoritmos intrusivos que tienen como objetivo establecer una vigilancia generalizada o manipular el comportamiento humano. No obstante, esta exclusión, según hemos sabido recientemente, no se aplicará a los organismos públicos cuando se aleguen motivos de seguridad.
La Comisión Europea presentó su propuesta de reglamento sobre inteligencia artificial el pasado 21 de abril, como continuación de su libro blanco, en el que presentaba su estrategia sobre la IA, con la finalidad de establecer un “ecosistema de excelencia” y un “ecosistema de confianza” para promover la inteligencia artificial teniendo especialmente en cuenta algunos de sus riesgos asociados, incluyendo además el aumento de inversiones o el sesgo algorítmico sobre el que ya te hemos hablado en otras ocasiones.
En ese momento, la primera versión del libro blanco fue oficialmente publicado el 19 de febrero de 2020, donde la Comisión abogaba por un enfoque basado tanto en la regulación como en la inversión, con un doble objetivo: promover el uso de la inteligencia artificial, por un lado, y tener en cuenta los diferentes riesgos asociados a determinados usos de esta nueva tecnología, por el otro.
Precisamente, para la creación de un “ecosistema de excelencia” la Comisión ha pedido que se refuerce la cooperación entre los diferentes centros de investigación europeos, además de proponer la creación de un centro para coordinar todos los esfuerzos, atrayendo las inversiones e investigadores “más talentosos en la disciplina”.
Se prohibiría el uso de IA para vigilancia generalizada
Según distintas fuentes, parece que Bruselas quiere prohibir las aplicaciones de IA que se consideren demasiado intrusivas. Lo que significaría que prohibiría los sistemas usados para llevar a cabo una “vigilancia indiscriminada aplicada de forma generalizada a todas las personas físicas sin diferenciación”.
Y lo mismo ocurriría con aquellos algoritmos destinados a manipular el comportamiento humano, o a calificar a las personas en función de sus acciones.
En caso de que alguna empresa violara este principio, las compañías se arriesgarían a una multa de hasta el 4 por ciento de su facturación anual, de acuerdo con el reglamento europeo propuesto.
No obstante, las autoridades públicas y los gobiernos de la Unión Europea tendrán derecho a derogar esta norma para la preservación de la seguridad pública. Aunque no se ha dado una definición para ello, tendría como principal objetivo actividades relacionadas con el terrorismo o con el crimen organizado.
La importancia de regular lo que la Comisión Europea considera IA de alto riesgo
Según se desprende del texto presentado, la Comisión Europea desea regular de forma estricta lo que denomina como inteligencia artificial de “alto riesgo”, como podría ser el caso de las tecnologías de reconocimiento facial instaladas en espacios fácilmente accesibles al público, estableciéndose nuevos requisitos de evaluación.
Además, también prevé la implementación de un Consejo Europeo de Inteligencia Artificial, compuesto por un representante de cada uno de los 27 Estados miembros, un Supervisor Europeo de Protección de Datos y un representante de la propia Comisión Europea.
El supervisor, por ejemplo, sería el responsable de emitir recomendaciones y opiniones relevantes a la Comisión, con respecto a la lista de prácticas de inteligencia artificial.
No obstante, por el momento habrá que esperar para la llegada de las diferentes medidas propuestas. No en vano, una vez el ejecutivo las ha presentado, tanto el Consejo como el propio Parlamento Europeo deben aprobarlas.
Aunque ya algunos eurodiputados han avanzado que consideran que las reglas no son lo suficientemente estrictas. Y, algunos de ellos, ya han pedido también a la Comisión que aborde los riesgos de derechos fundamentales que plantea la denominada como IA de “alto riesgo”. Ursula von der Leyen, actual presidenta de la Comisión, ha prometido que se tendrá en cuenta esta solicitud.