La inteligencia artificial está aquí ¿Están preparadas las empresas?
La ley trabaja a contrarreloj para intentar aportar un marco legal al rápido avance de la tecnología.
El desarrollo tecnológico es imparable y la inteligencia artificial, que hasta hace tan solo unos pocos años era cosa de ciencia ficción, ya está aquí, es el presente. Ahora el problema es mucho más mundano: ¿Cómo se regulará legalmente, por ejemplo, el uso de robots? ¿Cómo se adaptarán las empresas a su llegada?
Durante los últimos años, legisladores de todo el mundo coinciden en una cosa: las leyes pronto empezarán a dar forma a cómo la inteligencia artificial se integrará y será utilizada por las empresas. Muchas de ellas, no obstante, ya están implementándola, y cada vez son más los bancos o las multinacionales que poseen software avanzadísimo y lo utilizan en el día a día de sus actividades.
La ley va a contrarreloj
Hace poco, en Estados Unidos, los cinco reguladores financieros federales más grandes del país publicaron una solicitud de información sobre cómo los bancos usan la inteligencia artificial, lo que indica que se avecinan cambios importantes en el sector financiero.
La Comisión Europea hizo lo mismo a finales del pasado mes de abril, publicando su propia propuesta para la regulación de la inteligencia artificial, que incluyen multas de hasta el 6% de los ingresos anuales de una empresa por su incumplimiento.
Para las empresas que ya están implantando inteligencia artificial el dilema es claro: por un lado, la evolución de los marcos regulatorios afectará significativamente a su capacidad para utilizar la tecnología. Por otro, con nuevas leyes, aún en evolución, puede parecer que todavía no está bien definido qué es lo que pueden y no pueden hacer las empresas que utilizan la inteligencia artificial.
Consenso en medio del caos
A pesar del aparente descontrol, existen tres tendencias regulatorias que unen casi todas las leyes actuales, y en construcción, sobre inteligencia artificial, lo que significa que ya hay acciones concretas que las empresas pueden emprender ahora mismo para asegurarse de que sus sistemas no contravengan ninguna normativa existente y futura.
La primera es el requisito de realizar evaluaciones de los riesgos de la inteligencia artificial, y de documentar cómo se han minimizado dichos riesgos. Una gran cantidad de marcos regulatorios se refieren a estos tipos de evaluaciones de riesgos como "evaluaciones de impacto algorítmicas", que se han vuelto cada vez más populares entre los marcos de protección de datos.
La segunda tendencia versa sobre la responsabilidad y la independencia que, a un alto nivel, requiere que cada sistema de inteligencia artificial sea probado en busca de riesgos, y que los científicos de datos, abogados y otros que la evalúan tengan incentivos diferentes a los de los científicos que la han creado. Esto simplemente significa que la inteligencia artificial debe ser probada y validada por personal técnico diferente al que la desarrolló.
La última tendencia es la necesidad de una revisión continua de los sistemas de inteligencia artificial, incluso después de que se hayan realizado evaluaciones de impacto y revisiones independientes.
Debido a que los sistemas de inteligencia artificial son frágiles y todavía presentan altos índices de error, los riesgos crecen y cambian inevitablemente con el tiempo, lo que significa que, en la práctica, dichos riesgos de la inteligencia artificial nunca se mitigan por completo.
Mucho por hacer
La inteligencia artificial es algo todavía muy nuevo, y la ley aún bascula un poco en tierra de nadie. De hecho, los legisladores ni siquiera han llegado a un amplio consenso sobre qué es la inteligencia artificial, un requisito previo claro para desarrollar un estándar común para regularla.
Pero, aun así, la formas en que los gobiernos están abordando el tema de los riesgo de la inteligencia artificial tienen claros puntos en común, lo que significa que los estándares para regularla están empezando a aclararse y estandarizarse.