El algoritmo que predice si un criminal reincidirá falla como un humano

Usado en los juzgados estadounidenses desde 1998, el programa COMPAS comete tantos errores como una persona elegida al azar y sin conocimientos criminalísticos.

El algoritmo que predice si un criminal reincidirá falla como un humano

Ya hemos visto algo parecido –salvando las distancias– en películas de ciencia ficción. Así, en Minority Report (2002), protagonizada por Tom Cruise y basada en un relato corto de Philip K. Dick, se habla de la instauración del sistema PreCrimen, basado en el uso de tres hermanos con habilidades precognitivas capaces de predecir un delito antes de que se cometa. 

 

Encontrar un método para predecir si un criminal reincidirá o no es algo que todas las sociedades querrían. En Estados Unidos han sido pioneros en hallarlo: desde 1998, sus juzgados utilizan un programa llamado COMPAS. Se trata de un sofisticado algoritmo al que se atribuye la capacidad de predecir la probabilidad de que un delincuente vuelva a delinquir en el futuro.

Este software, comercializado por la empresa Northpointe y que se ha empleado para evaluar a más de un millón de delincuentes, tiene como objetivo predecir el riesgo de que un acusado cometa un delito dentro de los dos años posteriores a su evaluación teniendo en cuenta 137 parámetros diferentes del individuo, entre los que se encuentran sus antecedentes penales. 

Sin embargo, entregar el control de algo tan crucial como el futuro de la vida de una persona a las máquinas puede resultar peligroso, porque, según los resultados de un nuevo análisis llevado a cabo por un equipo de investigadores del Dartmouth College –universidad privada ubicada en Hanover, Nuevo Hampshire (EE. UU.)–, el algoritmo falla tanto como una persona elegida al azar y que tenga pocos o ningún conocimiento en el ámbito criminalístico. 

 

Ni más preciso ni más justo

“Los defensores de estos sistemas argumentan que el big data y el avanzado machine learning (o aprendizaje automático) hacen que estos análisis sean más precisos y menos sesgados que los de los humanos. Sin embargo, hemos demostrado que el ampliamente usado software de evaluación de riesgos COMPAS no es más preciso ni más justo que las predicciones hechas por personas con poca o nula experiencia en materia de justicia penal”, explican los autores del estudio, publicado en la revista Science Advances.

“Con una precisión global del 65%, estas predicciones no son tan precisas como podríamos desear, en especial si lo miramos desde el punto de vista de un acusado cuyo futuro está en el aire”, comentan los investigadores.

Para llegar a sus conclusiones, trabajaron con una muestra de mil convictos y llevaron a cabo una comparación de la capacidad predictiva del software en relación con la de personas de carne y hueso –unas quinientas personas sin ninguna preparación legal y a las que se sometió a una encuesta online–. Fallaron en similar proporción (en torno a ese 65%), y eso que los humanos disponían de mucha menos información que COMPAS, ya que solo valoraron siete parámetros, en lugar de 137.

Además, una investigación llevada a cabo en mayo de 2016 por ProPublica –agencia de noticias independiente y sin ánimo de lucro, con sede en Manhattan– señalaba que, aunque los parámetros empleados por COMPAS no incluyen la raza de los sujetos, otros de los datos que recopila y que están correlacionados con esta característica conducen a que el algoritmo pueda caer en un sesgo racista por el que se ven perjudicados los individuos afroamericanos –predice que reincidirán más de lo que luego lo harán–, mientras que los blancos se ven beneficiados –en este caso, predice que reincidirán menos de lo que lo hacen–. Llegaron a esta conclusión tras analizar la eficacia del software en más de 7.000 personas arrestadas en el condado de Broward (Florida) entre los años 2013 y 2014.

CONTINÚA LEYENDO