Libertad condicional a golpe de algoritmo

 

Corría el año 2021 cuando en este mismo espacio advertía de lo peligroso que era emular con Inteligencia Artificial (IA) la película Minority Report o cómo algunos de los proyectos de IA de Europol entrañaban graves amenazas. Cuatro años después, hay gobiernos que continúan explorando estas prácticas de elevado riesgo; es el caso de Reino Unido, cuyo Ministerio de Justicia está utilizando un algoritmo para predecir el riesgo de reincidencia de las personas encarceladas.

Una nueva investigación de Statewatch haciendo uso de la Freedom of Information Act (FOIA), lo que sería el equivalente a la Ley de Transparencia española, ha revelado que el denominado Sistema de Evaluación de Delincuentes (OASys, por su acrónimo en inglés) se utiliza desde 2001. Hasta el pasado mes de enero, labase de datos del sistema contenía másde siete millones de marcadores que establecían el riesgo presunto de reincidencia de las personas. Sólo en una semana, del 6 al 12 de enero, se completaron un total de 9.420 evaluaciones, lo que supone más de 1.300 evaluaciones diarias. De enero de 2024 a enero de 2025, las evaluaciones rozaron el medio millón.

En realidad, OASys comenzó a utilizarse inicialmente en el sistema penitenciario y de libertad condicional de Inglaterra y Gales con el objetivo de gestionar y evaluar a más de 250.000 personas al año. Tal y como puede leerse en un documento oficial del Servicio de Prisiones y Libertad Condicional de Su Majestad (HMPPS), OASys nació para dar respuesta a la carencia de un instrumento que cumpliera plenamente con los requisitos para una evaluación coherente que ayudara a los profesionales a tomar decisiones sólidas y justificables. “OASys es una herramienta de evaluación de riesgos y necesidades” de las personas en prisión, indica el HMPPS.  

Según este documento, tomando elementos como posible alojamiento, nivel educativo, consumo de sustancias, problemas de relaciones interpersonales o cognitivos, etc. y cruzándolos con el riesgo de daño que pueden representar para sí mismas y para los demás, el sistema elabora planes de ayuda para dirigir las intervenciones, reducir la reincidencia y proteger a la ciudadanía.

Como una suerte de calculadora como con la que cualquiera puede hacerse una idea del futuro importe de su pensión, los funcionarios del Ministerio de Justicia británico pueden conocer la probabilidad de reincidencia dentro de uno y dos años. Basta rellenar campos sobre la empleabilidad, estado de salud mental, drogadicciones o situación habitacional al salir de prisión para que la calculadora haga ‘su magia’.

La preocupación por los sesgos que puede tener este sistema llegó en 2021 a la Cámara de los Lores, siguiendo recomendaciones de expertos en la materia. Entre las conclusiones plasmadas en su informe, la Cámara expresó su inquietud ante “los graves riesgos de que el derecho de un individuo a un juicio justo pueda verse socavado por evidencia manipulada algorítmicamente”.

Statewatch se ha hecho eco de las denuncias de Sobanan Narenthiran, un ex presidiario que en la actualidad es director general de Breakthrough Social Enterprise, una organización que forma en habilidades digitales a personas en exclusión. Narenthiran advierte de que “el racismo estructural y otras formas de sesgo sistémico pueden estar codificadas en las puntuaciones de riesgo de OASys, tanto directa como indirectamente”. Desde su punto de vista y en base a su experiencia, la información ingresada en OASys puede estar ‘viciada’ como consecuencia de una actuación policial sesgada –como incorporar la etiqueta de pertenencia a una pandilla sin tener pruebas de ello- o la vigilancia excesiva de ciertos colectivos. Este es el caso, por ejemplo, de los grupos racializados, que pueden ser “detenidas, registradas, arrestadas y acusadas con mayor frecuencia debido a las desigualdades estructurales en la aplicación de la ley”.

Todavía sorprende más que este sistema continúe utilizándose considerando que las propias evaluaciones oficiales cuestionan su validez. En un documento del Ministerio de Justicia que evaluaba el periodo de 2009-2013, se constató que la validez predictiva relativa fue mayor para las mujeres que para los hombres, para los blancos que para los asiáticos, negros y mestizos, y para los mayores que para los jóvenes”. En aquel análisis, los expertos alertaban de las inconsistencias y los sesgos en todos grupos de personas negras, asiáticas y minorías étnicas cuando se valoraba la probabilidad de reincidencia no violenta y para las negras y mestizas para la reincidencia violenta.

No ha sido hasta años después cuando, tal y cómo avanza el Ministerio de Justicia en la misma respuesta a Statewatch haciendo uso de la Ley de Transparencia británica, se está desarrollando una nueva herramienta digital para prevenir las reincidencias de delitos sexuales (OASys Sexual Reoffending Predictor, OSP). Desde diciembre del año pasado se encontraría en fase piloto, confiando en poder implantarlo a nivel nacional para 2026. Este nuevo desarrollo se estaría realizando en colaboración con Capita, una de las grandes adjudicatarias del gobierno británico que, entre otras soluciones cuenta con COSAIN, utilizada en que diversos cuerpos policiales de Reino Unido y que organizaciones en defensa de libertades civiles han denunciado por convertirse en una herramienta de vigilancia de redes sociales que monitoriza a los activistas.

(Artículo en Público)

Previous Post

Sin comentarios