Los riesgos de la nueva Europol con Inteligencia Artificial


Recientemente advertíamos en este espacio de los peligros que puede entrañar el uso de tecnologías de Inteligencia Artificial (IA) y aprendizaje automático (machine learning) en la administración de la justicia. Ya en ese artículo, se referían prácticas más que cuestionables por parte de las policías de Holanda, Reino Unido o EEUU, con las que además de introducir sesgos se vulneraba la privacidad en base a conclusiones algorítmicas erróneas. No son las únicas; con los nuevos poderes que se pretende dar a Europol, estos riesgos se extienden por todo el continente.

El complicado equilibrio entre libertades/derechos civiles y seguridad se decanta, en la mayoría de los casos, por la segunda. Es lo que parece que podría suceder con las nuevas potestades que la Comisión Europea pretende dar a Europol, permitiéndole no sólo actuar en investigación que únicamente afecte a un solo estado miembro (ante se requería un mínimo de dos), sino dotándole de más libertad para el empleo de tecnologías de IA y de procesamiento masivo de datos (big data). No puede obviarse que, en esta última cuestión, recientemente recibió un buen tirón de orejas por parte del supervisor Europeo de Protección de Datos, cuando el pasado mes de octubre destapó el uso ilegal de datos de personales de un buen número de personas por parte del cuerpo policial europeo, según desveló Statewatch.

Hay que tener en cuenta que Europol ya  dispone de ingente cantidad de información de ciudadanía europea, tal y como demuestra una presentación realizada por uno de sus funcionarios. En dicho documento se aprecia cómo en su sistema, el conocido como EIS (Europol Information System), cuenta con alrededor de 250.000 sospechosos de delitos graves y terrorismo. Preocupan estas cifras y eurodiputadas como la irlandesa Clare Daly, que ha sido ponente del informe sobre la situación de los derechos fundamentales en la Unión Europea, ha denunciado la realización de perfiles intensivos por parte de Europol utilizando para ello IA y aprendizaje automático.

Los proyectos IA

Europol se encuentra participa actual entre tres proyectos relacionados con el uso de estas tecnologías:

  • INFINITY. Dotado con más de 6,8 millones de euros y coordinado por Airbus Defensa y Space SAS (Francia), el objetivo del proyecto es equipar a los investigadores con herramientas de vanguardia para adquirir, procesar, visualizar y analizar las cantidades de datos ingentes con las que tienen que lidiar día a día. Asimismo, respaldará a las fuerzas de seguridad con sistemas automatizados e interfaces y controles intuitivos. Tecnologías como la realidad aumentada y la realidad virtual, la IA y el aprendizaje automático o el big data son protagonistas en este ámbito. Este pretende ser también uno de los sistemas clave en los procesos judiciales, con los riesgos que ello entraña tal y como se advertía en un artículo anterior.
  • GRACE. Dispone de una partida presupuestaria de otros más de 6,8 millones de euros y se coordina desde España, concretamente, desde Vicomtech. Este proyecto, cuyas siglas significan en inglés Respuesta Mundial Contra la Explotación Infantil (Global Response Against Child Exploitation), persigue hacer frente a las enorme cantidad de datos que han recopilados las diferentes fuerzas policiales que, según detallan, ha experimentado desde 2014 un incremento del 4.000% que, sumado a que cada caso de uno de estos delitos contiene entre 1 y 3 TB de vídeo y entre 1 y 10 millones de imágenes hace que las investigaciones sean inasumibles. Sobre el papel, los responsables del proyecto indican que GRACE aplicará técnicas comprobadas en aprendizaje automático al proceso de derivación y análisis, mientras acepta los desafíos técnicos, éticos y legales propios de la lucha contra estos delitos.
  • AIDA (Analytics for Law Enforcement Agencies). Es el único que no está financiado íntegramente por la UE (la aportación privada en GRACE no es significativa). De un total de más de 8,8 millones de euros, la UE dota al proyecto de casi 7,7 millones y está coordinado desde Italia por Engineering-Ingegneria Informatica SPA. Centrado en la ciberdelincuencia y el terrorismo, AIDA busca convertirse en una plataforma de análisis de datos descriptivos y predictivos y herramientas asociadas que permitirán prevenir, identificar, analizar y combatir la ciberdelincuencia y las actividades terroristas.

Entidades como Statewatch comparten su preocupación acerca de la opacidad que existe en todos estos proyectos, sin que esté claro qué conjuntos de datos se están utilizando y, de ese modo, pudiendo aumentar los riesgos de sesgos en las investigaciones policiales. Un buen ejemplo lo podemos encontrar en el informe publicado en 2019 por la Red Europea contra el Racismo, en el que denunciaba "la abrumadora evidencia de la actuación policial discriminatoria contra las minorías racializadas y las comunidades de inmigrantes en toda Europa".

Esta falta de transparencia parece querer atajarse desde la Comisión Europea pero, de nuevo, es demasiado ambigua en su propuesta, dado que cuando expone la necesidad de “garantizar la transparencia” no detalla si ésta se refiere a los algoritmos –algo imprescindible-, a los métodos de investigación o a sus resultados. Resta mucho camino por andar y no únicamente en el plano tecnológico, me temo.

Next Post Previous Post

Sin comentarios