La Inteligencia Artificial como nueva amenaza para las personas migrantes

 


El 18 de diciembre se celebra el Día Internacional de las Personas Migrantes pero éstas no están para muchas alegrías, tal y como demuestran masacres que quedan impunes como la de Melilla. Al comportamiento inhumano y con tintes racistas que ha venido mostrando la Unión Europa (UE) en los últimos años, se suma ahora una nueva amenaza tecnológica avalada por una nueva normativa: La Ley de Inteligencia Artificial (IA) de la UE.

No es la primera vez que este espacio cuestiona esta ley utilizada para el control de fronteras, que pone en grave riesgo derechos fundamentales. En su propuesta original, directamente la ley obvia el impacto que puede tener el uso de esta tecnología en los movimientos migratorios. Lo que algunas partes interesadas presentan como beneficios, en realidad suponen una vulneración de las libertades de las personas migrantes, tratadas como ciudadanos de segunda. Es el caso de los sistemas predictivos que emplean IA para prohibir, restringir o prevenir –el término ya horripila- la migración.

Estas estimaciones que realizan los sistemas terminan siendo utilizadas para poner en práctica controles fronterizos abusivos, con devoluciones en calientes que no respetan siquiera derechos de solicitud de asilo con asesoramiento legal, como de hecho ya ha sucedido en nuestra frontera sur. Las predicciones se emplean para rearmar a terceros países, como Marruecos o Turquía, que son usados como escudos de estos movimientos de personas, mirando para otro lado ante los métodos empleados para frenarlos.

Adicionalmente, los sesgos que no se han eliminado de los algoritmos son otro de los riesgos para las personas migrantes, que terminan siendo perfilados de acuerdo a criterios discriminatorios y amenazan gravemente su presunción de inocencia. En ese mismo sentido, este tipo de perfilados puede terminar favoreciendo las infracciones de derechos al trabajo, acceso a la Sanidad y los servicios sociales o, incluso, a la justicia.

Por otro lado, si el pasado verano alertábamos de cómo el nuevo programa International Biometric Information Sharing (IBIS) estadounidense persigue compartir información biométrica a nivel internacional, los efectos del reconocimiento facial y el uso de datos biométricos con las personas migrantes puede resultar aún más perverso. En algunos casos, podría utilizarse este reconocimiento facial como detectores de mentiras, registrando las expresiones del rostro y cruzándolas con una base de datos de emociones. El riesgo de falsos positivos es muy elevado, poniendo en una situación indeseable a personas que ya viven de por sí un drama.

Asimismo, la Identificación Biométrica Remota (RBI) está encima de la mesa, es decir, que la IA se emplee para escanear a distancia estos datos biométricos y denegar la entrada, sacando de la ecuación la posibilidad de solicitar asilo. Este punto, incluso, podría llegar a socavar a los mismos Estados miembros, que podrían ver cómo se les aparta de ciertas competencias.

Expertos en Derecho y libertades civiles llaman a modificar el Anexo III de la ley en la que se describen los usos de los sistemas de IA d “alto riesgo” en la migración y el control fronterizo. En este apartado, posiblemente intencionadamente, el texto olvida incluir algunos de los sistemas que ponen en riesgo los derechos de las personas migrantes, como es el caso de los sistemas de identificación biométrica, que pueden terminar derivando en que el color de la piel, el origen étnico o la raza marque el estatus migratorio de una persona. A pesar de estas amenazas, la ley no regula su uso.

Tampoco se consideran de “alto riesgo” los sistemas analíticos predictivos utilizados en migración, a pesar de que las evaluaciones incorrectas sobre las tendencias migratorias y las necesidades de acogida pueden tener consecuencias fatales tanto para la preparación de los Estados miembros como pero para la probabilidad de que las personas puedan acceder a la protección internacional y muchos otros derechos fundamentales.

Se echa en falta una mayor transparencia en todo lo que orbita alrededor del uso de la IA en la migración. Todos los sistemas considerados de alto riesgo, no sólo debería presentar una evaluación de impacto en los derechos fundamentales antes de ser implementados sino que, además, deberían constar en un registro europeo sin excepciones. Un punto, el de no incluir cláusulas que es crucial, porque el actual texto de la ley exime de su cumplimiento –en el artículo 83- a sistemas de IA utilizados ya en frontera por la UE en los que lleva invertidos más de 340 millones de euros, tales como Schengen Information System, ETIAS o Eurodac (para este último se está barajando una actualización que incluya el procesamiento de imágenes faciales en bases de datos de solicitantes de asilo).

Además, tampoco pueden dejarse al margen los mecanismos necesarios de reparación en los casos en los que las personas consideren que sus libertades han sido vulneradas por el uso de estos sistemas de IA. Expertos de toda Europa ya han remitido una carta a la UE para tratar de mejorar una ley que deja abiertas demasiadas brechas para terminar perjudicando a las personas migrantes.

No hay comentarios:

Publicar un comentario