Corruptores de Inteligencia Artificial

 

A estas alturas casi todo el mundo está familiarizado con lo que es un modelo grande de lenguaje (LLM por su acrónimo en inglés) cuando hablamos de Inteligencia Artificial (IA). En esencia, es la base de la IA, el sistema que aprende con masivas ingestas de datos para darnos una respuesta cuando le hacemos una consulta, lo que se conoce como inferencia. Internet se ha convertido en una de las principales fuentes de información con que se alimenta la IA, independientemente del LLM, ya sea ChatGPT, Gemini, Claude, etc. Son las llamadas fuentes abiertas. La pregunta es obvia: ¿qué sucede si los datos con que aprende la IA son falsos?

No es complicado recordar cómo en el pasado, incluso en prensa, hubo sonados ridículos porque el periodista de turno tomaba como fuente Wikipedia sin contrastar. A pesar del gran trabajo que hace el equipo de editores y editoras de esta enciclopedia digital, en ocasiones se subía a internet información errónea. Unas veces, esto sucedía de manera involuntaria, pero en otras quienes subían una entrada con desinformación lo hacía adrede con alguna mala intención.

En el caso de la IA sucede exactamente lo mismo. Es lo que se conoce en inglés como LLM grooming, que vendría a consistir en inundar internet con desinformación para corromper el funcionamiento de la IA y expandir aún más los bulos y paparruchas. El American Sunlight Project (ASP) fue uno de los primeros en advertir de esta práctica, centrándose fundamentalmente en la propaganda rusa. Sin embargo, a día de hoy esta práctica es utilizada por un mayor número de actores y con temáticas que no sólo afectan al mero contenido pro-Kremlin.  

Más allá de que, como sucede en ciberseguridad, la mayor parte de la literatura al respecto siempre posiciona a Rusia, China, Corea del Norte, Irán… como los únicos Estados que recurren a estas artimañas -y no es así-, la cuestión es interesante en la medida en la que debería hacer replantearnos cuán fiable es la IA. Aunque buena parte de los estudios que se han realizado se concentran en el concepto FIMI (Foreign Information Manipulation and Interference), esto es, manipulación e interferencia extranjera, cada vez más asuntos como el cambio climático, la migración, la violencia de género, okupación, etc. están siendo objeto de este LLM grooming, inundando internet y redes sociales con información intencionadamente falsa. Más aún desde que grupos ultras y negacionistas se han alineado en la que para muchos ya es una suerte de Internacional Ultra consolidada.

Los expertos trabajan en que sea la propia IA la que distinga entre fuentes fiables y las que no lo son, algo que en España ni siquiera han querido conseguido algunos magistrados en su instrucción, dada la proliferación de pseudomedios financiados por las derechas. No es una tarea sencilla y, a la postre y de un modo muy sutil, la desinformación va extendiendo sus tentáculos. Para un usuario medio, las respuestas que recibe a sus preguntas o sus búsquedas están tan bien armadas, con una aparente relación de fuentes, que no le hacen dudar de su veracidad.

Sin embargo, el razonamiento tras esa relación, la falta de contexto o, directamente, que la base sea mentira, hace imposible una respuesta correcta y verdadera. La bola de nieve cada vez se hace más grande, volcándose más desinformación ultraprocesada a internet que retroalimenta a los distintos modelos de IA. La desinformación campa a sus anchas por la red, reproduciendo las mismas mentiras a través de diferentes fuentes y redes sociales, lo que le proporciona una pátina de verdad para el lector incauto. Este verano, el compañero Israel Merino ya ha compartido esta realidad en su Bitácora de un verano artificial.

Así las cosas, las tomas de decisiones en diferentes ámbitos pueden verse afectadas, pues se basan en una realidad distorsionada, probablemente plagada de sesgos. De no atajar esta problemática, que cada vez se hará más evidente, lo que puede terminar sucediendo es que se socave de tal modo la confianza en estos modelos de IA que para cuestiones realmente sensibles no se utilicen, lo que también sería un retroceso y el perfecto ejemplo de cómo una misma tecnología se emplea al mismo tiempo para el bien y el mal. 

(Artículo en Público

Previous Post

Sin comentarios