Pedofil-IA generativa

 Guardia Civil / Europa Press

La Internet Watch Foundation (IWF), con sede en Reino Unido, advertía recientemente de cómo el uso indebido que se realiza con la Inteligencia Artificial generativa (GenAI, por su acrónimo en inglés) podría estar entorpeciendo gravemente la labor de las autoridades en su lucha contra la pedofilia. Según denuncia su director de Tecnología, Dan Sexton, la generación con Inteligencia Artificial (IA) de imágenes de abusos a menores podría llevar a que se investiguen y persigan falsos abusos.

La IWF es una organización sin ánimo de lucro dedicada a encontrar, marcar y eliminar imágenes y vídeos de abuso sexual infantil en internet. El perverso uso que se está realizando de la GenAI no sólo podría desperdiciar tiempo y recursos persiguiendo abusos ficticios, sino que otros genuinos podrían ser descartados, quizás, por considerarse un producto de la IA. Esta es una de las principales preocupaciones de la IWF, que ha visto cómo la generación de imágenes utilizando esta tecnología aumentó en un 300% en 2024 respecto al año anterior. Sólo el año pasado, esta organización identificó más de 291.000 páginas web que contenían millones de imágenes y vídeos que mostraban abuso sexual gráfico de niños.

Esta nueva amenaza que trae consigo la GenAI ya fue advertida por esta organización en su informe anual de 2023, en el que revelaba, en un solo mes, la presencia de más de 20.000 imágenes generadas por IA en un foro de la Dark Web; mostrándose en más de 3.000 de ellas actividades delictivas de abuso sexual infantil. Ese año, dado que ya comenzaba a ver vídeos cortos de abusos de gran realismo, la organización advirtió de que el contenido audiovisual realista se volvería cada vez más común.

Desde entonces, el problema no ha hecho más que empeorar, no sólo en volumen sino también en sofisticación. En el informe de 2024 que acaba de publicar la IWF, ésta denuncia que en aquel mismo foro se han incorporado más de 3.500 nuevas imágenes de abuso sexual infantil delictivo generadas por IA. El 90% de ellas fueron evaluadas por los analistas de la IWF considerándolas lo suficientemente creíbles como para ser consideradas reales. Además, se percibe un notable incremento de imágenes representando abusos categorizados como de los más graves (penetración, brutalidad o sadismo), con más del 30% de las imágenes dentro de la clasificación de pornografía hardcore.

Asimismo, los deepfakes también entran en escena, con vídeos de abusos en los que se incorpora el rostro de un niño mediante herramientas de IA, en muchas ocasiones de niños o niñas famosas. En otras ocasiones, el rostro incorporado artificialmente se corresponde con el de una víctima real de abusos infantiles, no sólo provocando una terrible revictimización, sino desorientando aún más a las autoridades porque el vídeo no reproduce un abuso real pero sí el rostro de una víctima real.

A lo largo de las páginas del informe aparecen casos estremecedores generados por IA que dan una idea tanto de lo perturbado de las mentes de quien produce y sube este contenido a la red como del desgaste mental que puede provocar entre los analistas y autoridades que cada día han de ver escenas como estas. Así, la IWF describe un vídeo de 18 segundos, compartido junto con casi 5.000 imágenes generadas por IA, en el que aparece un hombre adulto penetrando a una niña de unos 10 años, en una habitación bien iluminada con grandes ventanales. Aunque el vídeo es fácilmente identificable como fake, pues parpadea y presenta fallos con cambios en el rostro fotograma a fotograma, los expertos de la organización están en guardia, alertando de la rápida evolución de la tecnología para darle un aspecto más realístico. De hecho hace dos años estos pobres niveles de calidad eran los que se detectaban en las imágenes estáticas que en la actualidad pasan por fotografías reales.

Aunque el informe también advierte que la publicación de estas imágenes y vídeos ha saltado a la internet abierta, la mayor actividad se sigue produciendo en la Dark Web. Los comentarios que ha encontrado la IWF en alguno de sus foros de intercambio son perturbadores, apuntando “bonito, pero parece una IA y ninguno de nosotros quiere eso” o “100%, solo quiero lo auténtico” cuando se intercambian este tipo de deepfakes. Otros, en cambio, sí parecen interesados en adentrarse en el mundo de la GenAI y manifiestan que “me interesa mucho aprender a usar la IA para desarrollar pornografía infantil… muéstrame el paso a paso”.

Por otro lado y por abrir la puerta al optimismo, esta misma tecnología de IA empleada para el mal es la que sirve también de ayuda a las autoridades para combatirlo. Algunos desarrolladores de software trabajan en soluciones capaces de detectar automáticamente cuándo una imagen o vídeo ha sido generados por IA. Dado que los metadatos de ese material son borrados con frecuencia, se requiere otro tipo de técnicas capaces de identificar el contenido sintético. No resulta sencillo y aun cuando algunas de estas soluciones no puedan precisar cómo se utilizó exactamente la GenAI, sí pueden detectar que la imagen no es 100% genuina. A veces se muestra una especie de mapa de calor en el que se indican las zonas de la imagen que son más susceptibles de haber sido manipuladas.

En todo caso, este software de detección continúa siendo insuficiente y despierta otro temor inquietante, dado lo enfermiza de la mente de quienes generan y suben este tipo de contenido a la red: ¿puede servirles la tecnología para ocultar un abuso real bajo un rostro generado artificialmente con GenAI? 

(Artículo en Público

Next Post Previous Post

Sin comentarios