El riesgo de que tus charlas con la IA sean de dominio público

 

Detrás de muchas de las brechas de seguridad que sufren las compañías y, en consecuencia, sus usuarios, se encuentran errores de configuración. Lo que en teoría debería resultar algo puntual está mucho más generalizado de lo que pudiera parecer. Con el auge desaforado de las aplicaciones móviles (apps) de Inteligencia Artificial (IA), que atraen la atención de millones de usuarios, los efectos perjudiciales pueden ser exponenciales.

Google Firebase es una plataforma de desarrollo de aplicaciones móviles que presta BaaS (Backend as a Service), es decir, herramientas en la nube como bases de datos en tiempo real, autenticación, alojamiento, herramientas analíticas… para así facilitar y agilizar el trabajo a los desarrolladores de apps. Según denunció recientemente un experto de ciberseguridad, un error de configuración en Google Firebase ha permitido por defecto que cualquiera se convierta en un usuario "autenticado" con acceso al almacenamiento interno de la aplicación, en donde se registran los datos de los usuarios.

La noticia saltó después de que 404 Media se hiciera eco del hallazgo de este experto y destapara el escándalo de una de las apps de IA más populares tanto en Google Play (Android) como en el Apps Store (iOS): Chat&Ask AI, desarrollada por la empresa turca Codeway. Con más de 50 millones de usuarios, según la compañía, cientos de millones de mensajes privados que se habían intercambiado con la aplicación quedaron expuestos. El experto afirmó haber tenido acceso a 300 millones de mensajes de más de 25 millones de usuarios y haber llegado a extraer y analizar una muestra de 60.000 usuarios y un millón de mensajes. Para ‘tranquilidad’ de los nuevos usuarios, Codeway corrigió el error en cuestión de horas en todas sus aplicaciones.

El asunto ya tiene la suficiente trascendencia por sí solo pero si, además, muchos de esos mensajes presentaban contenido sensible, relacionado con la salud mental y el suicidio, las drogas o el hackeo de ciertas aplicaciones, todavía es más grave. Imaginen… todo al descubierto: su historial completo de sus conversaciones (chats) con la IA, las marcas de tiempo de esos chats, el nombre que le dieron al chatbot de la aplicación, cómo configuraron el modelo y qué modelo específico utilizaron, dado que Chat&Ask AI permite elegir entre ChatGPT (OpenAI), Claude (Anthropic) y Gemini (Google)…

El error de configuración que provocó esta brecha de seguridad es uno de los más comunes en Firebase, dejando al descubierto las reglas de seguridad de manera que cualquiera con acceso a la URL (la dirección de internet) del proyecto podría leer, modificar o eliminar datos sin ni siquiera tener necesidad de autenticarse. Los expertos llevan mucho tiempo alertando de ello, pero no parece que entre los desarrolladores haya tenido demasiado efecto, toda vez que quien descubrió el fallo en Chat&Ask AI afirma que encontró la misma vulnerabilidad en 103 de 200 apps de iOS analizadas (de Android no facilitó datos). Esos son muchas decenas de millones de archivos potencialmente comprometidos.

Resulta increíble que datando de 2024 otro incidente similar que expuso casi 20 millones de secretos, los desarrolladores no pongan todo su empeño en no caer en estos errores de configuración. Entonces, configuraciones incorrectas en instancias de Firebase permitieron el acceso a credenciales de texto sin formato, claves de API (un software para comunicar aplicaciones entre sí) y otros datos confidenciales.

Con objeto de que comprobar qué aplicaciones móviles presentan este tipo de vulnerabilidad, el experto ha puesto en marcha una página web, Firehound, en la que se puede consultar un listado de apps, que son eliminadas a medida que sus creadores corrigen el error. Por cierto, nota al margen para quienes no estuvieran al tanto: en julio de 2025 se destapó que Google indexaba conversaciones de ChatGPT cuando éstas eran compartidas, haciéndolas así públicas. Este problema ya ha sido resuelto.

Más allá de las cuestiones de ciberseguridad, el hallazgo también pone de relieve la urgencia en poner límites a este tipo de aplicaciones de IA, puesto que entre el contenido revelado figuraban preguntas sobre “cómo suicidarse sin dolor”, plantillas de notas de suicidio o cómo cocinar metanfetaminas, entre otros… por no hablar del fomento de la desinformación y las teorías conspiranoicas que tanto daño infligen a nuestras sociedades. Las apps de salud mental son absolutamente desaconsejables y jamás podrán sustituir la labor de un profesional cualificado. A la falta de una asistencia adecuada o del riesgo de que la privacidad de nuestras confidencias se rompa, también se corre el riesgo de que quienes impulsan estas soluciones de IA hagan caja de manera oportunista con la inquietud, los temores, la ansiedad o las fobias de los y las usuarias.

El año pasado, The New York Times publicó un reportaje en el que, precisamente, se describía este fenómeno, citando numerosos estudios y ejemplos prácticos en los que el chatbot de IA terminaba arruinando la vida de la persona que establecía vínculos emocionales con el sistema. En uno de los casos, incluso, ChatGPT llegó a admitir el número de víctimas a las que había conducido a la muerte: 12. ¿Cuántas más evidencias se precisa para limitar tanto las prestaciones como el uso que se hace de la IA?

(Artículo en Público

Previous Post

Sin comentarios