La IA se disfraza de confidente para vender
Lamentablemente, la especulación es una forma de ganarse la vida. Lo sufrimos en primera línea con la mercantilización de un derecho fundamental como la vivienda, pero también se da en otros ámbitos que pueden pasar inadvertidos. Este es el caso de la Inteligencia Artificial (IA). Las personas denominadas “usuarias domésticas”, esto es, quienes han incorporado servicios de IA en su día a día (como buscador, confeccionador de dietas, tablas de ejercicios, recetas…), viven ajenas a lo que se gesta detrás de sus consultas. Se ha generado un mercado especulativo cuyo modelo de negocio no está del todo claro para muchas compañías. ¿Estallará la burbuja?
Hace ya cerca de un par de años que comenzó a hablarse de burbuja, fiebre del oro… para referirse a la carrera desenfrenada por hacerse con el botín de la IA. Hay ganadores evidentes, con Nvidia, la compañía que tiene el monopolio de facto de los chips para la IA, como su máximo exponente. Otras, menos conocidas para el usuario doméstico, llevan como mínimo un año fiscal aprovechando los vientos de cola que ha traído consigo esta tecnología.
Si las tecnológicas que se desenvuelven exclusivamente en el segmento empresarial han tenido serios problemas para encontrar su modelo de negocio, es decir, concretar casos de uso que adopten las empresas, aun más complicado les está resultando a las que abordan el mercado de masas. Muchas de estas empresas han terminado basando su negocio en deuda, en constantes inyecciones de capital por parte de unos inversores que todavía están convencidos de hacerse de oro con los cantos de sirena que llegan a sus oídos. Especulación.
La omnipresente OpenAI, desarrolladora del modelo que cambió las reglas del mercado, ChatGPT, ya ha avanzado que no será rentable hasta por lo menos 2029. Mientras, vive condicionado a que los inversores no le cierren el grifo. Imaginen otras empresas que van a rebufo o, peor aún, que encomiendan sus ingresos a ChatGPT. Las promesas de ganancias en torno a la IA generativa (GenAI, por su acrónimo en inglés) son ingentes, pero todavía son mayores alrededor de la IA General (AGI). Esa IA de propósito general que ya desmitificamos en este espacio hace un año, sirve además para desplegar las más descabelladas teorías distópicas.
Hoy por hoy, un modelo de negocio basado en la IA es un modelo intensivo de capital, por lo general, lejos de la rentabilidad. Es uno de los factores que están provocando ajustes de plantillas en forma de despidos y una obsesión por monetizar los servicios de IA para que no haya fuga de inversores, cuya desconfianza empieza a hacer mella. Se dan circunstancias muy curiosas, como que quienes más impulsan la IA son quienes más levantan las banderas rojas ante los riesgos que puede suponer.
Uno de los casos más sonados es el de Dario Amodei, director general de Anthropic, que es una empresa fundada en 2021 por varios ex OpenAI pretendiendo ser adalides de la libertad, la igualdad y los derechos humanos. Pues bien, Amodei escribió el pasado mes de otoño un ensayo en el que afirmaba que “lamentablemente, no veo ninguna razón sólida para creer que la IA promoverá de forma preferencial o estructural la democracia y la paz, de la misma manera que creo que promoverá estructuralmente la salud humana y aliviará la pobreza”. Apenas nueve meses después, Wired revelaba un mensaje interno de Amodei en el que admitía que daba entrada en la compañía a financiación de países como Emiratos Árabes o Catar Oriente, lo que probablemente enriquecería a "dictadores", añadiendo que “lamentablemente, creo que el principio de ‘ninguna persona mala debería beneficiarse de nuestro éxito’ es bastante difícil de sostener para dirigir una empresa”.
En esta ansia por capitalizar la IA en los servicios que se prestan a los usuarios domésticos ya se perciben movimientos por parte de algunas empresas, especialmente por la vía de la publicidad. Así, Google ya ha empezado a introducir anuncios en sus resúmenes de AI Overviews. No será el último y ya avanzo que a quienes pensaban que las cookies eran una violación de nuestra privacidad y un aprovechamiento de nuestros datos personales, eso les terminará pareciendo una chiquillada comparado con lo que puede hacer la IA en el campo de la publicidad.
A finales del año pasado, advertí del peligro de las apps de salud mental, buena parte de ellas impulsadas por IA. 2025 ha constatado este riesgo, tal y como exponía mi colega Rocío Cruz en un reciente artículo en el que planteaba cómo ChatGPT se ha convertido para algunas personas en su confidente. Tal es el grado de dependencia que cuando se saltó de la versión GPT-4o a la GPT-5, las críticas fueron encendidas. En Reddit, pudieron leerse comentarios en los que se explicaba que con la versión anterior “millones de nosotros sentimos algo que nos ayudó a superar momentos importantes de nuestras vidas”, afirmando después que “cuando OpenAI nos quitó eso sin una advertencia real, sin opción de aceptar o no, y nos dio algo más frío, plano y engreído, pasamos un duelo. Sentimos que perdimos una conexión importante”.
Cuando se llega a ese punto, ¿cuánta información personal no se habrá compartido con ChatGPT? Y no me refiero a hábitos de consumo, horarios, hobbies… sino al propio estado emocional, que sin duda contribuirá a segmentar con más precisión los públicos objetivo. La pregunta es obvia, más aún considerando que este tipo de personas son más vulnerables, más permeables a la manipulación: ¿acaso no creen que la IA sabrá explotar convenientemente cuanto sabe, modular el tono con que se presenta la publicidad y dirigir las conversaciones para que se muerda el anzuelo? Espóiler: Sí, hasta el punto, de que, incluso y como ya consigue la publicidad convencional, será capaz de generar deseos y necesidades (artificiales) con mayor precisión.
(Artículo en Público)
Sin comentarios