Pinchando la burbuja de la Inteligencia Artificial

 


El programador Erik J. Larson no ha hecho muchos amigos este año: justo cuando más inversiones y promesas se generan en torno a los algoritmos y el aprendizaje automático (Machine Learning), va él y publica con Harvard University Press el libro El mito de la Inteligencia Artificial: Por qué los ordenadores no pueden pensar como nosotros.

Larson viene trabajando en el campo de la Inteligencia Artificial (IA) desde hace más de dos décadas, cuando Google apenas se conocía y Facebook ni siquiera existía. Entonces, la IA se basaba en escribir reglas, esto es, en un enfoque deductivo. Sin embargo, con la llegada del big data, las empresas de IA han pasado de aplicar esa lógica deductiva a una lógica inductiva, dicho de otro modo, si antes se utilizaba el conocimiento previo para razonar, ahora se impone la adquisición del conocimiento a través de la experiencia (aprendizaje automático). Los seres humanos somos más complejos, incorporando la abducción con la que planteamos hipótesis y resolvemos las excepciones, algo que las máquinas no consiguen con su inducción.

La premisa de que si se proporciona a un sistema de IA todo nuestro conocimiento podrá actuar con nuestra inteligencia hace aguas; al menos así ha sido hasta la fecha, inmersos ahora en una carrera constante por introducir nuevas reglas y hechos en los sistemas para corregir sus errores descubriendo después nuevas equivocaciones, especialmente en los asuntos más complejos.

La visión de Larson es muy crítica, sugiriendo una burbuja artificial creada en torno a la IA. Desde su punto de vista, la IA no ha evolucionado prácticamente en las dos últimas décadas, recordando que en 2012 ya se hablaba del Deep Learning y que nada realmente nuevo ha surgido de la ciencia de la IA. Cosa bien distinta son algunos de los usos que se le está dando a esta tecnología, especialmente de cara al consumo en redes sociales o plataformas de audio y vídeo en las que recibimos recomendaciones que nos traen los algoritmos.

Larson considera que las grandes inversiones en IA están siendo monopolizadas por las grandes tecnológicas que se han hecho con millones de datos personales que buscan explotar en beneficio propio. En su opinión, esta explotación de la IA con el único propósito de aprovechar la ventaja competitiva sobre los competidores está frenando la innovación científica de la IA.

En ese sentido, precisa Larson retomando el discurso de Surveillance Capitalism (traducido en España como La era del capitalismo de vigilancia) de la socióloga Shoshana Zuboff, resulta mucho más efectivo predecir nuestro comportamiento si, hasta cierto punto, controlan lo que vamos a hacer a continuación. Según esta visión, más que de recomendaciones, de lo que se trataría en realidad es de redirigir nuestras elecciones manipulándolas, reduciéndolas mientras creemos que, en realidad, se amplían.

Cuanto más predecible sea nuestro comportamiento, mayores ingresos publicitarios. Algo parecido abordamos en este espacio hace unas semanas al hilo del libro "Bullshit, contra la charlatanería" (Capitán Swing): cuando se personaliza el flujo de noticias que consumimos en ciertas redes sociales lo que hacemos en realidad es reducir nuestro espectro de noticias, leyendo sólo lo que reafirma nuestro pensamiento.

La visión de Zuboff expone a las personas como víctima de la ingeniería de la conducta que despliegan las grandes tecnológicas (redes sociales, plataformas de contenido, videojuegos…) con IA. Los billones de datos que analizan diariamente las redes sociales, incluyendo los signos de admiración que incluimos en nuestros mensajes como muestra de nuestra de nuestras emociones, propician seis millones de predicciones por segundo. Este uso de la IA desemboca, afirma Zuboff, en asimetrías de poder y conocimiento: plantéese cuánto sabe esa tecnológica de usted y cuánto sabe usted de esta tecnológica.

Next Post Previous Post

Sin comentarios