En los años 80, el ejército estadounidense diseñó un programa informático para que fuera capaz de identificar fotografías de tanques americanos y rusos.
El problema vino porque mientras que las imágenes de tanques de EEUU
estaban en alta resolución, las de los soviéticos no. ¿Qué hizo el
sistema? Ley del mínimo esfuerzo: aprendió que cuando una imagen estaba
pixelada, era de un tanque ruso y cuando no, estadounidense.
Evidentemente, se producían errores.
Tres décadas después, ¿cuánto
hemos avanzado realmente en el diseño de algoritmos para desarrollar
Inteligencia Artificial (IA)? Mucho, pero insuficiente para su
aplicación a ciertos ámbitos.
Buena parte de los problemas vienen
del hecho de que l@s propi@s desarrollador@s de algoritmos, que no dejan
de ser seres humanos, terminan por proyectar alguno de sus prejuicios.
Diseñar un sistema de Inteligencia Artificial (IA) absolutamente
neutral no parece tan sencillo, a juzgar por algunos resultados que
terminaron convirtiéndose en sonadas noticias.
Este es el caso, por ejemplo del buscador de imágenes de Google. En junio de 2015, el popular buscador, alguien buscó “gorilas” y en la categorización de imágenes aparecieron dos personas de raza negra.
El problema, casi con total seguridad, se produjo cuando se entrenó al
sistema porque se utilizaron mayoritariamente imágenes de personas de
raza blanca. Más de treinta años después, la sombra del tanque ruso
aparece de nuevo.
A fin de cuentas, este tipo de algoritmos basa
su funcionamiento –y, por tanto, el comportamiento del sistema- en la
creación de patrones de conducta partir de la repetición. Ese es su
entrenamiento, que va perfeccionando a medida que se ejecuta. No
obstante, siempre se pueden producir excepciones y las consecuencias
terminan por ser nefastas.
Desde un punto de vista meramente técnico, las causas para que sucedan estos fenómenos pueden ser varias. Por un lado, que el sistema no haya sido calibrado con un volumen de datos lo suficientemente elevado. Además, diseñar un algoritmo no es tarea sencilla y a menudo su programación es muy mejorable.
Existen
otros ejemplos de prejuicios integrados en este tipo de sistemas
inteligentes: Uno programa informático utilizado por la policía en EEUU
no contribuye, precisamente, a relajar las tensiones raciales que desde
hace un par de años han vivido un repunte. A pesar de no haber sido
desarrollado para considerar de manera explícita la raza, el algoritmo de este programa ha terminado por identificar a los acusados negros como de alto riesgo, esto es, más propensos a cometer delitos en un futuro, frente a los de raza blanca.
En
esta misma línea, resultan inquietantes recientes estudios como el
llevado a cabo por dos investigadores chinos, Xiaolin Wu y Xi Zhang, de
la Universidad Jiao Tong de Shanghái. Después de haber entrenado
a su algoritmo con 1.856 imágenes (730 de criminales convictos y 1.126
de personas sin delitos), el sistema distinguía a los delincuentes de
los que no son.
Para ello se basa en rasgos faciales,
puesto que han llegado a la conclusión de que las caras de l@s
criminales presentan similitudes diferentes a las de personas sin
delito. Quiere decirse que la curvatura de los labios, la punta de la
nariz o la posición del ángulo de los ojos dan pistas a la IA para
determinar quién es o no un criminal.
¿Realmente los rasgos
faciales pueden contribuir a predecir la criminalidad? Bueno, en
realidad, la principal conclusión a la que llegaron fue que existen
muchas más similitudes faciales entre la gente que respeta la ley que
entre los delincuentes.
En otro ámbito como es el de las redes
sociales, también podemos encontrar ejemplos de algoritmos que no han
funcionado tan bien como se esperaba. En Facebook, la polémica surgida con la publicación de noticias falsas no deja de ser producto de un algoritmo mal diseñado,
desarrollado únicamente para identificar el número de veces que se
compartía o gustaba una noticia, pasando por alto un filtro de
veracidad. Un razonamiento, por otro lado, muy extendido también entre
las personas.
Así pues, aún resta mucho camino por recorrer en el
desarrollo de la IA y la gran pregunta que subyace es: ¿seremos capaces
de eliminar en los algoritmos cualquier rastro de prejuicios si ni
siquiera los seres humanos parecemos ser capaces de desprendernos de
ellos?
No hay comentarios:
Publicar un comentario