El Tribunal Supremo debe garantizar la transparencia algorítmica

 

Esta semana, las compañeras de Civio han hecho Historia. Este grupo de periodistas han conseguido llevar por primera vez al Tribunal Supremo un caso sobre la transparencia de un algoritmo público. Se trata del bautizado como Caso BOSCO, en honor a la aplicación informática utilizada para determinar quién tiene acceso al bono social eléctrico y que Civio demostró en 2019 que contenía errores. Urge conocer el resto del código abierto para analizar qué otras fallas pueda contener.

A pesar de que estos descuentos directos en la factura de la luz llegan a cerca de 1,6 millones de hogares, lo cierto es que esa cifra representa menos del 25% de los potenciales beneficiarios y beneficiarias. Entre los motivos para que se dé esta desalentadora estadística podrían estar los errores que contiene el algoritmo que deniega el bono social, incluso, cumpliendo con los requisitos exigidos.

El asunto en cuestión ya tiene enjundia en sí mismo, pues afecta directamente a colectivos vulnerables, pero su trascendencia puede ser todavía mayor porque, tal y como indican las compañeras de Civio, al tratarse de un recurso de casación, el Supremo tiene que decidir cómo se interpretará en adelante la ley sobre un tema tan relevante.

Así pues, lo que está encima de la mesa es el derecho a saber cómo funcionan los sistemas de decisión automatizados, dicho de otro modo, todas esas aplicaciones y soluciones basadas en Inteligencia Artificial (IA) que toman decisiones de manera desatendida, como de hecho veíamos la semana pasada con los procesos de selección de personal.

Al tratarse de un algoritmo que maneja la Administración Pública, la opacidad al respecto es todavía más sangrante. Precisamente a principios de este año, el catedrático de Derecho Administrativo, Vicente Álvarez; y el profesor ayudante Doctor de Derecho Administrativo, Álvaro González-Juliana, ambos en la Universidad de Extremadura, publicaban un ensayo reclamando el derecho de acceso libre y gratuito a los algoritmos empleados porlos poderes públicos.

Tal y como explican los autores, ya existen precedentes, como las resoluciones de la Comisión de Garantía del Derecho de Acceso a la Información Pública (GAIP) de Catalunya que en 2016 concedió el acceso a un algoritmo para un profesor que no había resultado seleccionado como miembro de los tribunales de corrección de las pruebas de acceso a la universidad. Un año más tarde, la GAIP se ratificaría al sostener que “el código fuente de un programa informático empleado por la Administración en la designación de los miembros de tribunales evaluadores constituía igualmente información pública”, según refleja el ensayo.

Los autores no se olvidan del caso BOSCO, recordando cómo el Consejo de Transparencia y Buen Gobierno (CTBG) se negó a aplicar en este caso la Ley 19/2013, de 9 de diciembre, de transparencia, acceso a la información pública y buen gobierno (LTE), por entender que ésta se refiere a “contenidos” o “documentos”, y no a “programas informáticos”. Dos años después (2021), el despropósito se consumó con el giro del CTBG, que entonces sí consideró que el algoritmo utilizado para el cálculo de pensiones entra dentro del ámbito del concepto de información pública consagrado en la LTE.

La transparencia de los algoritmos utilizados por las Administraciones públicas es una “condición inexcusable para preservar la rendición de cuentas y la fiscalización de las decisiones de los poderes públicos y, en último término, como garantía efectiva frente a la arbitrariedad o los sesgos discriminatorios en la toma de decisiones total o parcialmente automatizadas”. Así de tajante fue el CTBG en su resolución, a la que han seguido otras en su misma dirección.

¿Y qué pasa con el manido recurso de la propiedad intelectual que acostumbran a usar las empresas para blindar su código y, con ello, dar un zarpazo a la transparencia? Pues que es fácilmente modulable. En primer lugar, en buena parte de las licitaciones públicas la explotación y los derechos de autor del software desarrollado por terceros pasa a ser propiedad de la Administración adjudicadora. Además, aunque no fuera el caso, bastar con condicionar el acceso al código para una finalidad determinada, en este caso su auditoría, prohibiendo su uso o difusión so pena de sanción.

Dicho de otro modo y con la cautela de no ser experto en derecho, todo indica que hay elementos más que suficientes para sentar jurisprudencia sobre la más que necesaria transparencia algorítmica. Civio explica en su página web cómo se desarrolló su comparecencia en el Tribunal Supremo y resulta decepcionante comprobar que el abogado del Estado emplea el argumento de la denuncia a Consumo si el algoritmo comete un error. ¿Acaso no es mejor prevenir y asegurarse de que no lo comete? ¿Qué sucede si la persona a la que el sistema rechaza para el bono social no sabe que se ha cometido un error?

La aventura judicial emprendida por las compañeras de Civio es ya de por sí un triunfo, porque pone al alto tribunal en un jaque mate. Si no abre la puerta a conocer qué hay detrás de decisiones automatizadas que afectan a nuestros derechos y sienta de una vez por todas jurisprudencia, ¿dónde queda el espíritu garantista de nuestro Estado de Derecho?

(Artículo en Público

Next Post Previous Post

Sin comentarios