Rechazado por una máquina
Cualquiera que haya participado desde la parte contratante en un proceso de selección sabe lo tedioso y lento que puede llegar a ser esta tarea. Revisar la ingente cantidad de solicitudes para hacer una primera criba previa a las entrevistas personales consume una extraordinaria cantidad de tiempo si se realiza adecuadamente. Así las cosas, cada vez más empresas utilizan algoritmos para acelerar sus procesos de selección de personal. A través de los sistemas de seguimiento de solicitantes (Applicant Tracking System, ATS) que incorporan Inteligencia Artificial (IA), se agiliza la lectura de currículums y el descarte de candidatos y candidatas a un puesto de trabajo. Esta es la teoría. La realidad es que estos sistemas están lejos de la perfección.
A pesar de que a las soluciones ATS les resta mucho camino por recorrer para ser eficaces, cada vez ganan más adeptos. Técnicamente hablando, algunos de estos sistemas fallan en lo básico, como puede ser extraer o importar automáticamente y de manera adecuada la información contenida en esos currículums. El resultado es que alguno de los méritos a favor de la persona candidata se pueden esfumar por el camino, con lo que todo el mundo pierde.
Aunque muchas empresas ya exigen rellenar el currículum (CV) con sus propios formularios web para, de ese modo, tener más estructurada la información y evitar esos errores de extracción/importación de datos, todavía hay muchas compañías que permiten enviar el CV en Word, PDF, etc. De ser así, el formato escogido para redactar nuestro currículum debería ser lo más sencillo y estructurado posible, con los campos como “Formación Académica”, “Experiencia”, etc. perfectamente definidos y evitar la incorporación de tablas, gráficos o imágenes.
Por otro lado, la automatización que proporcionan estos sistemas se basa en gran medida en reglas preestablecidas, como puede ser la aparición de determinadas palabras que el algoritmo considera claves para el puesto. Algunos de estos ATS descartan a la primera de cambio cualquier currículum que no contenga, por ejemplo, alguno de estos términos preestablecidos, ya sea un lenguaje de programación, una formación específica o una habilidad personal.
Algunos proveedores de ATS afirman que su IA avanzada es capaz de hacer una lectura más amplia de las solicitudes, basando su análisis en un conjunto de habilidades, pero aun así, lo más recomendable es no olvidar incluir términos que estén estrechamente asociados al tipo de vacante y la empresa haya reflejado en la descripción del puesto (habilidades organizativas, gestión del tiempo, actitud proactiva, atención al detalle…). En último extremo, los ATS clasifican y puntúan los CV en diferentes grupos, desde los que parecen adaptarse mejor a la vacante, a los que quizás podrían encajar o los que definitivamente no son aptos. Si no estás en el primer grupo, tus posibilidades se desvanecen, porque es muy probable que tu solicitud ni siquiera sea leída por una persona.
Una de las tendencias que está ganando peso en EEUU y que quizás, no tarde en llegar a España, es el uso de chatbots en estos procesos de selección. El sistema puede realizar telemáticamente una primera aproximación a los y las candidatas, indicando claramente a éstas que no están interactuando con una persona. Quizás, para alguien que busca empleo, hablar con una máquina y constatar que su futuro inmediato depende de ella no es la mejor manera de tener el primer contacto con su posible empleador.
Pero sin duda, una de las mayores inquietudes es la que se compartió durante la Conferencia AAAI/ACM sobre Inteligencia Artificial, Ética y Sociedad en San José. En octubre de 2024, investigadores de la Universidad de Washington presentaron las conclusiones de un estudio que evidenciaba la existencia de sesgos raciales, de género e interseccionales en este tipo de soluciones con IA.
Tomando como base de estudio tres de los modelos de IA (LLM) más vanguardistas del momento, como Mistral AI, Salesforce y Contextual AI, y como muestra 550 currículums reales, demostraron su imperfección. Evaluando todos esos currículums para nueve ocupaciones distintas, se llevaron a cabo más de tres millones de comparaciones, hallando que en el 85% de los casos el software favorecía a los nombres asociados con personas blancas, frente al 9% de personas negras. Además, mientras que el software solo mostró preferencia por los nombres asociados con mujeres un 11% de las veces, para los hombres el porcentaje se elevó hasta el 52%. La realidad para los nombres asociados con hombres negros era aún peor, sin que en ninguna de las veces salieran mejor parados que los de los blancos. En este punto, el algoritmo prefirió nombres asociados a mujer negra el 67% de las veces, frente al 15% de las veces para nombres típicamente ligados a hombre negro.
Situaciones así, ya han derivado en demandas contra empresas, algunas de ellas colectivas. Todos los candidatos y candidatas deberían ser conscientes de que sus datos están siendo tratados por IA, requiriendo su consentimiento para ello. Además, el ideal es que cualquier solicitante, especialmente quien no han superado el proceso de selección, deberían poder recurrir la decisión exigiendo una auditoría de los algoritmos empleados para garantizar que no han sido víctima de sesgos o alucinaciones de la IA.
(Artículo en Público)
Sin comentarios