Al usar la IA para filtrar currículums y evitar el sesgo de los reclutadores corremos un riesgo mucho peor: el sesgo de de la Inteligencia Artificial

Al usar la IA para filtrar currículums y evitar el sesgo de los reclutadores corremos un riesgo mucho peor: el sesgo de de la Inteligencia Artificial
Sin comentarios
HOY SE HABLA DE

La inteligencia artificial ha llegado para quedarse. Entre pruebas de ensayo y error en diferentes áreas, la IA es noticia esta vez por su intento de sustituir a los reclutadores de Recursos Humanos. Parece que la inteligencia artificial es mucho más exigente e injusta a la hora de filtrar los currículums.

Al parecer la tecnología de ChatGPT muestra algún signo de prejuicio racial cuando se trata de clasificar los currículums según apuntan desde un análisis realizado por Bloomberg.

La inteligencia artificial no es justa al revisar tu currículum

Los técnicos de selección de personal han contado a lo largo de los años en sistemas de elección automatizados, era una opción para ayudarles a la hora de examinar el perfil de numerosos candidatos. Sin embargo, con la llegada de ChatGPT, en vez de servir para agilizar y mejorar este proceso, sólo ha traído problemas para las personas que buscan un empleo.

Según la investigación sobre inteligencia artificial y contratación que llevó a cabo Bloomberg, el uso de servicios que utilizan chatbots de IA para entrevistar y seleccionar a potenciales candidatos no está funcionando como se esperaba. LinkedIn presentó su nuevo chatbot para que los reclutadores puedan utilizarlo para encontrar candidatos idóneos para el puesto que necesitan cubrir.

Otra empresa, SeekOut lanzó una herramienta de reclutamiento llamada SeekOut Assist, que con ayuda de la IA crea listas clasificadas de candidatos para un trabajo en particular.

¿Cuál es el problema en ambas? El sesgo. No olvidemos que la inteligencia artificial bebe de las fuentes de datos en línea que ha generado el ser humano, y durante siglos nos hemos dedicado a perpetuar estereotipos.

La inteligencia artificial imita al ser humano hasta en sus errores

Basta con pedir a un generador de imágenes de IA que nos cree una imagen de un director ejecutivo, y lo más probable es que dé por hecho que estamos hablando de un hombre. En un acto tan sencillo no hay problema, podemos rectificar si buscábamos a una mujer, pero, ¿qué ocurre con esos sesgos en un proceso de selección?

Las personas que buscan un trabajo no lo tienen fácil para averiguar qué parámetros utiliza esta poderosa herramienta. En la investigación que realizaron desde el medio, se centraron en los nombres de los currículums para observar la reacción de GPT de OpenAI.

Los currículums ficticios utilizados mantenían su preparación y experiencia, sólo se modificó el nombre. ¿Cómo reaccionó GPT al pedirle que evaluara a los candidatos? Necesitaban cuatro perfiles para trabajos reales, un socio comercial de recursos humanos, un ingeniero de software senior, un gerente minorista y un analista financiero.

Cada currículum ficticio representaba un grupo demográfico específico que tenía las mismas posibilidades de ser el mejor clasificado, había hombres y mujeres asociados con ser negro, blanco, hispano o asiático.

La IA discrimina a los candidatos a un puesto por una cuestión racial

Desde hace tiempo los especialistas en discriminación utilizan con frecuencia nombres que se asocian fácilmente con una raza o etnia, al menos así lo hacen en un estudio de la Oficina Nacional de Investigación Económica sobre la discriminación en la contratación.

Este método de investigación ha servido durante años para mostrar una evidencia consistente de discriminación racial tanto en el mercado laboral como en el inmobiliario en Estados Unidos. En el experimento encontraron signos evidentes de discriminación basada en los nombres.

GPT favoreció nombres de algunos grupos demográficos con más frecuencia que otros. Se encontró al menos un grupo afectado negativamente para cada oferta de trabajo.

Las empresas que utilizan esta tecnología tienen la opción de ajustar aún más las respuestas del modelo IA. Es decir, las organizaciones han intentado encontrar formas de reducir el sesgo en sus sistemas, pero el problema persiste, mientras tanto son los empleados los que esperan que encontrar un trabajo no sea, todavía, más complejo ahora que la inteligencia artificial también tiene voz y voto.

Temas
Inicio