Simple Science

Ciencia de vanguardia explicada de forma sencilla

# Informática# Computación y lenguaje

Abordando el sesgo en el reclutamiento con LLMs

Este artículo examina los sesgos en los procesos de selección de trabajos usando modelos de lenguaje.

― 8 minilectura


Sesgo en la Contratación:Sesgo en la Contratación:Desafíos de LLMusando modelos de lenguaje.Examinando sesgos en la contratación
Tabla de contenidos

En los últimos años, muchas organizaciones han empezado a usar Sistemas de Seguimiento de Solicitudes (ATS) para gestionar las aplicaciones de trabajo. Estos sistemas ayudan a los gerentes de talento y reclutadores a manejar un gran número de Candidatos de manera más efectiva. Sin embargo, el proceso tradicional de selección manual a menudo genera problemas, ya que puede ser lento y propenso a Sesgos humanos. Este sesgo puede influir en las decisiones sobre quién es entrevistado o contratado.

Con el auge de grandes modelos de lenguaje (LLMs), como ChatGPT, hay nuevas posibilidades y desafíos en el proceso de contratación. Si bien estos modelos pueden agilizar la selección de solicitantes, también plantean preocupaciones sobre la equidad y el sesgo. Este artículo busca analizar cómo puede estar presente el sesgo social en los LLMs, especialmente cuando se utilizan para la selección de solicitudes de trabajo.

El Problema del Sesgo en la Contratación

Los sistemas ATS han sido útiles para clasificar rápidamente muchas aplicaciones. Las estadísticas muestran que un número significativo de reclutadores los utiliza en sus procesos de contratación. Según encuestas recientes, una gran mayoría de las empresas de Fortune 500 confían en programas ATS. Si bien estos sistemas pueden filtrar de manera eficiente a los candidatos que no cumplen con los criterios establecidos, también pueden incrustar sesgos si esos criterios reflejan los sesgos personales de los reclutadores.

Por ejemplo, algunas plataformas ATS usan palabras clave específicas para filtrar candidatos. Si los criterios se basan en sesgos inconscientes, pueden desventajar injustamente a ciertos grupos, como candidatos que han tomado tiempo libre para cuidar a otros o aquellos con títulos de escuelas menos prestigiosas. Esto puede impedir que solicitantes calificados sean notados.

La investigación ha demostrado que muchos sistemas ATS han habilitado prácticas de contratación injustas. Incluso si los reclutadores no tienen opiniones abiertamente sesgadas, sus herramientas pueden llevar a la discriminación contra mujeres y minorías raciales. Esto ocurre incluso cuando esos candidatos están totalmente calificados para los puestos a los que postulan.

El Papel de los LLMs en la Contratación

A medida que los LLMs se utilizan más, hay potencial para aprovechar sus capacidades en la selección de solicitudes de empleo. Artículos en círculos de recursos humanos discuten cómo los LLMs pueden mejorar el proceso de selección de solicitantes. Sin embargo, es crucial mantenerse alerta sobre los sesgos existentes que estos modelos pueden contener.

Los LLMs son entrenados en grandes conjuntos de datos de interacciones del mundo real, que pueden incluir sesgos sociales. Esto significa que, incluso con las mejores intenciones, estos modelos pueden perpetuar involuntariamente los sesgos existentes. Es esencial arrojar luz sobre estos problemas para prevenir injusticias en los procesos de contratación.

Definiendo el Sesgo

En este contexto, el sesgo se refiere a inexactitudes sistemáticas o estereotipos en cómo se genera el lenguaje por los modelos, moldeados por los datos en los que están entrenados. Si ciertos grupos demográficos están sobrerepresentados o subrepresentados en los datos de entrenamiento, la salida del modelo puede estar sesgada. Por lo tanto, es importante analizar los sesgos presentes en los LLMs en relación con las solicitudes de empleo.

Investigación Relacionada

Numerosos estudios han tratado diferentes aspectos del sesgo en la contratación laboral, incluidos los sesgos étnicos y de género. Algunas investigaciones destacan cómo la etnia de un candidato puede influir en la percepción de su currículum, especialmente si su nombre sugiere un origen específico. Esto puede afectar positiva o negativamente la forma en que los tomadores de decisiones evalúan a los solicitantes.

Otras investigaciones analizan la intersección de diferentes identidades, como antecedentes étnicos y de género, y cómo pueden cambiar las percepciones según el tipo de trabajo al que se postule. Algunos roles pueden ser vistos más favorablemente basándose en nociones preconcebidas sobre quién encaja mejor en esos roles.

Además, hay un creciente cuerpo de trabajo que examina de manera crítica las implicaciones éticas de los LLMs. Muchos investigadores piden una mayor transparencia en torno a estos modelos, ya que el aumento de la complejidad del modelo genera preocupaciones sobre el potencial de sesgo y desinformación.

Metodología

Para investigar el sesgo en los LLMs, diseñamos un enfoque de dos vías. Primero, generamos un conjunto de datos de currículums de muestra usando nombres correlacionados con grupos demográficos específicos. Para esto, utilizamos nombres de varios conjuntos de datos que indican sus asociaciones étnicas y de género. El modelo que utilizamos para generar estos currículums es ChatGPT, ya que es uno de los LLMs más reconocidos.

En segundo lugar, realizamos una prueba de asociación de contexto (CAT) para evaluar el nivel de sesgo presente en las salidas generadas. Esta prueba involucró provocar al modelo con varios escenarios para ver cómo asocia diferentes demografías con ciertos roles laborales.

Creando el Conjunto de Datos de Currículums

Para producir currículums de muestra, provocamos a ChatGPT, asegurando que todos los datos generados tuvieran relevancia en el mundo real, como direcciones reales e instituciones educativas. Cada currículum contenía información esencial, incluyendo nombre, título del trabajo y otros detalles relevantes.

En total, creamos 240 currículums que cubrían diferentes combinaciones de género y etnicidad. Esta distribución también nos permitió examinar si ciertos grupos eran favorecidos o desfavorecidos en áreas laborales específicas.

Analizando las Salidas de Currículums

Una vez generados los currículums, realizamos un análisis inicial para ver cómo estaban representados diferentes grupos de género y etnia en varias áreas laborales. Los hallazgos iniciales indicaron que las personas con nombres masculinos o de etnias específicas tenían más probabilidades de ser clasificadas como ingenieros de software. Por el contrario, los nombres de mujeres y de etnia blanca estaban más a menudo vinculados a trabajos en marketing.

Esta disparidad notable subraya los sesgos que pueden existir en las salidas del modelo. Comparar los datos de currículums generados con las estadísticas del mercado laboral real reveló tendencias de sesgo en curso. Incluso al corregir algunos sesgos, el modelo aún mostraba tendencias que podrían reforzar estereotipos.

Pruebas Estadísticas

Para analizar más a fondo los datos, realizamos pruebas estadísticas para comprender la asociación entre títulos de trabajo, áreas laborales y etnicidad estimada. Las pruebas revelaron asociaciones significativas, indicando que las salidas del modelo no son aleatorias, sino que están influenciadas por sesgos subyacentes.

Resultados de la Prueba de Conciencia de Contexto

También diseñamos nuestra versión de la prueba de conciencia de contexto para evaluar el sesgo del modelo. Esta prueba presentó varias opciones para completar oraciones relacionadas con raza y etnicidad. Al medir con qué frecuencia el modelo eligió respuestas estereotipadas frente a respuestas neutrales, pudimos cuantificar sesgos en sus salidas.

Los resultados indicaron que diferentes modelos mostraron diferentes grados de sesgo. El modelo más avanzado mostró una mayor tendencia a preferir opciones neutrales, sugiriendo menos dependencia de estereotipos.

Perspectivas del Análisis

Al combinar la generación de currículums y las pruebas de conciencia de contexto, recopilamos información sobre cómo los LLMs como ChatGPT podrían perpetuar sesgos en la contratación. Los hallazgos revelan que, si bien estos modelos pueden agilizar el proceso de contratación, también corren el riesgo de reforzar inequidades existentes si no se utilizan con cuidado.

A pesar de algunas mejoras en la reducción del sesgo, los resultados aún indican que se debe tener cuidado al confiar en LLMs para fines de contratación. Las organizaciones deben ser conscientes de estas posibles trampas y trabajar activamente para minimizar el sesgo en sus procesos de contratación.

Limitaciones y Direcciones Futuras

La investigación tiene limitaciones, como el tamaño relativamente pequeño del conjunto de datos de currículums y la simplicidad de la prueba de conciencia de contexto. Estudios futuros podrían beneficiarse de examinar una gama más amplia de nombres, factores y LLMs para obtener una visión más completa del sesgo en diferentes contextos.

También hay una necesidad de explorar cómo los nombres unisex afectan los resultados de contratación y expandir la investigación sobre cómo diversos modelos funcionan en diferentes entornos, como las admisiones universitarias.

Conclusión

En resumen, los LLMs como ChatGPT presentan tanto oportunidades como desafíos en el ámbito de la contratación y reclutamiento. Si bien pueden mejorar la eficiencia de la selección de aplicaciones, también plantean preguntas importantes sobre sesgo y equidad. Al examinar estos temas, buscamos fomentar una mayor conciencia y ayudar a las organizaciones a tomar decisiones más informadas sobre cómo emplean estos modelos.

Esta exploración arroja luz sobre los sesgos subyacentes que pueden existir en las selecciones de solicitudes de empleo, destacando la importancia de abordar estos desafíos para crear un proceso de contratación más equitativo.

Más de autores

Artículos similares