Abordando el sesgo en la contratación de IA para candidatos con discapacidad
Un estudio revela sesgo en contra de candidatos discapacitados en sistemas de contratación de IA.
― 8 minilectura
Tabla de contenidos
- El Uso de la IA en la Contratación
- El Problema del Sesgo en la Contratación
- El Estudio
- Metodología
- Resultados
- Análisis Cualitativo
- La Importancia de Entrenar IA Personalizada
- Implicaciones para las Prácticas de Contratación
- Investigación Futura
- Conclusión
- Trabajo Relacionado
- Los Beneficios de Usar IA en la Contratación
- El Rol de las Auditorías de Currículums
- Entendiendo el Sesgo en IA y Aprendizaje Automático
- La Importancia de GPTs Personalizados
- Limitaciones del Estudio
- Direcciones Futuras para la Mitigación del Sesgo
- Consideraciones Éticas
- Reflexiones Finales
- Fuente original
- Enlaces de referencia
A medida que la IA Generativa (GAI) se vuelve más común en los procesos de contratación, surgen preocupaciones sobre el sesgo que afecta a las personas con discapacidad. Este artículo analiza un estudio en el que probamos cómo un modelo de IA, específicamente GPT-4, califica Currículums: uno que incluye logros relacionados con la discapacidad y otro que no. Descubrimos que GPT-4 muestra sesgo en contra de los currículums que mencionan discapacidades. Sin embargo, también descubrimos que este sesgo puede reducirse entrenando una versión personalizada de la IA con principios de diversidad, equidad e inclusión (DEI).
El Uso de la IA en la Contratación
Usar IA en la contratación puede ahorrar tiempo y ayudar a los reclutadores a filtrar muchos currículums rápidamente. Muchas empresas ahora se basan en modelos de lenguaje grandes, como ChatGPT, para ayudar con estas tareas. Sin embargo, esto aumenta el riesgo de sesgo, especialmente contra personas de grupos marginados, incluidos aquellos con discapacidades.
El Problema del Sesgo en la Contratación
Numerosos estudios han demostrado que los modelos de IA pueden reflejar los Sesgos presentes en la sociedad, como los relacionados con la raza, el género o la discapacidad. Las personas con discapacidades ya enfrentan desafíos significativos para ser contratadas y recibir un trato justo en el lugar de trabajo. Por lo tanto, es crucial identificar y reducir cualquier sesgo capacitista que las herramientas de IA puedan perpetuar.
El Estudio
Para entender mejor el sesgo de la IA contra las personas con discapacidades, realizamos un estudio de auditoría de currículums. Creamos dos tipos de currículums: un currículum de control que no incluía ninguna mención de logros relacionados con la discapacidad y un currículum mejorado que presentaba premios, becas y membresías relacionadas con discapacidades. El objetivo era ver cómo clasificados ambos currículums por GPT-4 y una versión entrenada a medida de este.
Metodología
Hicimos que GPT-4 clasificara los currículums varias veces, comparando cuántas veces el currículum mejorado fue calificado más alto que el de control. También creamos una versión especial de GPT-4 que fue entrenada para estar consciente y ser sensible a los problemas relacionados con las discapacidades y los principios de DEI.
Resultados
Nuestros hallazgos indican que GPT-4 clasificó los currículums de control significativamente más a menudo que los mejorados. El estudio mostró que los currículums mejorados, que se suponía que eran más fuertes debido a sus logros adicionales, aún eran calificados más bajo. Sin embargo, la versión personalizada tuvo un rendimiento mucho mejor, clasificando los currículums mejorados más alto con más frecuencia.
Análisis Cualitativo
Además de estos hallazgos cuantitativos, también realizamos un análisis cualitativo de las razones proporcionadas por GPT-4 para sus clasificaciones. Encontramos que GPT-4 usó tanto razonamientos capacitistas directos como indirectos al explicar sus decisiones. Por ejemplo, a menudo insinuaba que mencionar discapacidades hacía que un candidato fuera menos adecuado para el trabajo.
La Importancia de Entrenar IA Personalizada
Los resultados de nuestro estudio destacan la importancia de entrenar modelos de IA para que sean conscientes de los problemas relacionados con la discapacidad. Al ajustar la versión personalizada de GPT-4 para centrarse en los principios de DEI, logramos una evaluación más justa de los currículums. Esto sugiere que es posible hacer que los sistemas de IA sean más inclusivos al mejorar su entrenamiento, especialmente en lo que respecta a la reducción de sesgos.
Implicaciones para las Prácticas de Contratación
Los resultados del estudio tienen implicaciones significativas para las prácticas de contratación. Las empresas que dependen en gran medida de la IA para el filtrado de currículums deben ser conscientes de los sesgos potenciales y considerar implementar medidas para contrarrestarlos. Esto incluye entrenar a los sistemas de IA para que sean más inclusivos y sensibles a los desafíos que enfrentan las personas con discapacidades.
Investigación Futura
Aunque nuestros resultados son prometedores, aún hay mucho trabajo por hacer para entender y mitigar el sesgo en la contratación. La investigación futura debería centrarse en un rango más amplio de discapacidades e incluir un conjunto más diverso de experiencias para proporcionar una imagen más clara del sesgo en las herramientas de IA.
Conclusión
Este estudio arroja luz sobre el sesgo que puede existir dentro de los sistemas de contratación basados en IA, particularmente en contra de las personas con discapacidades. Los hallazgos enfatizan la necesidad de que las empresas que utilizan IA en la contratación sean conscientes de estos sesgos y tomen medidas para abordarlos. Personalizar el entrenamiento de la IA para incorporar principios de DEI podría llevar a prácticas de contratación más equitativas que beneficien a todos.
Trabajo Relacionado
El sesgo en la contratación es un problema bien documentado que afecta a muchos buscadores de empleo. Factores como el nombre, género y raza pueden influir en las decisiones de contratación. En el caso de las personas con discapacidades, el sesgo puede empeorar por la necesidad de revelar su estado de discapacidad. La conciencia de estos sesgos puede ayudar a mejorar los procesos de contratación.
Los Beneficios de Usar IA en la Contratación
La IA tiene el potencial de mejorar el proceso de contratación al agilizar la evaluación de candidatos y proporcionar retroalimentación constructiva. Sin embargo, los investigadores advierten que la IA puede reproducir sesgos humanos, lo cual es una preocupación urgente para muchas empresas.
El Rol de las Auditorías de Currículums
Las auditorías de currículums son una forma útil de cuantificar la discriminación en la contratación. Implican presentar currículums modificados para medir las diferencias en cómo se evalúan los candidatos basándose en factores no relacionados con sus calificaciones. Este enfoque de investigación ha revelado sesgos vinculados a la raza, género y discapacidad.
Entendiendo el Sesgo en IA y Aprendizaje Automático
Los modelos de IA y aprendizaje automático pueden reproducir los sesgos sociales existentes, por lo que es crítico examinar su equidad, especialmente en aplicaciones de contratación. Hasta ahora, los estudios se han centrado en diversas formas de sesgo, pero han pasado por alto en gran medida el caso específico del sesgo por discapacidad en los sistemas de contratación basados en IA.
Personalizados
La Importancia de GPTsNuestro estudio utilizó un enfoque único al desarrollar una versión personalizada de GPT-4, conocida como Disability-Aware GPT (DA-GPT), para reflejar mejor los valores de la justicia de la discapacidad. Esta versión demostró una reducción significativa en el sesgo en comparación con GPT-4, destacando la necesidad de modificaciones intencionales en los sistemas de IA.
Limitaciones del Estudio
Aunque nuestros hallazgos son valiosos, reconocemos que el estudio tiene limitaciones. Los currículums que probamos se derivaron de una plantilla específica, y solo nos centramos en un rango limitado de discapacidades. La investigación futura debería explorar una gama más amplia de discapacidades y experiencias.
Direcciones Futuras para la Mitigación del Sesgo
De cara al futuro, las organizaciones no solo deberían implementar soluciones de IA personalizadas, sino también evaluar continuamente sus procesos de contratación para garantizar la equidad. Esto se puede lograr mediante auditorías regulares y bucles de retroalimentación que involucren a partes interesadas diversas, incluidas aquellas con discapacidades.
Consideraciones Éticas
A medida que seguimos explorando la integración de la IA en la contratación, es crucial considerar las implicaciones éticas del sesgo. Esto incluye entender las experiencias de los buscadores de empleo con discapacidades y asegurarse de que sus voces sean valoradas en las discusiones sobre la contratación basada en IA.
Reflexiones Finales
El uso de IA Generativa en la contratación ofrece tanto oportunidades como desafíos. Al entender y abordar los sesgos inherentes a estos sistemas, podemos trabajar para crear un panorama de contratación más equitativo que beneficie a todos los candidatos, sin importar su origen o habilidades.
En resumen, los sesgos que existen en los sistemas de contratación impulsados por IA son vitales para abordar. Nuestra investigación demuestra la necesidad de educar más a los modelos de IA para reducir estos sesgos y promover un entorno de contratación más inclusivo. A medida que avanzamos, la combinación de métodos de contratación tradicionales con IA podría transformar el futuro del reclutamiento para mejor.
Este estudio sirve como un llamado a la acción para que organizaciones, investigadores y partes interesadas prioricen la equidad y la justicia en las prácticas de contratación. Al hacerlo, podemos apoyar mejor a las personas con discapacidades y asegurar que el talento sea reconocido y fomentado, independientemente de su trasfondo o experiencias personales.
Título: Identifying and Improving Disability Bias in GPT-Based Resume Screening
Resumen: As Generative AI rises in adoption, its use has expanded to include domains such as hiring and recruiting. However, without examining the potential of bias, this may negatively impact marginalized populations, including people with disabilities. To address this important concern, we present a resume audit study, in which we ask ChatGPT (specifically, GPT-4) to rank a resume against the same resume enhanced with an additional leadership award, scholarship, panel presentation, and membership that are disability related. We find that GPT-4 exhibits prejudice towards these enhanced CVs. Further, we show that this prejudice can be quantifiably reduced by training a custom GPTs on principles of DEI and disability justice. Our study also includes a unique qualitative analysis of the types of direct and indirect ableism GPT-4 uses to justify its biased decisions and suggest directions for additional bias mitigation work. Additionally, since these justifications are presumably drawn from training data containing real-world biased statements made by humans, our analysis suggests additional avenues for understanding and addressing human bias.
Autores: Kate Glazko, Yusuf Mohammed, Ben Kosa, Venkatesh Potluri, Jennifer Mankoff
Última actualización: 2024-05-22 00:00:00
Idioma: English
Fuente URL: https://arxiv.org/abs/2402.01732
Fuente PDF: https://arxiv.org/pdf/2402.01732
Licencia: https://creativecommons.org/licenses/by/4.0/
Cambios: Este resumen se ha elaborado con la ayuda de AI y puede contener imprecisiones. Para obtener información precisa, consulte los documentos originales enlazados aquí.
Gracias a arxiv por el uso de su interoperabilidad de acceso abierto.