Abordando el sesgo y la equidad en la computación afectiva
Examinando el papel de la justicia en sistemas que reconocen las emociones humanas.
― 8 minilectura
Tabla de contenidos
La computación afectiva se trata de crear sistemas que pueden reconocer y responder a las emociones humanas. Estos sistemas se están usando cada vez más en diferentes áreas como la educación, la salud y la contratación laboral. Sin embargo, hay preocupaciones sobre el sesgo y la equidad en estos sistemas, especialmente cuando se utilizan para tomar decisiones importantes sobre las personas.
La Importancia del Sesgo y la Equidad
El sesgo se refiere a errores sistemáticos que afectan a grupos de personas de manera diferente, mientras que la equidad tiene que ver con cómo estos sistemas tratan a individuos y grupos. Es crucial asegurarse de que los sistemas de computación afectiva sean justos y sin sesgos, especialmente cuando influyen en decisiones sobre contrataciones o acceso a recursos. Si un sistema tiene sesgo, puede dar lugar a ventajas o desventajas injustas para ciertos grupos, lo que plantea problemas éticos y legales.
Entendiendo el Sesgo
El sesgo puede venir de varias fuentes. Puede surgir de los datos utilizados para entrenar un modelo, los algoritmos empleados o la forma en que se toman las decisiones. En el contexto de sistemas automatizados, es importante reconocer que el sesgo no siempre proviene de una intención maliciosa; también puede ocurrir debido a errores involuntarios en cómo se recopila o interpreta la información.
Tipos de Sesgo
Sesgo de datos: Ocurre cuando los datos usados para entrenar el sistema no representan adecuadamente a todos los grupos. Por ejemplo, si un sistema de reconocimiento facial se entrena principalmente con imágenes de personas de piel más clara, puede tener un rendimiento deficiente para personas de piel más oscura.
Sesgo Algorítmico: Los algoritmos pueden introducir sesgo si no están diseñados cuidadosamente. Si un algoritmo se basa demasiado en ciertas características que se correlacionan con características demográficas, puede llevar a resultados sesgados.
Sesgo en la Toma de Decisiones: La forma en que se toman decisiones basadas en los resultados del sistema también puede introducir sesgo. Si los gerentes de contratación confían solo en evaluaciones automatizadas sin considerar otros factores, pueden perpetuar inadvertidamente disparidades existentes.
Equidad en la Computación Afectiva
La equidad se relaciona con cómo se distribuyen los resultados entre individuos y grupos. Es un concepto social que varía de una cultura o contexto a otro. En el lugar de trabajo, por ejemplo, la equidad puede involucrar un trato justo en contrataciones, promociones y evaluaciones.
Dimensiones de la Equidad
Equidad Distributiva: Involucra la distribución de resultados o recursos. En la contratación, se refiere a cómo se asignan las ofertas laborales entre los candidatos.
Equidad Procedimental: Se refiere a la equidad de los procesos utilizados para llegar a decisiones. Se trata de si los pasos tomados para tomar decisiones son transparentes y razonables.
Equidad Interacciónal: Se relaciona con cómo las personas sienten que son tratadas durante las interacciones, como las explicaciones proporcionadas para las decisiones tomadas sobre ellas.
Midiendo Sesgo y Equidad
Para asegurar que los sistemas de computación afectiva sean justos y sin sesgos, es esencial establecer formas claras de medir estos conceptos. Diferentes métricas pueden ayudar a evaluar qué tan bien funciona un sistema en términos de sesgo y equidad.
Métricas de Sesgo
Las métricas de sesgo se centran en identificar diferencias en los resultados entre varios grupos. Si un grupo recibe consistentemente puntajes más bajos o peores resultados, puede indicar la presencia de sesgo. Por ejemplo, si un sistema de reconocimiento facial es menos preciso para mujeres en comparación con hombres, esa diferencia en precisión refleja un sesgo potencial.
Métricas de Equidad
Las métricas de equidad evalúan si los resultados producidos por un sistema son justos y equitativos. Existen varias medidas que reflejan diferentes interpretaciones de la equidad. Por ejemplo, un enfoque puede analizar si se tomaría la misma decisión sin importar la identidad de una persona, mientras que otro podría considerar si las personas son tratadas de manera diferente según características relevantes.
Estudio de Caso: Entrevistas de Video Automatizadas
Las entrevistas de video automatizadas (AVI) son una aplicación práctica de la computación afectiva en la contratación. En las AVI, los candidatos graban respuestas a preguntas, y los algoritmos analizan su video para calificar su idoneidad para un puesto. Sin embargo, ha habido preocupaciones sobre el sesgo en estas evaluaciones, particularmente en relación al género.
El Proceso de AVI
Durante una AVI, los candidatos responden varias preguntas mientras son grabados. Sus respuestas son analizadas en busca de señales verbales, paraverbales (tono y pitch de voz) y no verbales (lenguaje corporal). El sistema luego proporciona calificaciones basadas en estas características.
Recopilación de Datos: Los datos para entrenar estos sistemas provienen de grabaciones de video, que incluyen señales visuales y auditivas.
Generación de Etiquetas: Evaluadores humanos analizan el rendimiento de los candidatos, produciendo etiquetas de verdad que la máquina aprenderá.
Aplicando Aprendizaje Automático: Un modelo de aprendizaje automático (ML) se entrena con los datos recopilados para predecir rasgos de los candidatos, como personalidad o empleabilidad.
Identificación de Sesgo
Al evaluar el proceso de AVI, los investigadores se han enfocado en entender dónde podrían entrar los sesgos en el sistema. Al desglosar cada paso del proceso AVI, pueden buscar posibles fuentes de sesgo.
Etapa de Características: Esta primera etapa implica asegurarse de que las características utilizadas para entrenar el modelo no incluyan características demográficas irrelevantes, como el género. Sin embargo, la información de género podría influir en otras características, como el tono de voz.
Etapa de Predicción: Esta etapa evalúa qué tan bien el modelo de ML predice resultados basados en los datos recopilados. Se pueden examinar correlaciones para ver si algún grupo está injustamente desfavorecido.
Etapa de Decisión: La etapa final se refiere a las decisiones tomadas basadas en las predicciones. Esta etapa a menudo utiliza métricas como el impacto adverso para evaluar la equidad y el cumplimiento con las leyes anti-discriminación.
Resultados y Perspectivas
La evaluación del sistema AVI ha revelado varias conclusiones importantes sobre el sesgo y la equidad:
Análisis de Características
Al excluir el género del conjunto de características utilizado para entrenar el modelo de ML, el análisis buscó minimizar el sesgo. Sin embargo, se observó que características como el tono vocal pueden llevar inherentemente información relacionada con el género, complicando la evaluación.
Precisión de Predicción
Al comparar las predicciones entre géneros, se observaron discrepancias. En algunos casos, los hombres recibieron calificaciones más altas que las mujeres en rasgos asociados con habilidades de comunicación y profesionalismo. Estas diferencias plantean preocupaciones sobre la influencia de los estereotipos de género en la evaluación.
Equidad en la Toma de Decisiones
En la etapa de decisión, el análisis utilizó ratios de impacto adverso para evaluar si las decisiones de contratación eran justas entre géneros. Ratios por debajo de ciertos umbrales pueden señalar una posible discriminación, requiriendo una investigación adicional.
Avanzando: Estrategias para la Equidad
Para abordar estos desafíos, las partes interesadas deben implementar diversas estrategias destinadas a mejorar la equidad y reducir el sesgo en la computación afectiva.
Mejora Continua
La evaluación y ajuste regular de los algoritmos y datos utilizados en los modelos de aprendizaje automático pueden ayudar a mitigar los sesgos. Esto incluye revisiones periódicas sobre quién está incluido en los datos de entrenamiento y cómo se recopila.
Transparencia y Responsabilidad
La transparencia en cómo se toman las decisiones es esencial para construir confianza en los sistemas automatizados. Las partes interesadas deben ser claras sobre cómo funcionan los algoritmos y los factores que influyen en sus decisiones.
Participación de las Partes Interesadas
Involucrar a grupos diversos de partes interesadas en el diseño e implementación de sistemas de computación afectiva puede ofrecer valiosas perspectivas y ayudar a asegurar que estos sistemas cumplan con estándares éticos.
Conclusión
A medida que la computación afectiva sigue desarrollándose, abordar el sesgo y la equidad seguirá siendo crítico. Al entender las fuentes de sesgo y implementar medidas para promover la equidad, desarrolladores y profesionales pueden crear sistemas más equitativos. Un fuerte compromiso con estos principios no solo beneficia a los individuos, sino que también mejora la integridad y efectividad de los procesos de toma de decisiones automatizados en varios sectores.
En resumen, asegurar sistemas de computación afectiva libres de sesgo y justos no es solo un desafío técnico; es una obligación ética. A medida que la tecnología se arraiga más en la vida de las personas, el impacto de estos sistemas crecerá, haciendo aún más crucial cultivar la equidad en su diseño y despliegue.
Título: Integrating Psychometrics and Computing Perspectives on Bias and Fairness in Affective Computing: A Case Study of Automated Video Interviews
Resumen: We provide a psychometric-grounded exposition of bias and fairness as applied to a typical machine learning pipeline for affective computing. We expand on an interpersonal communication framework to elucidate how to identify sources of bias that may arise in the process of inferring human emotions and other psychological constructs from observed behavior. Various methods and metrics for measuring fairness and bias are discussed along with pertinent implications within the United States legal context. We illustrate how to measure some types of bias and fairness in a case study involving automatic personality and hireability inference from multimodal data collected in video interviews for mock job applications. We encourage affective computing researchers and practitioners to encapsulate bias and fairness in their research processes and products and to consider their role, agency, and responsibility in promoting equitable and just systems.
Autores: Brandon M Booth, Louis Hickman, Shree Krishna Subburaj, Louis Tay, Sang Eun Woo, Sidney K. DMello
Última actualización: 2023-05-04 00:00:00
Idioma: English
Fuente URL: https://arxiv.org/abs/2305.02629
Fuente PDF: https://arxiv.org/pdf/2305.02629
Licencia: https://creativecommons.org/licenses/by/4.0/
Cambios: Este resumen se ha elaborado con la ayuda de AI y puede contener imprecisiones. Para obtener información precisa, consulte los documentos originales enlazados aquí.
Gracias a arxiv por el uso de su interoperabilidad de acceso abierto.
Enlaces de referencia
- https://www.bbc.com/news/business-55932977
- https://www.insidehighered.com/admissions/article/2020/12/14/u-texas-will-stop-using-controversial-algorithm-evaluate-phd
- https://www.dropbox.com/s/lm2axf2irhyfrtj/kory-plosOne15.pdf?dl=0
- https://58cbe46a-a-62cb3a1a-s-sites.googlegroups.com/site/sidneydmello/files/dmello-cogemo11-revisionC.pdf?attachauth=ANoY7cqwgqy8jguR-QX30a39a9tIuLVDqxbhgIknj3WCk0oPYTlNASDYPMB-BUUhfyJz-_ySVJoTaamBJ_iNQUTk9YsghPKNVQDVWePXnP_KEn-KOlmp6nsTV8RGKrRUFkIMxm7HjLjimmUr2Z6wPWMjQLa2aJv_xFIo4zGapSK6sTe4T1a8wmDn7tHGYH5FOBD5Wex0z9A1BfNfWoCSIxoS9LAEr7aAbP84Gexudej0oGprCOwGMPn0DH0M8Fio7-9Pm9SyXEKI&attredirects=0
- https://www.dropbox.com/s/71rcoxm42s10s2z/dmello-umuai08.pdf?dl=0
- https://docs.google.com/spreadsheets/d/1Ws1Y05bWced_NrQOp2DbjzDVztO8QeI9ksTVIdHzdxU/edit#gid=1602110030