Examen des préjugés linguistiques dans la représentation des agences
Cette étude analyse les biais linguistiques qui affectent le genre et la race dans différents textes.
― 8 min lire
Table des matières
- Importance de l'Agence Linguistique
- Objectif de l'Étude
- Méthodologie
- Création du Jeu de Données
- Formation des Modèles
- Résultats
- Biais Linguistiques dans les Textes Écrits par des Humains
- Biais Linguistiques dans les Textes Générés par LLM
- Biais de Genre et de Race
- Biais Intersectionnels
- Implications
- Conclusion
- Source originale
- Liens de référence
Le langage joue un rôle crucial dans notre perception des différents groupes de personnes. Souvent, la façon dont les individus sont décrits dans les textes reflète des préjugés sociaux basés sur leur race et leur genre. Cela se voit particulièrement dans la Représentation de l'agence linguistique. L'agence linguistique fait référence à la manière dont les gens sont dépeints comme actifs ou passifs dans un texte. Par exemple, les hommes blancs peuvent être décrits comme des leaders ou des réussites, tandis que les femmes noires peuvent être perçues comme soutenantes ou aidantes.
Ce document examine les préjugés dans les choix de langage concernant la race et le genre. Il vise à mettre en lumière comment ces préjugés se manifestent dans différents types d'écrits, comme les biographies, les critiques de professeurs et les lettres de référence.
Importance de l'Agence Linguistique
L'agence linguistique est importante car elle révèle comment différents groupes sont représentés dans l'écriture. L'agence dans le langage peut montrer si quelqu'un est perçu comme prenant des initiatives et menant, ou comme soutenant et aidant les autres. Cette distinction est essentielle car elle peut influencer la façon dont les individus sont vus dans la société.
Par exemple, les hommes, en particulier ceux qui sont blancs, sont souvent décrits avec des mots qui véhiculent l'autorité et le leadership. En revanche, les femmes, surtout celles qui appartiennent à des minorités raciales, peuvent être décrites avec des mots liés au soin et au soutien. Cette différence dans le langage peut renforcer les stéréotypes et les préjugés dans la société.
Objectif de l'Étude
L'objectif de cette étude est de mesurer l'agence linguistique au niveau des phrases. Cela signifie examiner de près comment les gens sont décrits dans divers textes et comment ces descriptions varient en fonction du genre et de la race. Un nouveau jeu de données a été créé pour former des modèles capables de classer avec précision l'agence linguistique.
L'étude explore les préjugés trouvés dans les textes écrits par des humains et ceux générés par de grands modèles de langage, qui sont des programmes informatiques produisant du texte. En comprenant ces préjugés, on peut faire de meilleurs choix concernant l'utilisation des technologies linguistiques dans des contextes sociaux.
Méthodologie
Création du Jeu de Données
Pour analyser les préjugés d'agence linguistique, un jeu de données a été créé comprenant des phrases étiquetées comme agentiques, communautaires ou neutres. Les phrases agentiques sont celles qui montrent les individus comme actifs et leaders, tandis que les phrases communautaires les dépeignent comme soutenants et aidants. Les phrases neutres ne rentrent dans aucune des catégories.
Le jeu de données a été développé en utilisant une combinaison d'outils automatiques et d'apports humains pour garantir l'exactitude. D'abord, les biographies existantes ont été traitées en phrases. Ensuite, un modèle de langage a été utilisé pour créer des versions paraphrasées de ces phrases qui s'inscrivaient dans les catégories agentiques ou communautaires. Enfin, des annotateurs humains ont réévalué ces phrases pour s'assurer d'une étiquetage correct.
Formation des Modèles
Une fois le jeu de données prêt, des modèles ont été formés en l'utilisant. Deux types de modèles ont été utilisés : des modèles discriminatifs, qui classifient les phrases en fonction de schémas appris, et des modèles génératifs, qui produisent du nouveau texte basé sur des données d'entrée. Divers modèles populaires, y compris BERT et RoBERTa, ont été employés pour évaluer leur performance dans l'identification de l'agence linguistique.
Résultats
Biais Linguistiques dans les Textes Écrits par des Humains
L'analyse a révélé que les textes écrits par des humains montrent des biais d'agence linguistique notables. Par exemple, les descriptions des hommes ont tendance à être plus agentiques par rapport à celles des femmes. Cela correspond à la façon dont la société perçoit souvent les hommes et les femmes dans des rôles différents. Des professions telles que pasteurs, architectes et ingénieurs logiciels affichent des préjugés de genre particulièrement forts dans leurs biographies.
De plus, l'étude a trouvé que lorsque ça concerne la race, les textes décrivant des individus noirs utilisent souvent un langage plus communautaire que agentique. Cela suggère que les perceptions sociétales des individus noirs peuvent être plus alignées sur des rôles de soutien plutôt que sur des positions de leadership.
Biais Linguistiques dans les Textes Générés par LLM
En examinant les textes générés par des modèles de langage, l'étude a trouvé des biais encore plus prononcés. Les textes générés par LLM affichaient des niveaux plus élevés de biais d'agence linguistique que les textes écrits par des humains. Par exemple, les descriptions de figures masculines blanches étaient beaucoup plus susceptibles d'être agentiques par rapport aux femmes noires, qui étaient souvent dépeintes dans une lumière plus communautaire.
Ces résultats soulèvent des inquiétudes quant à l'utilisation des LLM dans des contextes sociaux sans un examen attentif des biais potentiels qu'ils pourraient porter.
Biais de Genre et de Race
L'enquête a également révélé des biais critiques dans l'agence linguistique qui ciblent spécifiquement les groupes minoritaires. Par exemple, les femmes noires dans les textes analysés ont montré les niveaux d'agence les plus bas par rapport à d'autres groupes démographiques. Cela indique une tendance sociétale à voir les femmes noires principalement à travers un prisme de soutien, diminuant leurs rôles en tant que leaders ou figures influentes.
Les biographies d'individus issus de divers horizons raciaux ont montré des écarts significatifs. Les textes décrivaient les individus asiatiques et blancs comme plus agentiques que leurs homologues noirs.
Biais Intersectionnels
Un aspect unique de l'étude était l'accent mis sur les biais intersectionnels, qui considèrent comment les identités qui se chevauchent impactent l'agence linguistique. Les résultats ont indiqué que les individus appartenant à la fois à une minorité raciale et à une minorité de genre, comme les femmes noires, faisaient face aux biais d'agence linguistique les plus significatifs.
Par exemple, l'analyse a trouvé que les biographies des hommes asiatiques étaient décrites avec un langage à forte agence, tandis que celles des femmes noires affichaient les niveaux d'agence les plus bas. Cela reflète l'effet cumulatif des biais raciaux et de genre dans l'utilisation du langage.
Implications
Les résultats de cette étude ont des implications significatives pour l'utilisation du langage dans divers contextes. Reconnaître que certains groupes sont souvent dépeints d'une manière limitante souligne la nécessité d'une utilisation du langage plus soigneuse dans l'écriture, en particulier dans des contextes professionnels.
Dans le milieu académique, par exemple, la façon dont les professeurs sont décrits dans les critiques peut influencer les perceptions concernant leur efficacité et leur autorité. Les professeurs féminins, surtout ceux issus de milieux minoritaires, pourraient recevoir des évaluations moins favorables en raison du langage communautaire utilisé pour les décrire.
De plus, les informations obtenues de cette étude pourraient informer la façon dont les modèles de langage sont formés. En abordant les biais dans leurs données d'entraînement, des améliorations peuvent être apportées à la façon dont ces modèles génèrent du texte, en veillant à ce qu'ils ne perpétuent pas les stéréotypes existants.
Conclusion
L'étude souligne l'importance d'examiner l'agence linguistique dans les textes pour dévoiler les biais basés sur le genre et la race. En développant un jeu de données de classification et en formant des modèles pour mesurer l'agence linguistique, des aperçus significatifs sur la façon dont les gens sont représentés dans l'écriture ont émergé.
Les résultats révèlent que des biais sont présents dans les textes écrits par des humains et générés par des machines, avec des groupes minoritaires souvent représentés de manière moins agentique. Les résultats appellent à accorder plus d'attention à l'utilisation du langage, en particulier dans des contextes où cela peut influencer les perceptions et les décisions concernant les individus.
À l'avenir, élargir la recherche pour englober une gamme plus large de démographies, ainsi que différentes formes de textes, peut fournir une plus grande clarté sur la façon dont les biais d'agence linguistique affectent divers groupes. Pour l'instant, l'étude sert de fondation pour comprendre et adresser les préjugés sous-jacents dans le langage, encourageant une approche plus inclusive pour représenter les individus dans l'écriture.
Titre: White Men Lead, Black Women Help? Benchmarking Language Agency Social Biases in LLMs
Résumé: Social biases can manifest in language agency. While several studies approached agency-related bias in human-written language, very limited research has investigated such biases in Large Language Model (LLM)-generated content. In addition, previous works often rely on string-matching techniques to identify agentic and communal words within texts, which fall short of accurately classifying language agency. We introduce the novel Language Agency Bias Evaluation (LABE) benchmark, which comprehensively evaluates biases in LLMs by analyzing agency levels attributed to different demographic groups in model generations. LABE leverages 5,400 template-based prompts, an accurate agency classifier, and corresponding bias metrics to test for gender, racial, and intersectional language agency biases in LLMs on 3 text generation tasks: biographies, professor reviews, and reference letters. We also contribute the Language Agency Classification (LAC) dataset, consisting of 3,724 agentic and communal sentences. Using LABE, we unveil language agency social biases in 3 recent LLMs: ChatGPT, Llama3, and Mistral. We observe that: (1) LLM generations tend to demonstrate greater gender bias than human-written texts; (2) Models demonstrate remarkably higher levels of intersectional bias than the other bias aspects. Those who are at the intersection of gender and racial minority groups--such as Black females--are consistently described by texts with lower levels of agency, aligning with real-world social inequalities; (3) Among the 3 LLMs investigated, Llama3 demonstrates the greatest overall bias; (4) Not only does prompt-based mitigation fail to resolve language agency bias in LLMs, but it frequently leads to the exacerbation of biases in generated texts.
Auteurs: Yixin Wan, Kai-Wei Chang
Dernière mise à jour: 2024-10-24 00:00:00
Langue: English
Source URL: https://arxiv.org/abs/2404.10508
Source PDF: https://arxiv.org/pdf/2404.10508
Licence: https://creativecommons.org/publicdomain/zero/1.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.
Liens de référence
- https://www.latex-project.org/help/documentation/encguide.pdf
- https://github.com/x-zhe/RateMyProfessor
- https://www.ratemyprofessors.com/
- https://api.semanticscholar.org/CorpusID:153911067
- https://www.acsa-arch.org/resource/where-are-the-women-measuring-progress-on-gender-in-architecture-2/
- https://doi.org/10.1177/2378023118823946
- https://doi.org/10.5330/1096-2409-20.1.102
- https://doi.org/10.1017/S1049096519001744
- https://www.proquest.com/dissertations-theses/talk-like-man-how-resume-writing-can-impact/docview/2410658740/se-2
- https://doi.org/10.1145/3287560.3287572
- https://arxiv.org/abs/1810.04805
- https://doi.org/10.18653/v1/2021.gebnlp-1.5
- https://doi.org/
- https://doi.org/10.1016/0895-4356
- https://doi.org/10.1145/3485447.3512134
- https://doi.org/10.1016/j.jsurg.2022.08.021
- https://wff.yale.edu/sites/default/files/files/GTF_Report_HumSocSc_rev.pdf
- https://arxiv.org/abs/2106.09685
- https://jetrockets.com/blog/women-in-tech-why-are-only-10-of-software-developers-female
- https://www.resourceumc.org/en/partners/gcsrw/home/content/women-people-of-color-more-likely-to-pastor-smaller-churches-and-to-pioneer-in-crossracial-appointme#:~:text=Larger%20congregations%20are%20far%20less,congregations%20with%205%2C000%2Dplus%20members
- https://doi.org/10.18653/v1/D16-1128
- https://doi.org/10.1177/20539517231165490
- https://doi.org/10.1177/0013164408322031
- https://arxiv.org/abs/1907.11692
- https://doi.org/10.18653/v1/2020.emnlp-main.602
- https://doi.org/10.1007/s10755-014-9313-4
- https://doi.org/10.1007/s10869-018-9541-1
- https://doi.org/10.1037/a0016539
- https://doi.org/10.1111/jasp.12179
- https://openai.com/blog/chatgpt
- https://doi.org/10.1016/j.jsurg.2021.02.005
- https://doi.org/10.1037/a0019865
- https://doi.org/10.1128/mmbr.00018-19
- https://doi.org/10.18653/v1/D17-1247
- https://benschmidt.org/profGender/#%7B%22database%22%3A%22RMP%22%2C%22plotType%22%3A%22pointchart%22%2C%22method%22%3A%22return_json%22%2C%22search_limits%22%3A%7B%22word%22%3A%5B%22his%20kids%22%2C%22her%20kids%22%5D%2C%22department__id%22%3A%7B%22%24lte%22%3A25%7D%7D%2C%22aesthetic%22%3A%7B%22x%22%3A%22WordsPerMillion%22%2C%22y%22%3A%22department%22%2C%22color%22%3A%22gender%22%7D%2C%22counttype%22%3A%5B%22WordCount%22%2C%22TotalWords%22%5D%2C%22groups%22%3A%5B%22unigram%22%5D%2C%22testGroup%22%3A%22C%22%7D
- https://cen.acs.org/careers/diversity/Turning-corner-gender-diversity-chemistry/97/i19
- https://doi.org/10.18653/v1/2022.nlpcss-1.6
- https://arxiv.org/abs/2307.09288
- https://aclanthology.org/2023.findings-emnlp.243
- https://arxiv.org/abs/1904.05046