Biais linguistiques dans les grands modèles de langage
Examiner comment le langage influence les vues sur le genre à travers les biais dans les modèles d'IA.
― 5 min lire
Table des matières
- Le rôle du Genre grammatical
- Examens des biais dans les LLMs
- Associations entre adjectifs et noms
- Prédiction du genre à partir des adjectifs
- Comparaison des biais entre les langues
- Transférabilité entre les langues
- Implications des résultats
- Conclusion
- Directions futures
- Remerciements
- Source originale
- Liens de référence
La langue et notre façon de penser sont liées. Cet article examine comment notre langue façonne nos points de vue, notamment à travers le genre. On se concentre sur les Grands Modèles de Langage (LLMs), qui sont des programmes informatiques capables de générer du texte ressemblant à celui des humains. En étudiant ces modèles, on peut découvrir des Biais dans notre langue.
Genre grammatical
Le rôle duLe genre grammatical signifie que dans certaines langues, les noms sont assignés comme masculins ou féminins. Ça influence comment les gens décrivent les objets. Par exemple, en espagnol, le mot "pont" est masculin, et les gens pourraient utiliser des Adjectifs forts comme "fort" ou "solide". En allemand, le même mot est féminin, ce qui amène à des descriptions comme "élégant" ou "beau". Ça montre comment la langue façonne nos pensées et nos descriptions.
Examens des biais dans les LLMs
On étudie comment les biais dans les LLMs apparaissent en décrivant des noms genrés. Les LLMs peuvent générer des adjectifs pour des noms dans différentes langues avec un genre grammatical. On utilise ces adjectifs pour voir s'ils révèlent des schémas de biais cohérents. En entraînant un programme informatique à classer le genre en fonction des adjectifs, on découvre que les LLMs affichent des biais similaires à travers les langues.
Associations entre adjectifs et noms
On a collecté des données sur des noms et leurs genres dans plusieurs langues. Pour chaque nom, on a demandé au LLM de générer une liste d'adjectifs. En analysant ces données, on peut voir quels adjectifs sont souvent utilisés pour des noms masculins ou féminins. Ça nous aide à comprendre comment le modèle associe certains adjectifs avec le genre.
Prédiction du genre à partir des adjectifs
Pour voir si les adjectifs peuvent prédire le genre des noms, on a créé un Classificateur binaire. Ce programme utilise la fréquence des adjectifs pour déterminer le genre probable d'un nom. Lors des tests, le classificateur montre une capacité prédictive cohérente à travers différentes langues, indiquant un schéma dans les adjectifs utilisés.
Comparaison des biais entre les langues
Ensuite, on regarde si les adjectifs utilisés pour les noms masculins et féminins sont similaires à travers les langues. En calculant un score de similarité, on peut comparer comment différentes langues attribuent des adjectifs aux noms genrés. On trouve que les langues romanes montrent une forte similarité, tandis que le grec, l'hindi et le letton montrent des scores plus bas. Ça suggère que même si les adjectifs peuvent différer, ils reflètent toujours des biais similaires.
Transférabilité entre les langues
On voulait voir si un classificateur entraîné sur une langue pouvait prédire le genre des noms dans une autre langue. En s’entraînant sur plusieurs langues, notre classificateur prédit avec succès le genre pour des noms dans une nouvelle langue. Ça suggère que les biais appris sont transférables entre les langues, même si les adjectifs eux-mêmes sont différents.
Implications des résultats
Ces résultats sont importants car ils révèlent comment les LLMs reflètent les biais humains dans la langue. Quand ces modèles sont utilisés pour des tâches comme la traduction ou la génération de texte sur des personnes, ils peuvent transmettre ces biais. Ça pourrait influencer comment les gens sont décrits, entraînant des représentations involontaires ou le renforcement de stéréotypes.
Conclusion
Dans cette étude, on a montré que les LLMs révèlent des biais cohérents en associant des adjectifs avec des noms genrés. Malgré les différences de langue, les biais sous-jacents restent similaires. Nos résultats soulignent le besoin de recherches supplémentaires pour explorer comment ces biais dans les LLMs se connectent à la cognition humaine. Comprendre ces associations peut aider à améliorer notre utilisation de la technologie dans les tâches linguistiques et à garantir l'équité dans la représentation.
Directions futures
Des recherches supplémentaires devraient explorer des modèles plus grands et différentes langues pour voir si des schémas similaires se maintiennent. Il est aussi nécessaire d'étudier comment des modèles de langue spécialisés peuvent se comporter différemment. En fin de compte, les résultats de ces études peuvent contribuer aux discussions sur l'utilisation éthique des modèles de langue dans la société.
Remerciements
Ce travail a été soutenu par diverses organisations axées sur l'intelligence artificielle. Les résultats ont des implications importantes pour comprendre l'intersection de la langue, de la cognition et de la technologie.
Titre: What an Elegant Bridge: Multilingual LLMs are Biased Similarly in Different Languages
Résumé: This paper investigates biases of Large Language Models (LLMs) through the lens of grammatical gender. Drawing inspiration from seminal works in psycholinguistics, particularly the study of gender's influence on language perception, we leverage multilingual LLMs to revisit and expand upon the foundational experiments of Boroditsky (2003). Employing LLMs as a novel method for examining psycholinguistic biases related to grammatical gender, we prompt a model to describe nouns with adjectives in various languages, focusing specifically on languages with grammatical gender. In particular, we look at adjective co-occurrences across gender and languages, and train a binary classifier to predict grammatical gender given adjectives an LLM uses to describe a noun. Surprisingly, we find that a simple classifier can not only predict noun gender above chance but also exhibit cross-language transferability. We show that while LLMs may describe words differently in different languages, they are biased similarly.
Auteurs: Viktor Mihaylov, Aleksandar Shtedritski
Dernière mise à jour: 2024-07-12 00:00:00
Langue: English
Source URL: https://arxiv.org/abs/2407.09704
Source PDF: https://arxiv.org/pdf/2407.09704
Licence: https://creativecommons.org/licenses/by/4.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.
Liens de référence
- https://translate.google.com/
- https://frequencylists.blogspot.com/2016/01/the-2980-most-frequently-used-german.html
- https://frequencylists.blogspot.com/2015/12/the-2000-most-frequently-used-spanish.html
- https://en.wiktionary.org/wiki/Category:Bulgarian_nouns_by_gender
- https://en.wiktionary.org/wiki/Category:Greek_nouns_by_gender
- https://en.wiktionary.org/wiki/Category:Czech_nouns_by_gender
- https://en.wiktionary.org/wiki/Category:French_nouns_by_gender
- https://en.wiktionary.org/wiki/Category:Hindi_nouns_by_gender
- https://en.wiktionary.org/wiki/Category:Italian_nouns_by_gender
- https://en.wiktionary.org/wiki/Category:Latvian_nouns_by_gender
- https://en.wiktionary.org/wiki/Category:Portuguese_nouns_by_gender