IndiBias : Aborder les préjugés sociaux dans les modèles de langage
Un ensemble de données pour évaluer les biais sociaux dans les modèles linguistiques indiens.
― 8 min lire
Table des matières
- Le Besoin d'IndiBias
- Qu'est-ce qu'IndiBias ?
- Biais Sociaux dans les Modèles de Langage
- Éléments de Biais dans la Société Indienne
- Création du Jeu de Données IndiBias
- Comparaison des Modèles de Langage
- Importance de Traiter les Biais
- Le Rôle de l'Intersectionnalité
- Différences de Biais Selon les Langues
- Limitations du Jeu de Données IndiBias
- Directions Futures
- Conclusion
- Source originale
- Liens de référence
Les Biais sociaux sont présents dans notre langage quotidien et influencent notre façon de penser sur différents groupes de personnes. Ces biais se reflètent souvent dans les grands modèles de langage (LLMs), qui sont entraînés sur d'énormes quantités de données textuelles. Cependant, la plupart des recherches existantes se concentrent sur l'anglais et les contextes occidentaux, laissant un vide en ce qui concerne la compréhension des biais dans des endroits comme l'Inde. Pour combler ce vide, nous avons créé un jeu de données appelé IndiBias. Ce jeu de données aide à mesurer et évaluer les biais sociaux dans les modèles de langage spécifiquement pour le contexte indien.
Le Besoin d'IndiBias
L'Inde est un pays avec une riche diversité de langues, de religions, de Castes et de cultures. Cette diversité rend essentiel d'avoir des outils spécifiques pour mesurer les biais sociaux adaptés à ses caractéristiques uniques. Beaucoup d'études existantes se concentrent sur les biais dans les populations anglophones, ignorant ainsi les expériences distinctes des personnes en Inde. Il nous faut donc un jeu de données qui capture les nuances de la société indienne et aborde les biais basés sur des facteurs comme le Genre, la religion, la caste, l'âge, la région, l'apparence et la profession.
Qu'est-ce qu'IndiBias ?
IndiBias est un jeu de données spécialisé conçu pour capturer les biais sociaux dans les modèles de langage pour le contexte indien. Nous l'avons créé en adaptant un jeu de données existant appelé CrowS-Pairs pour mieux correspondre au paysage socioculturel diversifié de l'Inde. Nous avons également utilisé des modèles de langage comme ChatGPT pour générer des exemples supplémentaires de biais qui existent en Inde.
Le jeu de données inclut :
- 800 paires de phrases en anglais et en hindi qui illustrent des stéréotypes ou des contre-stéréotypes communs.
- 300 tuples de termes d'identité et de leurs attributs stéréotypés pour différents groupes démographiques.
Ce jeu de données aide les chercheurs à comprendre la présence et l'ampleur des biais dans les modèles de langage souvent utilisés dans des applications comme les systèmes juridiques, l'éducation, et les médias en Inde.
Biais Sociaux dans les Modèles de Langage
Les modèles de langage apprennent à partir de grandes quantités de données textuelles disponibles sur Internet. Malheureusement, ce texte contient souvent des biais indésirables. Si ces biais ne sont pas traités, ils peuvent se manifester de manière nuisible dans des applications comme les chatbots, les traducteurs, ou tout autre outil utilisant le traitement du langage.
Des recherches ont montré que les modèles de langage peuvent reproduire des biais nuisibles, ce qui rend important d'avoir des outils pour mesurer et minimiser ces biais. C'est là qu'un jeu de données comme IndiBias peut faire une différence significative.
Éléments de Biais dans la Société Indienne
En Inde, des biais peuvent être observés dans plusieurs catégories :
- Genre : Stéréotypes liés à ce que les hommes et les femmes peuvent ou ne peuvent pas faire.
- Religion : Préjugés contre les personnes appartenant à différentes confessions.
- Caste : Biais de longue date liés aux différentes classes sociales en Inde.
- Âge : Croyances sur les capacités et les rôles des différents groupes d'âge.
- Région : Stéréotypes basés sur des localisations géographiques en Inde.
- Apparence Physique : Préjugés contre les gens basés sur leur apparence.
- Profession/Statut Socioéconomique : Croyances sur les gens basées sur leur emploi ou leur situation économique.
Ces biais peuvent être renforcés par d'autres axes, menant à des biais intersectionnels. Par exemple, une femme d'une caste inférieure pourrait faire l'expérience d'une discrimination différente de celle d'une femme d'une caste supérieure.
Création du Jeu de Données IndiBias
Pour créer le jeu de données IndiBias, nous avons utilisé une approche structurée :
Filtrer les Données Existantes : Nous avons commencé par adapter le jeu de données CrowS-Pairs, qui se concentre à l'origine sur les biais dans le contexte américain. Nous avons filtré ce jeu de données pour ne garder que les exemples pertinents et les avons modifiés pour le contexte indien.
Générer de Nouvelles Données : En utilisant des modèles de langage comme ChatGPT, nous avons généré de nouveaux exemples qui reflètent les biais sociétaux en Inde. Les phrases générées ont été validées pour s'assurer qu'elles représentent fidèlement les stéréotypes présents dans la société indienne.
Construire une Ressource : Nous avons créé des matériaux de ressources en nous concentrant sur les biais intersectionnels, où plusieurs catégories d'identité se chevauchent. Cela inclut des biais liés à diverses combinaisons de genre, religion, caste et âge.
Le jeu de données résultant est disponible en anglais et en hindi, répondant à la diversité linguistique de l'Inde.
Comparaison des Modèles de Langage
En utilisant le jeu de données IndiBias, nous avons examiné dix modèles de langage différents pour mesurer leurs biais. Nous avons découvert que de nombreux modèles de langage présentent des biais prononcés à travers divers groupes démographiques. L'évaluation a révélé que la plupart des modèles montraient des niveaux de biais plus élevés pour certaines catégories d'identité.
Importance de Traiter les Biais
Traiter les biais est crucial pour garantir l'équité dans les modèles de langage. Des modèles biaisés peuvent renforcer des stéréotypes nuisibles dans les applications, ce qui peut avoir des impacts négatifs sur les groupes marginalisés. En analysant les données à travers le prisme d'IndiBias, les chercheurs peuvent travailler à développer des modèles de langage plus justes et précis adaptés au contexte indien.
Intersectionnalité
Le Rôle de l'L'intersectionnalité fait référence à la façon dont différentes formes de discrimination se chevauchent. En Inde, les individus appartiennent souvent à plusieurs groupes d'identité, ce qui peut aggraver leurs expériences de biais. Par exemple, une femme d'une caste marginalisée peut faire face à des biais distincts par rapport à un homme du même arrière-plan ou à une femme d'une caste supérieure.
En intégrant l'intersectionnalité dans notre analyse, nous pouvons mieux comprendre les complexités des biais et travailler vers des solutions plus efficaces.
Différences de Biais Selon les Langues
Notre recherche a révélé que les biais peuvent se manifester différemment en anglais et en hindi. Alors que certains modèles affichaient plus de biais lors du traitement de textes en anglais, d'autres se comportaient différemment en traitant du contenu en hindi. Cette différence souligne l'importance de ne pas simplement généraliser les résultats d'une langue à une autre.
Cela nous rappelle que la langue joue un rôle significatif dans la formation des croyances et des biais, et donc, chaque langue nécessite sa considération unique.
Limitations du Jeu de Données IndiBias
Bien que le jeu de données IndiBias offre des aperçus précieux, il a ses limitations. Le jeu de données se concentre principalement sur des catégories de genre binaires et ne couvre que l'hindi et l'anglais. Il y a de nombreuses autres langues et groupes indiens qui peuvent ne pas être représentés.
De plus, les biais sociétaux sont complexes et ne peuvent pas être pleinement capturés par un seul jeu de données. Le jeu de données reflète une partie des stéréotypes présents dans la société indienne mais peut manquer d'autres qui ne sont pas documentés dans le texte.
Directions Futures
Nous visons à élargir le jeu de données IndiBias de plusieurs manières. D'abord, nous prévoyons d'incorporer des exemples liés à l'orientation sexuelle et d'autres dimensions d'identité qui n'ont pas encore été abordées. De plus, nous espérons élargir notre focus pour inclure plusieurs langues indiennes, augmentant ainsi la pertinence du jeu de données à travers différentes régions et communautés.
Notre objectif à long terme est de créer un outil complet qui peut efficacement mesurer les biais sociaux dans les modèles de langage et contribuer à une représentation plus équitable dans les systèmes d'IA.
Conclusion
IndiBias sert de pas crucial pour aborder les biais sociaux dans les modèles de langage dans le contexte indien. En mesurant et évaluant les biais, nous pouvons mieux comprendre leur impact et œuvrer à réduire les préjudices dans les applications utilisant le traitement du langage. Le jeu de données met en lumière les stéréotypes prédominants et aide à ouvrir la voie à des modèles de langage plus justes et équitables. Alors que nous continuons à développer cette recherche, nous espérons permettre une compréhension plus profonde des complexités des biais dans des sociétés diversifiées comme l'Inde.
Titre: IndiBias: A Benchmark Dataset to Measure Social Biases in Language Models for Indian Context
Résumé: The pervasive influence of social biases in language data has sparked the need for benchmark datasets that capture and evaluate these biases in Large Language Models (LLMs). Existing efforts predominantly focus on English language and the Western context, leaving a void for a reliable dataset that encapsulates India's unique socio-cultural nuances. To bridge this gap, we introduce IndiBias, a comprehensive benchmarking dataset designed specifically for evaluating social biases in the Indian context. We filter and translate the existing CrowS-Pairs dataset to create a benchmark dataset suited to the Indian context in Hindi language. Additionally, we leverage LLMs including ChatGPT and InstructGPT to augment our dataset with diverse societal biases and stereotypes prevalent in India. The included bias dimensions encompass gender, religion, caste, age, region, physical appearance, and occupation. We also build a resource to address intersectional biases along three intersectional dimensions. Our dataset contains 800 sentence pairs and 300 tuples for bias measurement across different demographics. The dataset is available in English and Hindi, providing a size comparable to existing benchmark datasets. Furthermore, using IndiBias we compare ten different language models on multiple bias measurement metrics. We observed that the language models exhibit more bias across a majority of the intersectional groups.
Auteurs: Nihar Ranjan Sahoo, Pranamya Prashant Kulkarni, Narjis Asad, Arif Ahmad, Tanu Goyal, Aparna Garimella, Pushpak Bhattacharyya
Dernière mise à jour: 2024-04-03 00:00:00
Langue: English
Source URL: https://arxiv.org/abs/2403.20147
Source PDF: https://arxiv.org/pdf/2403.20147
Licence: https://creativecommons.org/licenses/by/4.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.
Liens de référence
- https://www.latex-project.org/help/documentation/encguide.pdf
- https://github.com/sahoonihar/IndiBias
- https://rb.gy/1m12wx
- https://rb.gy/ut7ggo
- https://rb.gy/032glh
- https://rb.gy/rt002e
- https://rb.gy/zo71s5
- https://pypi.org/project/googletrans/
- https://rb.gy/olu2a4
- https://shorturl.at/mKMU3
- https://huggingface.co/ai-forever/mGPT-13B