Lutter contre la haine dans les langues devanagari
Une étude sur l'utilisation de l'IA pour détecter les discours de haine en hindi et népalais.
Rushendra Sidibomma, Pransh Patwa, Parth Patwa, Aman Chadha, Vinija Jain, Amitava Das
― 6 min lire
Table des matières
- L'Importance de Détecter le Discours de Haine
- C'est Quoi les Grands Modèles de Langue ?
- Le Défi avec les Techniques Traditionnelles
- Ajustement Efficace des Paramètres (PEFT)
- LoRA : Une Approche Maligne
- L'Étude : Détecter le Discours de Haine dans les Langues Devanagari
- Les Ensembles de Données
- Entraîner les Modèles
- Résultats et Analyse
- Problèmes de Déséquilibre de Classe
- Défis d'Identification des Cibles
- Conclusion et Travaux Futurs
- Considérations Éthiques
- La Grande Image
- Source originale
- Liens de référence
Dans le monde numérique d'aujourd'hui, la diffusion des Discours de haine en ligne est un vrai problème. Ça peut causer des dégâts dans le monde réel, surtout pour les communautés vulnérables. Même si ce défi touche plein d'endroits, c'est particulièrement visible dans les langues qui utilisent l'écriture Devanagari, comme l'hindi et le népalais. Il n'y a pas beaucoup d'outils ou de ressources pour gérer les discours de haine dans ces langues, ce qui rend le problème encore plus compliqué.
L'Importance de Détecter le Discours de Haine
Le discours de haine peut causer beaucoup de tort, donc le détecter est super important. Le monde en ligne, c'est comme une grosse soirée où certains essaient toujours de gâcher le fun pour les autres. Quand on détecte le discours de haine tôt, ça peut aider à réduire sa propagation et son impact. Malheureusement, c'est difficile de détecter le discours de haine dans des langues comme l'hindi et le népalais.
C'est Quoi les Grands Modèles de Langue ?
Les Grands Modèles de Langue (LLMs), c'est comme des robots super intelligents qui peuvent comprendre et utiliser le langage humain. Ils sont construits sur plein de données et peuvent faire diverses tâches linguistiques. Mais, en général, ils ont besoin de beaucoup de ressources pour être bien réglés, ce qui peut être difficile à gérer pour des langues à faibles ressources. Imagine essayer de faire danser un énorme éléphant ; c'est pas simple !
Le Défi avec les Techniques Traditionnelles
Les méthodes traditionnelles pour entraîner ces modèles peuvent coûter cher. C'est comme essayer d'acheter des chaussures pour un géant, tu as besoin de beaucoup de matériaux et d'un gros budget ! Ça peut être particulièrement compliqué pour les langues qui n'ont pas beaucoup de ressources. Du coup, les chercheurs cherchent des façons plus malines de peaufiner ces modèles sans exploser le budget.
Ajustement Efficace des Paramètres (PEFT)
C'est là qu'intervient l'Ajustement Efficace des Paramètres (PEFT). Au lieu de régler tout l'éléphant, on fait juste de petits ajustements qui le gardent en train de danser avec élégance. Le PEFT nous permet de peaufiner juste une partie des paramètres du modèle, ce qui le rend plus adapté aux langues avec moins de ressources.
LoRA : Une Approche Maligne
Une technique sous le PEFT s'appelle LoRA (Adaptation de Bas Rang). Imagine LoRA comme un petit mécanicien qui bosse sur une grosse machine. Il se concentre juste sur quelques zones, ce qui réduit le coût et aide la machine à tourner sans accrocs. Ça fait gagner du temps et des ressources tout en maintenant l'efficacité.
L'Étude : Détecter le Discours de Haine dans les Langues Devanagari
Cette étude se concentre sur la détection du discours de haine en hindi et népalais en utilisant des LLMs. Les chercheurs ont mis en place un système pour analyser le texte dans ces langues. C'est comme avoir un robot sympa qui peut repérer les fauteurs de troubles à une soirée avant qu'ils ne commencent à semer le chaos.
Les Ensembles de Données
Pour entraîner les LLMs, ils ont utilisé un ensemble de données contenant des milliers d'exemples de texte. Ce texte venait de diverses sources, y compris des posts sur les réseaux sociaux et des articles de presse. Malheureusement, ils ont remarqué que la plupart des textes n'étaient pas des discours de haine, créant un déséquilibre. C'est comme avoir un pot plein de bonbons gélifiés où 90% sont rouges et seulement 10% sont verts. Ça rend difficile pour le robot d'apprendre lesquels sont mauvais !
Entraîner les Modèles
L'étude a impliqué de tester divers LLMs sur cet ensemble de données. Ils ont spécifiquement regardé comment différents modèles se débrouillaient pour détecter le discours de haine et identifier ses cibles. Ça signifie non seulement déterminer si un texte contenait un discours de haine, mais aussi s'il était dirigé contre une personne, une organisation ou une communauté.
Résultats et Analyse
Après avoir effectué les tests, les chercheurs ont découvert qu'un modèle, appelé Nemo, était le meilleur dans les deux tâches. C'est comme découvrir que le petit moteur qui pouvait était en fait une voiture de course ! Malgré un nombre de paramètres inférieur à celui de certains autres modèles, Nemo a réussi à donner des résultats exceptionnels.
Problèmes de Déséquilibre de Classe
Une partie clé de leurs résultats était que le modèle fonctionnait beaucoup mieux pour identifier le discours non haineux que le discours de haine. C'était surtout dû à l'imbalance des données d'entraînement. Plus ils lui donnaient de discours de haine, mieux il devenait pour les reconnaître, mais ils avaient un nombre beaucoup plus élevé d'exemples de discours non haineux. C'est donc comme essayer d'apprendre à un chien à aboyer quand il est entouré de chats silencieux !
Défis d'Identification des Cibles
Quand il s'agissait d'identifier les cibles du discours de haine, les chercheurs ont remarqué un autre problème. Le modèle avait du mal à reconnaître les discours de haine dirigés contre les communautés. Ça montre les défis de la classification des cibles quand certaines catégories ont moins d'exemples.
Conclusion et Travaux Futurs
En conclusion, l'étude a montré que l'utilisation de LLMs avec des méthodes de peaufinement efficaces peut aider à détecter le discours de haine dans des langues souvent négligées. Bien qu'ils aient obtenu de bonnes performances, il y a encore des défis à relever, surtout avec des ensembles de données déséquilibrés. À l'avenir, les chercheurs prévoient de développer des techniques pour créer des ensembles de données plus équilibrés, ce qui pourrait améliorer l'exactitude du modèle.
Considérations Éthiques
Détecter le discours de haine n'est pas juste un problème technique ; c'est aussi une question éthique. Les chercheurs ont noté que les modèles peuvent avoir des biais, donc il est essentiel d'avoir des revues humaines avant de prendre des décisions basées sur les prédictions des modèles. Ça garantit qu'on ne confond pas accidentellement un bon bonbon gélifié avec un fauteur de troubles.
La Grande Image
Alors qu'on avance dans l'ère numérique, développer des outils pour détecter le discours de haine est nécessaire pour créer un environnement en ligne plus sûr. L'espoir est qu'avec des recherches continues et de meilleures ressources, on pourra s'attaquer à ces problèmes plus efficacement, aidant à garder la soirée en ligne agréable pour tous. Alors, continuons à construire ces robots malins et à leur donner les outils dont ils ont besoin pour garder la paix !
Titre: LLMsAgainstHate @ NLU of Devanagari Script Languages 2025: Hate Speech Detection and Target Identification in Devanagari Languages via Parameter Efficient Fine-Tuning of LLMs
Résumé: The detection of hate speech has become increasingly important in combating online hostility and its real-world consequences. Despite recent advancements, there is limited research addressing hate speech detection in Devanagari-scripted languages, where resources and tools are scarce. While large language models (LLMs) have shown promise in language-related tasks, traditional fine-tuning approaches are often infeasible given the size of the models. In this paper, we propose a Parameter Efficient Fine tuning (PEFT) based solution for hate speech detection and target identification. We evaluate multiple LLMs on the Devanagari dataset provided by (Thapa et al., 2025), which contains annotated instances in 2 languages - Hindi and Nepali. The results demonstrate the efficacy of our approach in handling Devanagari-scripted content.
Auteurs: Rushendra Sidibomma, Pransh Patwa, Parth Patwa, Aman Chadha, Vinija Jain, Amitava Das
Dernière mise à jour: Dec 26, 2024
Langue: English
Source URL: https://arxiv.org/abs/2412.17131
Source PDF: https://arxiv.org/pdf/2412.17131
Licence: https://creativecommons.org/licenses/by/4.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.