Lutter contre les discours de haine grâce à la technologie avancée
Utiliser le deep learning pour détecter les discours de haine sur les réseaux sociaux.
― 5 min lire
Table des matières
Dans le monde d'aujourd'hui, les réseaux sociaux sont un gros truc où les gens partagent leurs pensées et leurs émotions. Mais ce truc a aussi un côté sombre, car il peut être utilisé pour répandre des discours de haine et des opinions extrêmes. Pendant la guerre Russie-Ukraine, les deux camps ont utilisé des images avec du texte pour partager leur propagande et des messages haineux. Détecter les discours de haine et les contenus nuisibles est super important pour réduire les effets négatifs que ces messages peuvent avoir sur les individus et les communautés.
La Nécessité de la Détection
Les discours de haine peuvent mener à la division et à la violence entre les gens. Pour promouvoir la paix et l'unité, on doit trouver des moyens efficaces pour identifier et minimiser ces discours. L'utilisation de technologies avancées, comme l'apprentissage profond, devient courante pour relever ce défi.
Modèles multimodaux
Apprentissage Profond etL'apprentissage profond implique l'utilisation d'algorithmes complexes et de grandes quantités de données pour entraîner des modèles. Ces modèles peuvent analyser du texte, des images et des vidéos pour comprendre le contexte derrière les messages en ligne. En combinant différents types de données, comme le contenu textuel et visuel, ces modèles peuvent mieux saisir l'intention et la signification des informations partagées en ligne. Ils apprennent à partir d'exemples étiquetés, ce qui leur permet de détecter des motifs et de faire la différence entre des infos utiles et des contenus nuisibles, y compris les discours de haine.
Tâche Partagée de Détection des Discours de Haine Multimodaux
Lors d'une compétition récente sur la détection des discours de haine utilisant plusieurs types de données, appelée Détection d'Événements de Discours de Haine Multimodal, les participants devaient identifier les discours de haine dans des images intégrant du texte. Il y avait deux défis majeurs :
- Détection de discours de haine : Déterminer si une image avec du texte contient un discours de haine ou pas.
- Détection de cible : Identifier la cible du discours de haine et la classifier comme "Individu," "Communauté," ou "Organisation."
Méthodologies de Détection
Pour relever ces défis, on a proposé de nouveaux modèles qui combinent différentes techniques.
Sous-tâche A : Détection de Discours de Haine
Pour le premier défi, on a utilisé un mélange de modèles d'apprentissage profond et de modèles traditionnels qui analysent les données textuelles. On a entraîné nos modèles en utilisant le texte des images et différentes caractéristiques du texte, ce qui inclut la structure du texte. Cette approche nous a permis d'utiliser des insights à la fois visuels et textuels pour améliorer la précision. Notre modèle visait à identifier les instances de discours de haine dans les images et leur texte associé.
Sous-tâche B : Détection de Cible
Pour le deuxième défi, notre modèle se concentrait sur la reconnaissance des cibles spécifiques des discours de haine. Plutôt que de se contenter de la structure du texte, on a extrait des infos clés, comme des noms de personnes ou d'organisations, à partir du texte. Ce processus s'appelle la reconnaissance d'entité nommée et aide à identifier qui ou quoi est ciblé par le discours de haine.
Processus de Développement du Modèle
Pour construire nos modèles, on a utilisé une approche étape par étape :
- Couche d'Entrée : C'est là qu'on a rassemblé du texte et d'autres caractéristiques des images.
- Couche de Modèle : On a entraîné nos modèles avec différentes techniques, en veillant à bien apprendre à partir du texte et des images.
- Couche de Prédiction : Enfin, nos modèles ont généré des prédictions sur si les images contenaient des discours de haine et les cibles de ces discours.
Approche d'Ensemble Learning
Pour améliorer nos modèles, on a combiné plusieurs prédictions en un seul processus de prise de décision. C'est ce qu'on appelle l'ensemble learning. En fusionnant les résultats de différents modèles, on a pu améliorer la précision et faire de meilleures prédictions par rapport à un seul modèle.
Résultats et Performance
Nos modèles ont été évalués face à d'autres participants de la compétition. On a obtenu d'excellents résultats dans les deux défis. À la fin, nos modèles se sont classés premiers par rapport à 13 autres équipes pour la tâche de détection de discours de haine et parmi 10 équipes pour la tâche de détection de cible.
Conclusion
L'augmentation des discours de haine sur les réseaux sociaux est un problème urgent qui peut conduire à des conséquences nuisibles. Notre étude a montré comment les techniques d'apprentissage profond multimodal peuvent lutter efficacement contre ce problème. En utilisant à la fois des données textuelles et visuelles, on a développé des modèles qui ont excellé dans la détection des discours de haine et l'identification de leurs cibles.
Les résultats indiquent que l'utilisation de technologies avancées comme l'apprentissage profond peut considérablement améliorer les efforts de détection des discours de haine. Alors que les réseaux sociaux continuent de jouer un rôle majeur dans la formation de l'opinion publique, il est essentiel de veiller à ce que ces plateformes restent sûres et promeuvent une communication positive entre les utilisateurs.
Titre: ARC-NLP at Multimodal Hate Speech Event Detection 2023: Multimodal Methods Boosted by Ensemble Learning, Syntactical and Entity Features
Résumé: Text-embedded images can serve as a means of spreading hate speech, propaganda, and extremist beliefs. Throughout the Russia-Ukraine war, both opposing factions heavily relied on text-embedded images as a vehicle for spreading propaganda and hate speech. Ensuring the effective detection of hate speech and propaganda is of utmost importance to mitigate the negative effect of hate speech dissemination. In this paper, we outline our methodologies for two subtasks of Multimodal Hate Speech Event Detection 2023. For the first subtask, hate speech detection, we utilize multimodal deep learning models boosted by ensemble learning and syntactical text attributes. For the second subtask, target detection, we employ multimodal deep learning models boosted by named entity features. Through experimentation, we demonstrate the superior performance of our models compared to all textual, visual, and text-visual baselines employed in multimodal hate speech detection. Furthermore, our models achieve the first place in both subtasks on the final leaderboard of the shared task.
Auteurs: Umitcan Sahin, Izzet Emre Kucukkaya, Oguzhan Ozcelik, Cagri Toraman
Dernière mise à jour: 2023-07-25 00:00:00
Langue: English
Source URL: https://arxiv.org/abs/2307.13829
Source PDF: https://arxiv.org/pdf/2307.13829
Licence: https://creativecommons.org/licenses/by-nc-sa/4.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.
Liens de référence
- https://github.com/therealthapa/case2023
- https://cloud.google.com/vision/docs/ocr
- https://github.com/explosion/spacy-models/releases/tag/en_core_web_lg-3.6.0
- https://huggingface.co/bert-base-cased
- https://huggingface.co/roberta-base
- https://huggingface.co/microsoft/deberta-v3-base
- https://huggingface.co/google/electra-base-discriminator
- https://huggingface.co/microsoft/swin-base-patch4-window7-224-in22k
- https://huggingface.co/timm/coatnet
- https://huggingface.co/timm/davit
- https://huggingface.co/google/vit-base-patch32-224-in21k
- https://codalab.lisn.upsaclay.fr/competitions/13087