Détection de discours de haine dans des images avec du texte
Une nouvelle méthode identifie les discours de haine dans les images avec du texte pour des réseaux sociaux plus sûrs.
― 6 min lire
Table des matières
Les réseaux sociaux sont devenus un endroit hyper populaire pour partager des opinions et des émotions. Mais avec cette montée en activité, on a aussi vu une augmentation des conflits et du contenu négatif, comme les Discours de haine. Du coup, il y a de plus en plus besoin de surveiller et d’identifier les discours de haine dans les posts sur les réseaux sociaux. Cet article parle d'une nouvelle méthode pour détecter les discours de haine dans des images contenant du texte.
Le Problème du Discours de Haine
Le discours de haine, c'est quand on utilise un langage qui attaque ou discrimine des personnes à cause de leur race, religion, genre ou d'autres caractéristiques. Ce problème est devenu plus flagrant dans les discussions politiques et les interactions en ligne. Détecter le discours de haine est super important durant des événements cruciaux, comme des conflits politiques, où une rhétorique nuisible peut exacerber les tensions.
Le Besoin de Méthodes de Détection
Avec l’augmentation du discours de haine, il faut des méthodes efficaces pour l’identifier. Beaucoup d'organisations se concentrent sur ce problème, car cela peut avoir des conséquences sociales importantes. Il y a un besoin urgent d'algorithmes capables de détecter le discours de haine sous différentes formes, comme dans le texte et les images.
Notre Approche
On a développé un nouveau système pour détecter le discours de haine en utilisant des images contenant du texte. Notre méthode combine plusieurs modèles avancés pour analyser à la fois les éléments visuels et textuels de ces images. En tirant parti des points forts de chaque modèle, on vise à améliorer la précision de la détection.
Données multimodales
Notre méthode utilise des données multimodales, ce qui veut dire qu'on analyse des infos provenant de différentes sources, comme des images et du texte. Cette approche nous permet de mieux comprendre le contexte du contenu. Pour notre étude, on s'est concentré sur des images avec du texte en rapport avec des événements politiques, particulièrement le conflit en cours entre la Russie et l'Ukraine.
Vue d'Ensemble du Dataset
On a utilisé un dataset composé d'environ 4700 images avec du texte intégré. Chaque image était étiquetée soit comme "Discours de Haine" soit comme "Pas de Discours de Haine." Le dataset était équilibré, avec presque le même nombre d'échantillons pour les deux catégories. Ça a donné une base solide pour entraîner notre modèle.
Structure du Modèle
Notre modèle proposé inclut plusieurs composants conçus pour extraire des caractéristiques à partir des images et du texte.
Composant Visuel
On a utilisé InceptionV3, un réseau de neurones convolutionnels spécifiquement conçu pour l'analyse d'images. Ce modèle aide à capturer des caractéristiques visuelles importantes qui peuvent indiquer la présence de discours de haine. Le modèle InceptionV3 traite les images en utilisant différents filtres pour identifier divers motifs et détails.
Composant Textuel
Pour analyser le texte, on a employé deux modèles puissants : BERT et XLNet. Ces modèles sont conçus pour comprendre le langage et le contexte. BERT aide à analyser le texte extrait des images, tandis que XLNet améliore cette analyse en prenant en compte différentes agencements de mots dans les phrases.
Apprentissage par Ensemble
Notre approche intègre les sorties de ces modèles en une seule prédiction. Cette méthode, connue sous le nom d'apprentissage par ensemble, nous permet de combiner différentes prédictions des modèles, améliorant ainsi la précision globale. En utilisant les forces de chaque modèle, on crée un système plus robuste.
Entraînement et Résultats
On a entraîné notre modèle sur le dataset et évalué sa performance. Après des tests rigoureux, notre modèle ensemble a atteint une précision de 75,21 % et un score F-1 de 74,96 %. Ces résultats montrent que notre modèle classe efficacement les images comme contenant ou non du discours de haine.
Comparaison de Performance
Comparé aux modèles traditionnels qui se concentraient uniquement sur le texte ou les images, notre approche ensemble a surpassé beaucoup de méthodes existantes. Les modèles individuels comme BERT et XLNet ont obtenu des taux de précision plus bas, ce qui illustre les avantages de combiner différents types de données pour une meilleure détection.
Défis Rencontrés
Tout au long du développement de notre modèle, on a rencontré plusieurs défis. Un gros problème était la difficulté du modèle à détecter des discours de haine qui étaient subtils ou présentés de manière sarcastique. Parfois, le modèle a mal classé des images à cause de la nature ambiguë du langage utilisé. Le texte pouvait contenir des mots qui semblent innocents au premier abord mais qui peuvent en réalité véhiculer de la haine dans le bon contexte.
Importance de l'Analyse Empirique
Pour améliorer encore la précision de notre modèle, on a réalisé une analyse détaillée de ses prédictions. En examinant des cas spécifiques d'images étiquetées comme "Discours de Haine" et "Pas de Discours de Haine," on a pu identifier des domaines à améliorer.
Directions de Recherche Futures
En regardant vers l'avant, on prévoit de peaufiner notre modèle et d'explorer d'autres applications. Un domaine d'intérêt est l'apprentissage multitâche, où on pourrait aborder d'autres tâches liées, comme l'analyse de sentiment. Élargir notre recherche pour inclure plusieurs langues est un autre objectif, car le discours de haine peut se manifester différemment selon les cultures.
Conclusion
Notre recherche présente une approche novatrice pour détecter le discours de haine dans des images avec du texte en utilisant un modèle d'apprentissage par ensemble. En combinant efficacement l'analyse visuelle et textuelle, on a développé un système qui clasifie bien les images. L'essor des méthodes de détection du discours de haine est crucial alors que les réseaux sociaux continuent de jouer un rôle important dans le discours public. Nos résultats contribuent aux efforts en cours pour créer des environnements en ligne plus sûrs et promouvoir une communication responsable.
Titre: Lexical Squad@Multimodal Hate Speech Event Detection 2023: Multimodal Hate Speech Detection using Fused Ensemble Approach
Résumé: With a surge in the usage of social media postings to express opinions, emotions, and ideologies, there has been a significant shift towards the calibration of social media as a rapid medium of conveying viewpoints and outlooks over the globe. Concurrently, the emergence of a multitude of conflicts between two entities has given rise to a stream of social media content containing propaganda, hate speech, and inconsiderate views. Thus, the issue of monitoring social media postings is rising swiftly, attracting major attention from those willing to solve such problems. One such problem is Hate Speech detection. To mitigate this problem, we present our novel ensemble learning approach for detecting hate speech, by classifying text-embedded images into two labels, namely "Hate Speech" and "No Hate Speech". We have incorporated state-of-art models including InceptionV3, BERT, and XLNet. Our proposed ensemble model yielded promising results with 75.21 and 74.96 as accuracy and F-1 score (respectively). We also present an empirical evaluation of the text-embedded images to elaborate on how well the model was able to predict and classify. We release our codebase here (https://github.com/M0hammad-Kashif/MultiModalHateSpeech).
Auteurs: Mohammad Kashif, Mohammad Zohair, Saquib Ali
Dernière mise à jour: 2023-09-23 00:00:00
Langue: English
Source URL: https://arxiv.org/abs/2309.13354
Source PDF: https://arxiv.org/pdf/2309.13354
Licence: https://creativecommons.org/licenses/by/4.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.