Simple Science

La science de pointe expliquée simplement

# Informatique# Calcul et langage# Réseaux sociaux et d'information

Lutter contre les discours de haine grâce à la technologie avancée

Utiliser le deep learning pour détecter les discours de haine sur les réseaux sociaux.

― 5 min lire


Lutter contre le discoursLutter contre le discoursde haine avecl'apprentissage profondefficacement la haine en ligne.Des modèles avancés combattent
Table des matières

Dans le monde d'aujourd'hui, les réseaux sociaux sont un gros truc où les gens partagent leurs pensées et leurs émotions. Mais ce truc a aussi un côté sombre, car il peut être utilisé pour répandre des discours de haine et des opinions extrêmes. Pendant la guerre Russie-Ukraine, les deux camps ont utilisé des images avec du texte pour partager leur propagande et des messages haineux. Détecter les discours de haine et les contenus nuisibles est super important pour réduire les effets négatifs que ces messages peuvent avoir sur les individus et les communautés.

La Nécessité de la Détection

Les discours de haine peuvent mener à la division et à la violence entre les gens. Pour promouvoir la paix et l'unité, on doit trouver des moyens efficaces pour identifier et minimiser ces discours. L'utilisation de technologies avancées, comme l'apprentissage profond, devient courante pour relever ce défi.

Apprentissage Profond et Modèles multimodaux

L'apprentissage profond implique l'utilisation d'algorithmes complexes et de grandes quantités de données pour entraîner des modèles. Ces modèles peuvent analyser du texte, des images et des vidéos pour comprendre le contexte derrière les messages en ligne. En combinant différents types de données, comme le contenu textuel et visuel, ces modèles peuvent mieux saisir l'intention et la signification des informations partagées en ligne. Ils apprennent à partir d'exemples étiquetés, ce qui leur permet de détecter des motifs et de faire la différence entre des infos utiles et des contenus nuisibles, y compris les discours de haine.

Tâche Partagée de Détection des Discours de Haine Multimodaux

Lors d'une compétition récente sur la détection des discours de haine utilisant plusieurs types de données, appelée Détection d'Événements de Discours de Haine Multimodal, les participants devaient identifier les discours de haine dans des images intégrant du texte. Il y avait deux défis majeurs :

  1. Détection de discours de haine : Déterminer si une image avec du texte contient un discours de haine ou pas.
  2. Détection de cible : Identifier la cible du discours de haine et la classifier comme "Individu," "Communauté," ou "Organisation."

Méthodologies de Détection

Pour relever ces défis, on a proposé de nouveaux modèles qui combinent différentes techniques.

Sous-tâche A : Détection de Discours de Haine

Pour le premier défi, on a utilisé un mélange de modèles d'apprentissage profond et de modèles traditionnels qui analysent les données textuelles. On a entraîné nos modèles en utilisant le texte des images et différentes caractéristiques du texte, ce qui inclut la structure du texte. Cette approche nous a permis d'utiliser des insights à la fois visuels et textuels pour améliorer la précision. Notre modèle visait à identifier les instances de discours de haine dans les images et leur texte associé.

Sous-tâche B : Détection de Cible

Pour le deuxième défi, notre modèle se concentrait sur la reconnaissance des cibles spécifiques des discours de haine. Plutôt que de se contenter de la structure du texte, on a extrait des infos clés, comme des noms de personnes ou d'organisations, à partir du texte. Ce processus s'appelle la reconnaissance d'entité nommée et aide à identifier qui ou quoi est ciblé par le discours de haine.

Processus de Développement du Modèle

Pour construire nos modèles, on a utilisé une approche étape par étape :

  1. Couche d'Entrée : C'est là qu'on a rassemblé du texte et d'autres caractéristiques des images.
  2. Couche de Modèle : On a entraîné nos modèles avec différentes techniques, en veillant à bien apprendre à partir du texte et des images.
  3. Couche de Prédiction : Enfin, nos modèles ont généré des prédictions sur si les images contenaient des discours de haine et les cibles de ces discours.

Approche d'Ensemble Learning

Pour améliorer nos modèles, on a combiné plusieurs prédictions en un seul processus de prise de décision. C'est ce qu'on appelle l'ensemble learning. En fusionnant les résultats de différents modèles, on a pu améliorer la précision et faire de meilleures prédictions par rapport à un seul modèle.

Résultats et Performance

Nos modèles ont été évalués face à d'autres participants de la compétition. On a obtenu d'excellents résultats dans les deux défis. À la fin, nos modèles se sont classés premiers par rapport à 13 autres équipes pour la tâche de détection de discours de haine et parmi 10 équipes pour la tâche de détection de cible.

Conclusion

L'augmentation des discours de haine sur les réseaux sociaux est un problème urgent qui peut conduire à des conséquences nuisibles. Notre étude a montré comment les techniques d'apprentissage profond multimodal peuvent lutter efficacement contre ce problème. En utilisant à la fois des données textuelles et visuelles, on a développé des modèles qui ont excellé dans la détection des discours de haine et l'identification de leurs cibles.

Les résultats indiquent que l'utilisation de technologies avancées comme l'apprentissage profond peut considérablement améliorer les efforts de détection des discours de haine. Alors que les réseaux sociaux continuent de jouer un rôle majeur dans la formation de l'opinion publique, il est essentiel de veiller à ce que ces plateformes restent sûres et promeuvent une communication positive entre les utilisateurs.

Source originale

Titre: ARC-NLP at Multimodal Hate Speech Event Detection 2023: Multimodal Methods Boosted by Ensemble Learning, Syntactical and Entity Features

Résumé: Text-embedded images can serve as a means of spreading hate speech, propaganda, and extremist beliefs. Throughout the Russia-Ukraine war, both opposing factions heavily relied on text-embedded images as a vehicle for spreading propaganda and hate speech. Ensuring the effective detection of hate speech and propaganda is of utmost importance to mitigate the negative effect of hate speech dissemination. In this paper, we outline our methodologies for two subtasks of Multimodal Hate Speech Event Detection 2023. For the first subtask, hate speech detection, we utilize multimodal deep learning models boosted by ensemble learning and syntactical text attributes. For the second subtask, target detection, we employ multimodal deep learning models boosted by named entity features. Through experimentation, we demonstrate the superior performance of our models compared to all textual, visual, and text-visual baselines employed in multimodal hate speech detection. Furthermore, our models achieve the first place in both subtasks on the final leaderboard of the shared task.

Auteurs: Umitcan Sahin, Izzet Emre Kucukkaya, Oguzhan Ozcelik, Cagri Toraman

Dernière mise à jour: 2023-07-25 00:00:00

Langue: English

Source URL: https://arxiv.org/abs/2307.13829

Source PDF: https://arxiv.org/pdf/2307.13829

Licence: https://creativecommons.org/licenses/by-nc-sa/4.0/

Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.

Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.

Plus d'auteurs

Articles similaires