Simple Science

La science de pointe expliquée simplement

# Informatique# Calcul et langage# Intelligence artificielle# Recherche d'informations

S'attaquer aux discours de haine sur les réseaux sociaux

Un outil pour détecter le langage nuisible ciblant des groupes identitaires.

― 8 min lire


Lutter contre lesLutter contre lesdiscours de haine enlignesociales.nuisible dans les conversationsUn outil pour signaler le langage
Table des matières

Les Réseaux sociaux sont devenus un moyen majeur pour les gens de se connecter, partager des infos et discuter des événements actuels. Alors que beaucoup d'utilisateurs utilisent ces plateformes de manière positive, certains en profitent pour répandre la haine et s'en prendre aux autres. C'est particulièrement nuisible car les discours haineux peuvent cibler différents groupes d'identité, y compris ceux basés sur la race, le genre, la religion et l'orientation sexuelle. En réponse à ce problème, des chercheurs et des développeurs de technologies se sont concentrés sur la création de méthodes pour détecter les discours haineux dans le contenu des réseaux sociaux.

Le Problème des Discours Haineux

Les discours haineux désignent un langage qui attaque ou discrimine des individus ou des groupes basés sur certaines caractéristiques. Cela peut entraîner des conséquences graves, comme la propagation de fausses informations, l'augmentation des tensions dans les communautés, voire même de la violence. Le défi réside dans l'identification automatique de ce type de langage nuisible, car passer en revue manuellement les énormes quantités de textes publiés en ligne serait impossible.

Pour aborder ce problème, des technologies ont été développées pour analyser le contenu écrit et détecter le Langage toxique. Ces outils utilisent souvent des classificateurs de texte, qui ont pour but de déterminer si une phrase contient un discours haineux. Bien que ces systèmes aient fait des progrès, ils rencontrent encore des limitations pour identifier les cibles spécifiques des attaques.

Améliorer la Détection des Discours Haineux

La plupart des méthodes de détection des discours haineux s'appuient sur des classificateurs qui analysent des phrases entières. Ces modèles peuvent dire si un discours haineux est présent, mais ils ne peuvent pas toujours identifier précisément qui ou quoi est la cible. Pour résoudre ce problème, on propose une approche différente en utilisant la Reconnaissance des Entités Nommées (NER), une méthode qui identifie des entités spécifiques dans le texte.

La NER peut aider à détecter comment des groupes d'identité spécifiques sont ciblés dans un langage offensant. Par exemple, au lieu de simplement savoir qu'une phrase contient un discours haineux, notre outil peut aussi mettre en avant les termes spécifiques qui se réfèrent à un groupe particulier, comme "les gens noirs" ou "les musulmans." En taguant ces références spécifiques, on obtient une compréhension plus claire de la façon dont le discours haineux fonctionne dans le contexte des réseaux sociaux.

Création d'un Dataset

Pour développer notre système NER pour détecter les discours haineux visant des groupes d'identité, on a créé un dataset unique. Ce dataset combine des infos de deux datasets existants : un qui se concentre sur l'identification des fragments de texte et un autre qui classe les commentaires toxiques. En alignant ces deux datasets, on peut tirer parti des informations sur le contexte et les groupes d'identité mentionnés.

Notre approche consiste en plusieurs étapes :

  1. Collecte de Données : On a rassemblé des données comprenant divers types de contenu liés aux groupes d'identité.
  2. Reconnaissance d'entités : On a entraîné notre système NER pour reconnaître des groupes d'identité spécifiques comme la race, le genre et l'orientation sexuelle.
  3. Annotation : On a passé en revue manuellement les données pour s'assurer que nos annotations reflètent avec précision où le discours haineux se produit par rapport aux groupes d'identité.

Le résultat est un dataset affiné qui permet à notre outil d'identifier le discours nuisible plus efficacement.

Évaluation de l'Outil NER

Notre système NER fonctionne bien pour identifier et taguer les groupes d'identité dans le contenu écrit. Dans des tests, il a obtenu un score f1 moyen de 0.75 au total, ce qui indique une fiabilité solide dans la détection des discours haineux ciblant divers groupes d'identité. Le système s'est avéré particulièrement efficace avec les attaques liées à l'ethnicité, atteignant un score f1 de 0.80.

Cela montre que notre outil est non seulement capable de détecter les discours haineux, mais peut aussi identifier les groupes spécifiques ciblés. Il montre un potentiel pour analyser comment le discours haineux est dirigé contre les groupes minoritaires, y compris les attaques liées à l'orientation sexuelle et au genre.

Étude de Cas sur les Commentaires des Réseaux Sociaux

Pour tester l'utilité de notre outil, on a mené une étude de cas sur des commentaires sur les réseaux sociaux liés à des articles d'actualité. On a examiné les commentaires sur Facebook concernant des nouvelles mentionnant des groupes d'identité. En appliquant notre outil NER à ces commentaires, on visait à démontrer son efficacité à reconnaître et taguer les instances de discours haineux.

Dans notre étude de cas, on a analysé un total de 20 articles d'actualité qui ont généré des milliers de commentaires. Notre outil a tagué les mentions de groupes d'identité à travers diverses catégories, révélant que le 'genre' et l' 'orientation sexuelle' ont reçu le plus grand nombre de mentions. Cependant, on a aussi constaté un faible niveau de chevauchement entre les différentes catégories, suggérant que les commentaires avaient tendance à se concentrer sur des questions spécifiques plutôt que sur des sujets croisés.

Résultats de l'Étude de Cas

L'étude de cas a révélé plusieurs résultats clés :

  1. Prévalence des Mentions de Genre et d'Orientation Sexuelle : Les commentaires se concentraient souvent sur le genre et l'orientation sexuelle, indiquant un niveau significatif de discours autour de ces groupes d'identité.

  2. Faible Intersectionnalité Inter-catégories : La plupart des commentaires discutaient de sujets uniques sans références croisées à plusieurs groupes d'identité.

  3. Corrélation avec les Métriques d'Engagement : On a examiné la relation entre le niveau d'interaction, comme les partages et les réactions, et la fréquence des mentions liées aux groupes d'identité. Une faible corrélation a été trouvée, la plus forte connexion étant entre les partages et les mentions d'orientation sexuelle.

Dans l'ensemble, les résultats démontrent à la fois les forces et les limites de notre outil, montrant sa capacité à détecter des entités nommées et à fournir des aperçus sur les conversations en ligne concernant les groupes d'identité.

Défis et Limitations

Bien que notre outil NER montre du potentiel, il n'est pas sans défauts. Certains défis courants incluent :

  1. Faux Positifs : Notre outil peut taguer des références qui ne sont pas liées à des discours haineux, menant à des résultats incorrects.

  2. Mauvaise Interprétation du Contexte : Dans certains cas, l'outil peut avoir du mal à faire la différence entre des mentions agressives et neutres des groupes d'identité.

  3. Portée Limitée : L'étude de cas s'est seulement concentrée sur une plateforme de réseaux sociaux et un ensemble d'articles d'actualité. Pour obtenir une compréhension plus large, des recherches supplémentaires à travers diverses plateformes et sources de données seront nécessaires.

Ces limitations mettent en évidence le besoin d'un raffinement supplémentaire de l'outil NER pour améliorer sa précision et sa fiabilité.

Directions Futures

Pour améliorer les capacités de notre système NER, on prévoit de poursuivre plusieurs axes :

  1. Expansion du Dataset : On travaillera à augmenter notre dataset, en incluant plus d'exemples de conversations saines. Cette expansion vise à aider le modèle à mieux différencier entre les mentions nuisibles et non nuisibles des groupes d'identité.

  2. Techniques Avancées : On a l'intention d'explorer des méthodes qui permettent une analyse plus nuancée du langage, comme le tagging Joint Entity Relation (JER), qui peut approfondir notre capacité à analyser le contexte.

  3. Diversité Linguistique : On veut adapter notre outil pour qu'il fonctionne dans différentes langues et contextes culturels afin d'élargir son applicabilité, le rendant pertinent dans de nombreuses discussions mondiales sur les discours haineux.

  4. Analyse Plus Large : Les travaux futurs impliqueront l'exploration de plus de catégories d'identité dans la détection des discours haineux, y compris le handicap et d'autres facteurs qui peuvent contribuer à la discrimination.

À travers ces efforts, on vise à améliorer l'efficacité de notre outil et à augmenter son impact dans la lutte contre les discours haineux en ligne.

Considérations Éthiques

Tout au long de notre recherche et du développement de l'outil, on a été attentifs aux considérations éthiques. On a obtenu les approbations nécessaires et veillé à ce que toutes les données utilisées soient collectées de manière responsable et anonymisées pour protéger la vie privée des utilisateurs. Notre intention est de fournir une ressource précieuse pour les chercheurs travaillant à analyser et à atténuer les discours haineux dans les contextes des réseaux sociaux.

Conclusion

Le paysage des réseaux sociaux présente à la fois des défis et des opportunités pour aborder les discours haineux. Bien que notre outil NER pour les groupes d'identité montre un potentiel significatif dans la détection et le tagging du langage haineux, un raffinement continu et des applications plus larges seront nécessaires pour tirer pleinement parti de son potentiel. En continuant à développer notre compréhension de la façon dont le discours haineux fonctionne dans diverses discussions en ligne, on peut contribuer à des conversations plus éclairées et finalement favoriser des communautés plus saines.

Source originale

Titre: Unveiling Social Media Comments with a Novel Named Entity Recognition System for Identity Groups

Résumé: While civilized users employ social media to stay informed and discuss daily occurrences, haters perceive these platforms as fertile ground for attacking groups and individuals. The prevailing approach to counter this phenomenon involves detecting such attacks by identifying toxic language. Effective platform measures aim to report haters and block their network access. In this context, employing hate speech detection methods aids in identifying these attacks amidst vast volumes of text, which are impossible for humans to analyze manually. In our study, we expand upon the usual hate speech detection methods, typically based on text classifiers, to develop a Named Entity Recognition (NER) System for Identity Groups. To achieve this, we created a dataset that allows extending a conventional NER to recognize identity groups. Consequently, our tool not only detects whether a sentence contains an attack but also tags the sentence tokens corresponding to the mentioned group. Results indicate that the model performs competitively in identifying groups with an average f1-score of 0.75, outperforming in identifying ethnicity attack spans with an f1-score of 0.80 compared to other identity groups. Moreover, the tool shows an outstanding generalization capability to minority classes concerning sexual orientation and gender, achieving an f1-score of 0.77 and 0.72, respectively. We tested the utility of our tool in a case study on social media, annotating and comparing comments from Facebook related to news mentioning identity groups. The case study reveals differences in the types of attacks recorded, effectively detecting named entities related to the categories of the analyzed news articles. Entities are accurately tagged within their categories, with a negligible error rate for inter-category tagging.

Auteurs: Andrés Carvallo, Tamara Quiroga, Carlos Aspillaga, Marcelo Mendoza

Dernière mise à jour: 2024-05-13 00:00:00

Langue: English

Source URL: https://arxiv.org/abs/2405.13011

Source PDF: https://arxiv.org/pdf/2405.13011

Licence: https://creativecommons.org/licenses/by/4.0/

Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.

Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.

Articles similaires