Analyser la toxicité dans les discussions politiques sur les réseaux sociaux
Cette étude évalue les modèles de langage dans la classification de la toxicité du contenu politique.
― 7 min lire
Table des matières
Ces dernières années, la montée des réseaux sociaux a transformé la façon dont les gens participent aux discussions politiques. Bien que ça ait facilité l'expression d'opinions et l'organisation d'actions collectives, ça a aussi augmenté les interactions négatives, comme la Toxicité et l'Incivilité. Ces problèmes sont devenus des sujets importants pour les chercheurs qui se concentrent sur la compréhension du comportement en ligne.
Une façon d'étudier ça, c'est d'utiliser des modèles de langage, qui sont des programmes informatiques avancés conçus pour analyser et générer du langage humain. Cet article discute d'un projet qui a testé la capacité de divers modèles de langage à classifier le contenu politique en fonction de son niveau de toxicité et d'incivilité. L'objectif est d'examiner la performance de ces modèles dans l'annotation des messages politiques sur les réseaux sociaux.
Collecte de données
La recherche a utilisé un ensemble de données unique recueilli sur Twitter, maintenant appelé X. Cet ensemble comprenait plus de 3,5 millions de messages liés aux manifestations en Argentine et au Chili. Les manifestations portaient sur des sujets comme les réponses du gouvernement à la pandémie de COVID-19 et le mécontentement social dû à des problèmes économiques. Les chercheurs ont collecté des messages en utilisant des hashtags spécifiques liés à ces événements.
Pour garantir des résultats fiables, les chercheurs ont créé une "norme dorée" pour l'annotation. Cela impliquait de catégoriser les messages en fonction des avis humains, qui ont servi de référence pour comparer aux modèles de langage. Un échantillon équilibré de messages a été sélectionné dans les deux pays, en mettant l'accent sur divers niveaux de toxicité.
Création de la norme dorée
Pour établir la norme dorée, des codeurs humains ont passé en revue manuellement les messages pour la toxicité. Ils ont défini les commentaires toxiques comme étant impolis, irrespectueux ou nuisibles, tandis que les commentaires non toxiques étaient considérés comme civils et constructifs. Une équipe de codeurs qualifiés a parcouru les messages et attribué des étiquettes, assurant un haut niveau d'accord parmi eux.
Ce processus a pris un temps considérable et beaucoup d'efforts, utilisant une plateforme en ligne respectant les régulations de confidentialité. En ayant plusieurs codeurs qui examinaient les mêmes messages, les chercheurs ont assuré la fiabilité de leurs étiquettes.
Modèles de langage en action
Avec la norme dorée en place, les chercheurs ont testé plusieurs modèles de langage pour voir à quel point ils pouvaient classifier la toxicité dans les messages. Ils se sont concentrés sur diverses versions des modèles d'OpenAI, ainsi que sur des alternatives open-source. Les chercheurs ont utilisé différents modèles avec des capacités variées, y compris ceux spécifiquement conçus pour des tâches de langage naturel et d'autres ayant des applications plus larges.
Les modèles ont reçu les mêmes messages que les codeurs humains pour voir à quel point leurs classifications correspondaient. Ce test incluait une méthode connue sous le nom de "classification zero-shot", où les modèles devaient faire des prédictions sans formation supplémentaire sur la tâche spécifique.
Résultats et conclusions
Les résultats ont montré que certains modèles ont particulièrement bien performé pour identifier la toxicité. Notamment, une version du modèle d'OpenAI s'est démarquée par sa grande précision. Fait intéressant, certains modèles open-source ont également obtenu de bons résultats, montrant qu'ils pouvaient rivaliser avec des options commerciales.
L'étude a révélé que les modèles avaient des forces différentes selon leur conception et le nombre de paramètres, qui sont un peu comme la "taille" du modèle. Les modèles plus grands ont généralement mieux performé mais nécessitaient plus de puissance de calcul. Cependant, certains modèles plus petits étaient étonnamment efficaces et performants.
Considérations sur la performance des modèles
Les chercheurs ont observé que la performance des modèles de langage variait considérablement. Les modèles qui étaient moins chers et plus faciles à faire fonctionner ont donné de bons résultats, montrant que les options open-source plus petites pouvaient être pratiques pour de nombreuses applications. C'est important car ça fournit des alternatives aux modèles propriétaires qui ne sont pas toujours accessibles à tous les chercheurs.
Un aspect important à considérer est la reproductibilité des résultats. L'étude a trouvé que les modèles open-source pouvaient fournir des résultats cohérents lorsqu'ils étaient testés plusieurs fois. C'est crucial pour les scientifiques qui doivent s'assurer que leurs résultats sont fiables et peuvent être reproduits par d'autres dans le domaine.
Impact des paramètres de température
Dans les expériences, les chercheurs ont testé comment différents paramètres de température ont impacté la performance des modèles. La "température" dans ce contexte se réfère à combien le modèle est créatif ou strict lors de la génération de réponses. Des températures plus basses donnent généralement des résultats plus cohérents, tandis que des températures plus élevées peuvent donner des résultats plus variés.
À travers ces expériences, les chercheurs ont établi que maintenir des paramètres de température plus bas améliorait la fiabilité des modèles open-source. Cela garantit que lorsqu'ils sont utilisés pour des tâches comme l'annotation de contenu politique, les résultats sont plus stables et dignes de confiance.
Applications dans le discours politique
Les résultats ont des implications plus larges pour comprendre la toxicité et l'incivilité dans les discussions politiques en ligne. Alors que les réseaux sociaux continuent d'être une plateforme d'engagement politique, des outils qui peuvent analyser rapidement et avec précision le contenu sont inestimables.
Les modèles de langage peuvent aider à identifier les interactions nuisibles, offrant des aperçus sur la nature des débats en ligne. Cela peut aider les chercheurs, les décideurs et les plateformes de réseaux sociaux à créer de meilleures stratégies pour favoriser un discours sain et réduire la négativité.
Limites de l'étude
Bien que la recherche offre des aperçus significatifs, il y a des limites à considérer. L'étude s'est principalement concentrée sur la toxicité et l'incivilité sans explorer d'autres aspects importants de l'utilisation du langage en ligne. Des recherches futures pourraient élargir ces efforts pour inclure des facteurs supplémentaires comme la désinformation ou le ton émotionnel des messages.
Une autre limite est la dépendance aux modèles de langage existants. Bien que ces modèles soient avancés, ils peuvent encore porter des biais basés sur leurs données d'entraînement. Cela signifie que leurs classifications pourraient refléter les défauts présents dans les ensembles de données sur lesquels ils ont été formés.
Conclusion
En résumé, cette recherche met en évidence le potentiel des modèles de langage à analyser efficacement le contenu politique sur les réseaux sociaux. La comparaison avec des normes dorées codées par des humains a montré des résultats prometteurs, en particulier pour certains modèles. Les options open-source ont émergé comme des alternatives viables aux produits commerciaux, offrant aux chercheurs des outils accessibles pour leur travail.
Alors que les réseaux sociaux continuent d'évoluer, l'étude souligne la nécessité de méthodes robustes pour évaluer les interactions en ligne. Cela peut conduire à une meilleure compréhension et gestion des contextes toxiques dans les discussions politiques, contribuant finalement à un discours public plus sain.
Titre: Benchmarking LLMs in Political Content Text-Annotation: Proof-of-Concept with Toxicity and Incivility Data
Résumé: This article benchmarked the ability of OpenAI's GPTs and a number of open-source LLMs to perform annotation tasks on political content. We used a novel protest event dataset comprising more than three million digital interactions and created a gold standard that includes ground-truth labels annotated by human coders about toxicity and incivility on social media. We included in our benchmark Google's Perspective algorithm, which, along with GPTs, was employed throughout their respective APIs while the open-source LLMs were deployed locally. The findings show that Perspective API using a laxer threshold, GPT-4o, and Nous Hermes 2 Mixtral outperform other LLM's zero-shot classification annotations. In addition, Nous Hermes 2 and Mistral OpenOrca, with a smaller number of parameters, are able to perform the task with high performance, being attractive options that could offer good trade-offs between performance, implementing costs and computing time. Ancillary findings using experiments setting different temperature levels show that although GPTs tend to show not only excellent computing time but also overall good levels of reliability, only open-source LLMs ensure full reproducibility in the annotation.
Auteurs: Bastián González-Bustamante
Dernière mise à jour: 2024-09-15 00:00:00
Langue: English
Source URL: https://arxiv.org/abs/2409.09741
Source PDF: https://arxiv.org/pdf/2409.09741
Licence: https://creativecommons.org/licenses/by/4.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.