Analyse von Toxizität in politischen Diskussionen in sozialen Medien
Diese Studie bewertet Sprachmodelle bei der Klassifizierung der Toxizität politischer Inhalte.
― 6 min Lesedauer
Inhaltsverzeichnis
In den letzten Jahren hat der Aufstieg von sozialen Medien verändert, wie Leute sich an politischen Diskussionen beteiligen. Es ist einfacher geworden, seine Meinungen zu äussern und gemeinsame Aktionen zu organisieren, aber es hat auch zu mehr negativen Interaktionen geführt, wie Toxizität und Unhöflichkeit. Diese Themen sind wichtig für Forscher, die Online-Verhalten verstehen wollen.
Eine Möglichkeit, das zu studieren, sind Sprachmodelle, also fortgeschrittene Computerprogramme, die menschliche Sprache analysieren und erzeugen können. Dieser Artikel spricht über ein Projekt, das die Fähigkeit verschiedener Sprachmodelle getestet hat, politische Inhalte nach ihrem Grad an Toxizität und Unhöflichkeit zu klassifizieren. Das Ziel ist zu prüfen, wie gut diese Modelle politische Nachrichten aus sozialen Medien annotieren können.
Datensammlung
Die Forschung nutzte einen einzigartigen Datensatz, der von Twitter, jetzt X, gesammelt wurde. Dieser Datensatz beinhaltete über 3,5 Millionen Nachrichten zu Protesten in Argentinien und Chile. Die Proteste behandelten Themen wie die Reaktionen der Regierung auf die COVID-19-Pandemie und soziale Unruhen wegen wirtschaftlicher Probleme. Forscher sammelten Nachrichten mit bestimmten Hashtags, die mit diesen Ereignissen verbunden waren.
Um zuverlässige Ergebnisse zu garantieren, haben die Forscher einen "Goldstandard" für die Annotation erstellt. Das bedeutete, Nachrichten basierend auf menschlichen Bewertungen zu kategorisieren, die als Benchmark für den Vergleich mit den Sprachmodellen dienten. Eine ausgewogene Stichprobe von Nachrichten wurde aus beiden Ländern ausgewählt, mit einem Fokus auf verschiedene Toxizitätslevel.
Goldstandards
Erstellung desUm den Goldstandard festzulegen, überprüften menschliche Codierer Nachrichten manuell auf Toxizität. Sie definierten toxische Kommentare als unhöflich, respektlos oder schädlich, während nicht-toxische Kommentare als höflich und konstruktiv angesehen wurden. Ein Team von erfahrenen Codierern durchging die Nachrichten und vergab Etiketten, um eine hohe Übereinstimmung zu gewährleisten.
Dieser Prozess nahm viel Zeit und Aufwand in Anspruch und nutzte eine Online-Plattform, die Datenschutzbestimmungen einhielt. Indem mehrere Codierer die gleichen Nachrichten überprüften, stellten die Forscher die Zuverlässigkeit ihrer Etiketten sicher.
Sprachmodelle in Aktion
Mit dem Goldstandard an Ort und Stelle testeten die Forscher mehrere Sprachmodelle, um zu sehen, wie gut sie Toxizität in den Nachrichten klassifizieren konnten. Sie konzentrierten sich auf verschiedene Versionen der Modelle von OpenAI sowie auf Open-Source-Alternativen. Die Forscher verwendeten verschiedene Modelle mit unterschiedlichen Fähigkeiten, darunter solche, die speziell für Aufgaben der natürlichen Sprache entwickelt wurden, und andere mit breiteren Anwendungen.
Die Modelle bekamen die gleichen Nachrichten wie die menschlichen Codierer, um zu sehen, wie eng ihre Klassifikationen übereinstimmten. Dieses Testen beinhaltete auch eine Methode namens "Zero-Shot-Klassifikation", bei der die Modelle Vorhersagen treffen mussten, ohne zusätzliches Training für die spezifische Aufgabe.
Ergebnisse und Erkenntnisse
Die Ergebnisse zeigten, dass einige Modelle besonders gut darin waren, Toxizität zu identifizieren. Besonders eine Version des OpenAI-Modells fiel durch ihre hohe Genauigkeit auf. Interessanterweise erzielten auch einige Open-Source-Modelle starke Ergebnisse, was zeigt, dass sie mit kommerziellen Optionen konkurrieren konnten.
Die Studie offenbarte, dass die Modelle unterschiedliche Stärken basierend auf ihrem Design und der Anzahl der Parameter hatten, die sozusagen die "Grösse" des Modells darstellen. Grössere Modelle schnitten normalerweise besser ab, benötigten aber mehr Rechenleistung. Einige kleinere Modelle waren jedoch überraschend effektiv und effizient.
Überlegungen zur Modellleistung
Die Forscher bemerkten, dass die Leistung der Sprachmodelle erheblich variierte. Modelle, die günstiger und einfacher zu verwenden waren, lieferten gute Ergebnisse und zeigten, dass kleinere Open-Source-Optionen für viele Anwendungen praktisch sein könnten. Das ist wichtig, da es Alternativen zu proprietären Modellen bietet, die nicht immer für alle Forscher zugänglich sind.
Ein wichtiger Aspekt, den man berücksichtigen sollte, ist die Reproduzierbarkeit der Ergebnisse. Die Studie ergab, dass Open-Source-Modelle bei mehrfachen Tests konsistent die gleichen Ergebnisse liefern konnten. Das ist entscheidend für Wissenschaftler, die sicherstellen müssen, dass ihre Ergebnisse zuverlässig sind und von anderen in dem Bereich wiederholt werden können.
Einfluss der Temperatureinstellungen
In Experimenten testeten die Forscher, wie sich verschiedene Temperatureinstellungen auf die Leistung der Modelle auswirkten. Die "Temperatur" bezieht sich in diesem Kontext darauf, wie kreativ oder streng das Modell bei der Generierung von Antworten ist. Niedrigere Temperaturen führen typischerweise zu konsistenteren Ergebnissen, während höhere Temperaturen zu unterschiedlichen Ergebnissen führen können.
Durch diese Experimente stellten die Forscher fest, dass niedrigere Temperatureinstellungen die Zuverlässigkeit der Open-Source-Modelle verbesserten. Das stellt sicher, dass die Ergebnisse, wenn sie für Aufgaben wie die Annotation politischer Inhalte verwendet werden, stabiler und vertrauenswürdiger sind.
Anwendungen im politischen Diskurs
Die Ergebnisse haben grössere Auswirkungen auf das Verständnis von Toxizität und Unhöflichkeit in Online-Diskussionen. Da soziale Medien weiterhin eine Plattform für politisches Engagement sind, sind Werkzeuge, die Inhalte schnell und genau analysieren können, von unschätzbarem Wert.
Sprachmodelle können helfen, schädliche Interaktionen zu identifizieren und Einblicke in die Natur online Debatten zu bieten. Das kann Forschern, politischen Entscheidungsträgern und sozialen Medien helfen, bessere Strategien zu entwickeln, um gesunde Diskussionen zu fördern und Negativität einzudämmen.
Einschränkungen der Studie
Obwohl die Forschung wichtige Einblicke bietet, gibt es Einschränkungen zu berücksichtigen. Die Studie konzentrierte sich hauptsächlich auf Toxizität und Unhöflichkeit, ohne andere wichtige Aspekte der Sprache im Internet zu behandeln. Zukünftige Forschungen könnten diese Bemühungen erweitern, um zusätzliche Faktoren wie Fehlinformationen oder den emotionalen Ton von Nachrichten einzubeziehen.
Eine weitere Einschränkung ist die Abhängigkeit von bestehenden Sprachmodellen. Während diese Modelle fortschrittlich sind, können sie immer noch Vorurteile basierend auf ihren Trainingsdaten haben. Das bedeutet, dass ihre Klassifikationen möglicherweise die Mängel in den Datensätzen widerspiegeln, auf denen sie trainiert wurden.
Fazit
Zusammenfassend hebt diese Forschung das Potenzial von Sprachmodellen hervor, politische Inhalte in sozialen Medien effektiv zu analysieren. Der Benchmarking gegen von Menschen codierte Goldstandards lieferte vielversprechende Ergebnisse, insbesondere für bestimmte Modelle. Open-Source-Optionen erwiesen sich als praktikable Alternativen zu kommerziellen Produkten und bieten den Forschern zugängliche Werkzeuge für ihre Arbeit.
Während sich soziale Medien weiterentwickeln, unterstreicht die Studie die Notwendigkeit robuster Methoden zur Bewertung von Online-Interaktionen. Das kann zu einem besseren Verständnis und Management von toxischen Kontexten in politischen Diskussionen führen und letztlich zu gesünderen öffentlichen Diskursen beitragen.
Titel: Benchmarking LLMs in Political Content Text-Annotation: Proof-of-Concept with Toxicity and Incivility Data
Zusammenfassung: This article benchmarked the ability of OpenAI's GPTs and a number of open-source LLMs to perform annotation tasks on political content. We used a novel protest event dataset comprising more than three million digital interactions and created a gold standard that includes ground-truth labels annotated by human coders about toxicity and incivility on social media. We included in our benchmark Google's Perspective algorithm, which, along with GPTs, was employed throughout their respective APIs while the open-source LLMs were deployed locally. The findings show that Perspective API using a laxer threshold, GPT-4o, and Nous Hermes 2 Mixtral outperform other LLM's zero-shot classification annotations. In addition, Nous Hermes 2 and Mistral OpenOrca, with a smaller number of parameters, are able to perform the task with high performance, being attractive options that could offer good trade-offs between performance, implementing costs and computing time. Ancillary findings using experiments setting different temperature levels show that although GPTs tend to show not only excellent computing time but also overall good levels of reliability, only open-source LLMs ensure full reproducibility in the annotation.
Autoren: Bastián González-Bustamante
Letzte Aktualisierung: 2024-09-15 00:00:00
Sprache: English
Quell-URL: https://arxiv.org/abs/2409.09741
Quell-PDF: https://arxiv.org/pdf/2409.09741
Lizenz: https://creativecommons.org/licenses/by/4.0/
Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.
Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.