Antisemitismus in Online-Räumen verfolgen
Eine Studie über sich entwickelnde antisemitische Diskussionen in extremistischen sozialen Medien.
― 7 min Lesedauer
Inhaltsverzeichnis
Online-Hass, besonders Antisemitismus, kann eine schädliche Umgebung schaffen, die sowohl virtuelle als auch reale Gemeinschaften betrifft. Diese Studie untersucht, wie sich Diskussionen über Antisemitismus im Laufe der Zeit auf extremistischen sozialen Medien verändern. Indem wir die Wörter und Themen verfolgen, die in diesen Diskussionen verwendet werden, können wir besser verstehen, wie sich die Gefühle und Ideen der Menschen entwickeln, und möglicherweise Wege finden, einzugreifen, bevor Hass in Gewalt umschlägt.
Das Problem mit Online-Hass
Soziale Medien haben es einfacher gemacht, mit Leuten in Kontakt zu treten, die die gleichen Ansichten haben, einschliesslich der schädlichen. Früher wurden rassistische oder antisemitische Meinungen oft leise geäussert, meist in privaten Kreisen. Doch das Internet erlaubt es jedem, seine Gedanken öffentlich zu teilen, ohne viel Angst vor Konsequenzen zu haben. Diese Veränderung hat den Hass verbreitet und manchmal zu realer Gewalt geführt.
Viele Studien wurden durchgeführt, um Hassrede automatisch zu erkennen. Aber das Verständnis der Art von Online-Diskussionen und wie sie sich über die Zeit entwickeln, ist weniger verbreitet. Die meisten bestehenden Studien konzentrieren sich auf statische Inhalte und schaffen es nicht, mit dem rasanten Tempo der Online-Gespräche Schritt zu halten. Diese fehlende zeitnahe Überwachung ist eine Lücke, die diese Forschung schliessen möchte.
Unser Ansatz
Wir schlagen eine Methode vor, die antisemitische Diskussionen auf extremistischen sozialen Medien automatisch überwacht. Dieser Ansatz nutzt maschinelles Lernen, genauer gesagt eine Art namens unüberwachtes Lernen, was bedeutet, dass es keine manuell beschrifteten Daten benötigt, um zu funktionieren. Stattdessen kann es Themen und Unterthemen selbst identifizieren, indem es ähnliche Beiträge gruppiert.
Zunächst betrachtet die Methode die ursprünglichen Beiträge und gruppiert sie nach ihren Themen. Dieser Prozess wird mit neuen Beitragsserien fortgesetzt, sodass das System sich an neue Diskussionen oder Trends, die auftauchen, anpassen kann. Durch das Clustern ähnlicher Beiträge können wir antisemitische Themen und die Sprache, die in diesen Beiträgen verwendet wird, identifizieren.
Historischer Kontext des Antisemitismus
Antisemitismus ist kein neues Problem; es gibt ihn schon seit Jahrhunderten. Im Laufe der Geschichte waren Stereotypen und Verschwörungstheorien über jüdische Menschen verbreitet. Behauptungen, dass Juden die Welt kontrollieren oder für verschiedene gesellschaftliche Probleme verantwortlich sind, tauchen oft in Diskussionen auf. Diese Themen entwickeln sich und passen sich den aktuellen Ereignissen an. Zum Beispiel haben einige Online-Diskussionen Juden mit falschen Verschwörungstheorien über die COVID-19-Pandemie in Verbindung gebracht.
Diese Themen zu verstehen, ist entscheidend. Unser Ziel ist es, Veränderungen in antisemitischen Diskussionen zu erkennen, während sie geschehen, damit wir handeln können, bevor der Hass eskaliert.
Überblick über die Methodik
Die Methode besteht aus zwei Hauptschritten. Zuerst sammeln wir einen kontinuierlich aktualisierten Stream von Beiträgen aus sozialen Medien. Dann verarbeiten wir jede Beitragsserie, um antisemitische Themen zu identifizieren. Der Prozess umfasst die Erstellung einer Wissensdatenbank, die diese Themen ohne menschliches Eingreifen kategorisiert.
Datensammlung: Die Beiträge werden in Serien gesammelt. Dazu gehören Kommentare und Diskussionen, die in sozialen Medien zu finden sind, mit Fokus auf extremistische Inhalte.
Textvorverarbeitung: Die gesammelten Texte werden bereinigt. Dazu gehört das Kleinschreiben der Texte, das Entfernen von URLs und das Beseitigen von Sonderzeichen, damit der Fokus auf dem Inhalt bleibt.
Erzeugung von Einbettungen: Mit einem Sprachmodell namens BERT verwandeln wir die bereinigten Texte in numerische Darstellungen, die ihre Bedeutungen und Beziehungen erfassen können.
Clustering: Die Einbettungen der Beiträge werden dann mit Clustering-Techniken verarbeitet. Das hilft, ähnliche Beiträge zu gruppieren und Themen zu identifizieren. Wir passen diese Cluster laufend an, während neue Daten eingehen, um sicherzustellen, dass das vorherige Wissen bewahrt bleibt.
Themenextraktion: Aus diesen Clustern extrahieren wir antisemitische Begriffe und Themen, die sowohl gängige Phrasen als auch aufkommende Sprache erfassen, die den Hass verstärkt.
Dynamisches Lernen
Eines der Hauptmerkmale unseres Ansatzes ist seine dynamische Natur. Wenn neue Beiträge eintreffen, aktualisiert das Modell ständig sein Verständnis der Themen. Das System vergisst keine früheren Informationen; es integriert neue Daten und bewahrt den historischen Kontext. Das ist wichtig, weil Muster von Hassrede schnell entstehen und sich entwickeln können.
Lokale und globale Anpassungen
Um diesen laufenden Lernprozess zu steuern, verwenden wir zwei Arten von Updates: lokale und globale. Lokale Updates konzentrieren sich auf individuelle Konzepte, während globale Updates kleinere Änderungen in allen Themen vornehmen, wenn nötig. Dieses Gleichgewicht stellt sicher, dass das System stabil bleibt, während es sich an neue Informationen anpasst.
Ergebnisse
Unsere Methode wurde mit bestehenden Techniken zum Clustern von Diskussionen getestet. Wir haben sowohl quantitative als auch qualitative Analysen durchgeführt, um unseren Ansatz zu bewerten.
Quantitative Analyse: Wir haben unsere Clustering-Ergebnisse mit anderen modernen Clustering-Methoden verglichen, wie Affinity Propagation, Birch, Spektralclustering, Gausssche Mischverteilung und Mean Shift. Unsere Methode war die einzige, die dynamisch eine angemessene Anzahl von Clustern schätzen konnte. Die anderen haben entweder zu viele oder zu wenige Cluster erzeugt, was die Natur der Diskussionen nicht genau erfasste. Unser Ansatz identifizierte effektiv neun Cluster, die verschiedene antisemitische Themen repräsentieren.
Qualitative Analyse: Wir haben auch die Arten von Begriffen und Diskussionen untersucht, die von unserer Methode erfasst wurden. Diese Analyse beinhaltete das Erkunden spezifischer Begriffe, die mit antisemitischen Einstellungen verbunden sind. Zum Beispiel wurden Diskussionen über Themen wie "Neue Weltordnung" und "kultureller Marxismus" identifiziert, die veranschaulichen, wie sich diese Ideen online manifestieren.
Aufkommende antisemitische Sprache
Ein entscheidender Aspekt der Forschung war die Identifikation neuer antisemitischer Sprache, während sich die Diskussionen entwickeln. Indem wir Sprachmodelle nutzen, können wir die Bedeutungen neu auftauchender Begriffe mit bekannten antisemitischen Phrasen vergleichen. Das hilft dabei, neue Sprachtrends zu kennzeichnen, die auf steigende antisemitische Gefühle hinweisen könnten.
Auswirkungen auf die Überwachung von Hassrede
Das ultimative Ziel dieser Studie ist es, ein praktisches Werkzeug zur Überwachung von hasserfüllten Diskursen online bereitzustellen. Durch die kontinuierliche Analyse sozialer Medien können wir in Echtzeit Veränderungen in antisemitischen Gesprächen identifizieren. Das ermöglicht rechtzeitige Eingriffe, um die Eskalation von Hass zu verhindern.
Wir erkennen auch an, dass unser Ansatz angepasst werden könnte, um andere Formen von Hass, wie anti-Schwarzen, anti-LGBTQ+ oder islamophobe Sprache, zu untersuchen, was ihn zu einem vielseitigen Tool für die Behandlung mehrerer sozialer Probleme macht.
Herausforderungen in der Zukunft
Der Kampf gegen Online-Hass ist ein fortlaufender Prozess. Zukünftige Bemühungen werden die Entwicklung von Funktionen zur Visualisierung von Daten und die Verbesserung der Benutzerfreundlichkeit unseres Überwachungswerkzeugs umfassen. Kooperationen mit Sozialwissenschaftlern sind ebenfalls entscheidend, da ihre Erkenntnisse unsere Methoden verfeinern können, um sicherzustellen, dass sie die Bedürfnisse der Nutzer effektiv erfüllen.
Fazit
Diese Forschung stellt einen bedeutenden Fortschritt im Verständnis und der Überwachung antisemitischer Diskurse in sozialen Medien dar. Durch den Einsatz von Techniken des maschinellen Lernens und der Verarbeitung natürlicher Sprache können wir nicht nur bestehende Themen verfolgen, sondern auch neue Formen von Hassrede antizipieren und darauf reagieren, sobald sie auftauchen. Das ist entscheidend für die Schaffung einer sichereren Online-Umgebung und die Eindämmung der Verbreitung schädlicher Ideologien.
Unser Ansatz legt das Fundament für eine fortlaufende Überwachung und Intervention und trägt zu einer breiteren Diskussion über Hassrede und ihre Konsequenzen bei. Während wir unsere Methoden verbessern und unseren Fokus erweitern, hoffen wir, einen bedeutenden Einfluss auf die Verringerung von Diskriminierung und die Förderung sozialer Harmonie in digitalen Räumen zu haben.
Titel: Monitoring the evolution of antisemitic discourse on extremist social media using BERT
Zusammenfassung: Racism and intolerance on social media contribute to a toxic online environment which may spill offline to foster hatred, and eventually lead to physical violence. That is the case with online antisemitism, the specific category of hatred considered in this study. Tracking antisemitic themes and their associated terminology over time in online discussions could help monitor the sentiments of their participants and their evolution, and possibly offer avenues for intervention that may prevent the escalation of hatred. Due to the large volume and constant evolution of online traffic, monitoring conversations manually is impractical. Instead, we propose an automated method that extracts antisemitic themes and terminology from extremist social media over time and captures their evolution. Since supervised learning would be too limited for such a task, we created an unsupervised online machine learning approach that uses large language models to assess the contextual similarity of posts. The method clusters similar posts together, dividing, and creating additional clusters over time when sub-themes emerge from existing ones or new themes appear. The antisemitic terminology used within each theme is extracted from the posts in each cluster. Our experiments show that our methodology outperforms existing baselines and demonstrates the kind of themes and sub-themes it discovers within antisemitic discourse along with their associated terminology. We believe that our approach will be useful for monitoring the evolution of all kinds of hatred beyond antisemitism on social platforms.
Autoren: Raza Ul Mustafa, Nathalie Japkowicz
Letzte Aktualisierung: 2024-02-06 00:00:00
Sprache: English
Quell-URL: https://arxiv.org/abs/2403.05548
Quell-PDF: https://arxiv.org/pdf/2403.05548
Lizenz: https://creativecommons.org/licenses/by/4.0/
Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.
Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.
Referenz Links
- https://time.com/5644314/8chan-shootings/
- https://www.pyrratech.com/
- https://www.splcenter.org/fighting-hate/intelligence-report/2003/cultural-marxism-catching
- https://shorturl.at/dqyDH
- https://en.wikipedia.org/wiki/Moon_landing_conspiracy_theories
- https://www.memri.org/tv/french-author-guyenot-moon-landing-hoax-proves-america-is-empire-of-lies
- https://shorturl.at/pzBPR
- https://en.wikipedia.org/wiki/Reptilian_conspiracy_theory
- https://shorturl.at/cfvEQ
- https://en.wikipedia.org/wiki/Zionist_Occupation_Government_conspiracy_theory
- https://www.ajc.org/news/who-are-the-black-hebrew-israelites
- https://docs.scipy.org/doc/scipy/reference/spatial.distance.html
- https://www.ajc.org/translatehate/control
- https://www.ajc.org/translatehateglossary