Simple Science

Hochmoderne Wissenschaft einfach erklärt

# Computerwissenschaften# Computer und Gesellschaft

Hassrede im digitalen Raum von Myanmar angehen

Ein gemeinschaftsorientierter Ansatz zur Bekämpfung von Online-Hassrede in Myanmar.

― 7 min Lesedauer


Hassrede in MyanmarHassrede in MyanmarkonfrontierenKampf gegen Online-Hass.Lokales Wissen ist entscheidend im
Inhaltsverzeichnis

In Myanmar hat der Aufstieg von sozialen Medien die Verbreitung von Hassrede ins Rampenlicht gerückt, was zu realer Gewalt und Unruhen geführt hat. Dieses Problem ist besonders besorgniserregend angesichts der politischen Geschichte und sozialen Spannungen des Landes. Um das Problem der Hassrede online anzugehen, ist es wichtig, eine Methode zu verwenden, die Technologie mit lokalem Wissen kombiniert. Wenn wir eng mit Menschen zusammenarbeiten, die den kulturellen Kontext verstehen, können wir bessere Systeme zur Identifizierung und Verwaltung von Hassrede auf sozialen Plattformen schaffen.

Das Problem der Hassrede in Myanmar

Myanmar hat eine komplizierte Geschichte von Konflikten und Diskriminierung gegen Minderheitengruppen, insbesondere gegen die Rohingya. Soziale Medien, besonders Facebook, haben eine wichtige Rolle bei der Verbreitung schädlicher Botschaften und Fehlinformationen gespielt, die Gewalt angeheizt haben. Berichte von internationalen Organisationen haben aufgezeigt, wie Hassrede in sozialen Medien zur Gewalt gegen die Rohingya beigetragen hat, was zu Tausenden von Toten und weit verbreiteter Vertreibung geführt hat.

Mit den bevorstehenden nationalen Wahlen im Jahr 2020 gab es zunehmend Bedenken, dass sich die Hassrede eskalieren könnte. Beobachter sorgten sich, dass Online-Akteure bestehende Spannungen ausnutzen könnten, um Gewalt zu schüren. Diese Situation benötigt die Entwicklung effektiver Systeme zur Erkennung von Hassrede, die auf die Bedürfnisse und den Kontext von Myanmar zugeschnitten sind.

Die Rolle von Kontext-Experten

Um ein effektives System zur Erkennung von Hassrede zu schaffen, müssen wir lokale Experten einbeziehen, die ein tiefes Verständnis für die soziale und politische Landschaft Myanmars haben. Diese Kontext-Experten sind nicht nur Sprachübersetzer; sie haben persönliche Erfahrungen, die ihnen unschätzbare Einblicke in die Arten von Reden geben, die zu Konflikten führen können. Durch die Zusammenarbeit mit diesen Experten können wir eine genauere und kulturell relevante Methode zur Identifizierung von Hassrede entwickeln.

Aufbau eines kollaborativen Prozesses

Wir haben einen systematischen Prozess etabliert, um mit Kontext-Experten am gesamten Projekt zur Erkennung von Hassrede zu arbeiten. Dieser Prozess umfasste mehrere wichtige Schritte:

  1. Partnerschaften: Wir haben damit begonnen, Beziehungen zu lokalen Organisationen aufzubauen, die sich mit Themen rund um Hassrede und Demokratie befassen. Diese Partnerschaft ist entscheidend, um sicherzustellen, dass unsere Bemühungen im lokalen Kontext verankert sind und mit den Prioritäten der Gemeinschaft übereinstimmen.

  2. Definitionen von Hassrede: Wir haben mit juristischen und Kontext-Experten zusammengearbeitet, um zu definieren, was in Myanmar als Hassrede gilt. Diese Definition wurde an internationale Standards angepasst und auf lokale Empfindlichkeiten zugeschnitten, um sicherzustellen, dass sie alle relevanten Fälle von Hassrede abdeckt.

  3. Daten-Generierung: Kontext-Experten halfen dabei, einen Datensatz von sozialen Medienbeiträgen zu kuratieren, die Hassrede enthielten. Dies beinhaltete die Nutzung von Technologieplattformen wie CrowdTangle, um Beiträge zu sammeln und Hassrede anhand der vereinbarten Definitionen zu identifizieren.

  4. Modellvalidierung: Nachdem die Daten gesammelt und verarbeitet wurden, spielten die Kontext-Experten eine entscheidende Rolle bei der Validierung der von uns entwickelten Machine-Learning-Modelle zur Erkennung von Hassrede. Ihre Erkenntnisse waren unschätzbar, um Bereiche zu identifizieren, in denen das Modell verbessert werden musste.

Herausforderungen

Während dieses Prozesses traten mehrere Herausforderungen auf, hauptsächlich aufgrund der begrenzten Verfügbarkeit von Daten zur Hassrede in ressourcenarmen Sprachen wie Burmesisch. Die folgenden Probleme wurden festgestellt:

  • Kleine Datensätze: Die Menge an erfasster Hassrede in unserem Datensatz war im Vergleich zur Gesamtzahl der überprüften Beiträge relativ gering. Das machte es schwierig, ein effektives Machine-Learning-Modell zu trainieren.

  • Daten-Ungleichgewicht: Die meisten sozialen Medienbeiträge waren keine Hassrede. Dieses Ungleichgewicht kann dazu führen, dass Modelle Schwierigkeiten haben, Hassrede genau zu identifizieren.

  • Geschlossene Datenpraktiken: Der Austausch von Daten zwischen Forschern und lokalen Kontext-Experten wurde durch die Datenweitergaberechtsvorschriften der sozialen Medienplattformen kompliziert. Diese Richtlinien schränken oft ein, wie Daten verwendet und geteilt werden können.

Entwicklung des Modells zur Erkennung von Hassrede

Trotz der Herausforderungen haben wir ein Modell entwickelt, um Hassrede automatisch in sozialen Medien zu erkennen. Das Modell basiert auf Machine-Learning-Algorithmen, die auf dem Datensatz trainiert wurden, der mit Hilfe von Kontext-Experten kuratiert wurde. Es wurden verschiedene Arten von Algorithmen getestet, einschliesslich traditioneller Methoden und neueren Modellen auf Basis von neuronalen Netzwerken. Der Fokus lag darauf, sicherzustellen, dass die Modelle auch mit den verfügbaren und unausgeglichenen Datensätzen effektiv arbeiten konnten.

Annotierungsrichtlinien

Um die Effektivität des Modells zur Erkennung von Hassrede zu verbessern, haben wir klare Annotierungsrichtlinien mit Hilfe von Kontext-Experten entwickelt. Diese Richtlinien beschrieben, wie Beiträge als Hassrede oder nicht gekennzeichnet werden sollten, basierend auf vereinbarten Kriterien. Die Richtlinien waren entscheidend, um Konsistenz im Kennzeichnungsprozess zu gewährleisten, und boten Beispiele, um den Annotatoren bei informierten Entscheidungen zu helfen.

Datenkollektionsprozess

Der Datenkollektionsprozess beinhaltete die Zusammenstellung einer Liste von Hassbegriffen, die spezifisch für den Kontext Myanmars waren. Wir haben diese Begriffe aus bestehenden Lexika zur Hassrede gesammelt und sie mit Hilfe von Kontext-Experten verfeinert. Das Ziel war es, eine umfassende Liste von Wörtern zu erstellen, die darauf hinweisen könnten, dass Hassrede vorliegt, wenn sie in sozialen Medienbeiträgen verwendet werden.

Mit dem CrowdTangle-Dienst haben wir Beiträge von verschiedenen sozialen und politischen Seiten in Myanmar gesammelt, die ausgewählte Hassbegriffe enthielten. Nach umfangreicher Vorverarbeitung, um die Daten zu bereinigen, hatten wir einen grossen Datensatz zur Verfügung.

Annotierung der Daten

Die ordnungsgemässe Kennzeichnung von Beiträgen ist entscheidend für das Training effektiver Machine-Learning-Modelle. Um Fehler im Kennzeichnungsprozess zu minimieren, haben wir eine Pairing-Strategie angewendet, bei der zwei Annotatoren unabhängig denselben Beitragssatz überprüften. Sie diskutierten ihre Kennzeichnungsentscheidungen zusammen, um Unterschiede zu klären. Diese Strategie half, die Übereinstimmung unter den Annotatoren im Laufe der Zeit zu verbessern.

Modellleistung und Validierung

Nach der Kennzeichnung der Daten haben wir die Leistung unseres Modells zur Erkennung von Hassrede mit verschiedenen Machine-Learning-Techniken getestet. Wir bewerteten das Modell basierend auf Präzision, Recall und F1-Werten, um zu bestimmen, wie genau es Hassrede identifizieren konnte. Kontext-Experten überprüften die Entscheidungen des Modells, um qualitative Einblicke in seine Leistung zu geben und Verbesserungsbereiche zu identifizieren.

Wichtige Erkenntnisse

Unsere Erkenntnisse heben mehrere wichtige Aspekte bei der Entwicklung von Hassrede-Erkennungssystemen in ressourcenarmen Sprachsettings hervor:

  1. Zusammenarbeit mit Kontext-Experten: Die Einbeziehung lokaler Experten ist entscheidend, um die Definitionen von Hassrede anzupassen und sicherzustellen, dass die Erkennungssysteme relevant für den lokalen Kontext sind.

  2. Datenherausforderungen: Die begrenzte Verfügbarkeit von hochwertigen Trainingsdaten bleibt eine bedeutende Hürde bei der Entwicklung effektiver Modelle zur Erkennung von Hassrede. Gemeinschaftsbasierte Datenkollektionsanstrengungen können helfen, diese Herausforderung anzugehen.

  3. Wichtigkeit klarer Richtlinien: Die Festlegung klarer, kontextsensitiver Annotierungsrichtlinien ist entscheidend, um Konsistenz im Kennzeichnen von Beiträgen als Hassrede oder nicht zu gewährleisten.

Empfehlungen für zukünftige Arbeiten

Basierend auf unseren Erfahrungen können mehrere Ansätze in zukünftigen Forschungen erkundet werden, um die Erkennung von Hassrede in ressourcenarmen Sprachsettings zu verbessern:

  1. Daten-Augmentation: Die Erforschung von Techniken zur Generierung zusätzlicher Trainingsbeispiele aus bestehenden Hassrede-Daten könnte helfen, den Mangel an gekennzeichneten Daten zu mindern.

  2. Verständnis sozialer Kontexte: Die Einbeziehung zusätzlicher Kontexte aus sozialen Medien und Nachrichtenquellen in die Erkennungsmodelle kann deren Effektivität steigern.

  3. Multimodale Ansätze: Die Entwicklung von Systemen, die nicht nur Texte, sondern auch Bilder und Videos mit Hassrede analysieren können, könnte eine umfassendere Lösung des Problems bieten.

  4. Einbindung von Nicht-Experten: Es weiterhin zu finden, Wege zu finden, um Nicht-Experten in Machine-Learning-Projekte einzubeziehen, kann die Zusammenarbeit fördern und die Nachhaltigkeit dieser Bemühungen verbessern.

Fazit

Die Bekämpfung von Hassrede in Myanmars digitaler Landschaft erfordert einen durchdachten, gemeinschaftszentrierten Ansatz, der lokales Fachwissen und Verständnis nutzt. Indem wir zusammenarbeiten, können wir bessere Systeme zur Identifizierung und Reaktion auf Hassrede entwickeln und letztlich eine sicherere Online-Umgebung für alle schaffen. Die aus dieser Erfahrung gewonnenen Lektionen können wertvolle Einblicke für ähnliche Initiativen in anderen Regionen bieten, die mit den Herausforderungen der Hassrede im Internet konfrontiert sind.

Originalquelle

Titel: Tackling Hate Speech in Low-resource Languages with Context Experts

Zusammenfassung: Given Myanmars historical and socio-political context, hate speech spread on social media has escalated into offline unrest and violence. This paper presents findings from our remote study on the automatic detection of hate speech online in Myanmar. We argue that effectively addressing this problem will require community-based approaches that combine the knowledge of context experts with machine learning tools that can analyze the vast amount of data produced. To this end, we develop a systematic process to facilitate this collaboration covering key aspects of data collection, annotation, and model validation strategies. We highlight challenges in this area stemming from small and imbalanced datasets, the need to balance non-glamorous data work and stakeholder priorities, and closed data-sharing practices. Stemming from these findings, we discuss avenues for further work in developing and deploying hate speech detection systems for low-resource languages.

Autoren: Daniel Nkemelu, Harshil Shah, Irfan Essa, Michael L. Best

Letzte Aktualisierung: 2023-03-29 00:00:00

Sprache: English

Quell-URL: https://arxiv.org/abs/2303.16828

Quell-PDF: https://arxiv.org/pdf/2303.16828

Lizenz: https://creativecommons.org/licenses/by/4.0/

Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.

Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.

Mehr von den Autoren

Ähnliche Artikel