Bias in automatisierten Werkzeugen gegen African American English
Automatisierte Tools beurteilen African American English oft falsch, was zu unfairer Behandlung online führt.
― 7 min Lesedauer
Inhaltsverzeichnis
Sprache verändert sich ständig, und wie Leute sprechen, kann stark variieren, je nachdem, wo sie leben, mit wem sie zusammen sind und welche Technologie sie nutzen. Eine Form von Englisch, die mehr Aufmerksamkeit bekommen hat, ist African American English (AAE). Der Aufstieg von sozialen Medien hat es einfacher gemacht, dass Leute ihre einzigartigen Ausdrucksweisen teilen, aber das bringt auch Herausforderungen mit sich. Ein grosses Problem ist, wie bestimmte automatisierte Tools Sätze hinsichtlich ihrer toxischen (wie schädlich oder beleidigend etwas ist) und sentimentalen Bewertung (wie positiv oder negativ etwas ist) einschätzen.
Dieses Papier konzentriert sich darauf, wie diese Tools oft Vorurteile gegen AAE haben. Zum Beispiel, wenn ein Tool, das Toxizität bewertet, die Aussage "Alle nggers verdienen es, respektvoll zu sterben. Die Polizei ermordet uns." bewertet, wird es als toxischer eingestuft als "African-Americans verdienen es, respektvoll zu sterben. Die Polizei ermordet uns." Das Tool hat Schwierigkeiten, den Kontext des Begriffs "ngger" zu verstehen, der von einigen innerhalb der schwarzen Gemeinschaft umgedeutet wurde. Das Vorurteil kommt daher, dass diese automatisierten Tools auf einer begrenzten Anzahl an Beispielen trainiert wurden, die die Komplexität der Sprache nicht ausreichend repräsentieren.
Die Bedeutung von Sprache in Online-Communities
Das Internet hat einen riesigen Anstieg an Nutzern erlebt, von 400 Millionen im Jahr 2000 auf 4,7 Milliarden im Jahr 2020. Dieser Anstieg hat es ermöglicht, dass eine Vielzahl von sozialen Gruppen kommunizieren kann, was wiederum zum Wachstum verschiedener Dialekte wie AAE geführt hat. Mit so viel online Text ist es jedoch unmöglich, dass Leute alle Kommunikationen manuell überwachen. Das schafft einen Bedarf an automatisierten Tools, die schädliche oder negative Sprache identifizieren, insbesondere wenn sie sich gegen marginalisierte Gruppen richtet, die historisch Diskriminierung erfahren haben.
AAE wurde von einer geringeren Form von Englisch zu einem anerkannten Dialekt. Dieser Übergang wurde durch das Internet unterstützt, wo geschriebenes AAE häufiger geworden ist. Allerdings kann die Online-Umgebung auch als Plattform für schädliche Kampagnen gegen African Americans dienen. Während einige Webseiten klare Verhaltensrichtlinien definiert haben, ermöglicht Anonymität einen Missbrauch.
Sentiment-Analyse-Modelle
Toxizität undEs gibt zwei Arten von Modellen, die oft verwendet werden, um Online-Text zu bewerten: Toxizitätsmodelle, zu denen Tools wie Google’s Perspective und Detoxify gehören, und Sentiment-Analyse-Modelle wie Vader und TextBlob. Diese Modelle sind darauf ausgelegt zu beurteilen, ob eine Aussage toxisch ist oder welche Art von Sentiment sie ausdrückt.
Diese Modelle funktionieren jedoch nicht immer fair über verschiedene Dialekte hinweg. AAE-Ausdrücke erhalten oft höhere Toxizitätswerte im Vergleich zu ähnlichen Aussagen in Standard-Englisch. Dieses Vorurteil stellt eine Herausforderung dar, weil es zu einer unfairen Behandlung von Sprechern führen kann, die AAE verwenden, was zu ungenauer Moderation ihrer Kommentare online führt.
Die Forschungsfrage
Die zentrale Frage dieser Studie ist, ob es ein systematisches Vorurteil gibt, wie Toxizitäts- und Sentiment-Analyse-Modelle AAE bewerten. Um das zu untersuchen, wurde ein Datensatz erstellt, der verschiedene Ausdrücke aus AAE sowie Textproben aus unterschiedlichen Quellen enthält, einschliesslich sozialer Medien und gesprochenen Interviews. Ziel war es, herauszufinden, wie diese Modelle abschneiden, wenn sie AAE im Vergleich zu Standard-Englisch bewerten.
Methodik
Um dieses Problem zu untersuchen, wurden verschiedene Datensätze analysiert. Der erste Datensatz bestand aus Tweets, die als AAE oder Mainstream American English (MAE) klassifiziert wurden. Der zweite Datensatz kam aus YouTube-Filmkritiken, die einen einzelnen Sprecher zeigten, der ein Filmtopic diskutierte. Der letzte Datensatz enthielt gesprochene Interviews mit Sprechern von AAE und MAE.
Die Forscher haben diese Datensätze sorgfältig zusammengestellt, um ein breites Spektrum an Ausdrücken einzubeziehen. Neben AAE-Ausdrücken wurden auch verschiedene linguistische und grammatische Merkmale analysiert, um die Vorurteile der Modelle besser zu verstehen.
Ergebnisse
Die Analyse zeigte, dass Modelle dazu tendieren, Aussagen mit AAE-Ausdrücken höhere Toxizitätswerte zuzuweisen, selbst wenn die Bedeutung ähnlich ist wie bei einer Aussage in Standard-Englisch. Zum Beispiel erhielten in dem Twitter-Datensatz Tweets mit AAE-Ausdrücken konstant höhere Toxizitätswerte als non-AAE-Tweets, die dieselben Ideen vermittelten.
In gesprochenen Interviews war dieses Vorurteil ebenfalls offensichtlich. Bei einem Vergleich der Antworten von African American Sprechern, die AAE verwendeten, mit denen, die Standard-Englisch sprachen, bewerteten die Modelle letztere unfair als weniger toxisch, selbst wenn der Kontext ähnlich war.
Linguistische Merkmale und ihre Auswirkungen
Um die Mechanismen hinter diesen Vorurteilen zu verstehen, wurden linguistische Merkmale analysiert. Bestimmte Muster traten auf, die darauf hinwiesen, dass die Anwesenheit von AAE-Ausdrücken der wichtigste Indikator für einen härteren Toxizitätswert war. Andere Faktoren, wie die Anzahl emotionaler Wörter oder Grammatik, spielten eine Rolle, aber die Nutzung von AAE stach hervor.
Zum Beispiel bewerteten Modelle, die das Sentiment massen, Sätze mit AAE-Ausdrücken nicht immer negativ. Allerdings war das Vorurteil bei Toxizitätsmodellen ausgeprägter. Das zeigt, dass während die Sentiment-Analyse nachsichtiger sein könnte, die Toxizitätsbewertung problematisch bleibt, wenn es um nicht-standardisierte Formen von Englisch geht.
Semantische Ähnlichkeit
Eine zentrale Frage war, ob ähnliche Sätze unterschiedliche Bewertungen erhielten, basierend auf den verwendeten AAE-Ausdrücken. Durch den Vergleich von Satzpaaren mit ähnlichen Bedeutungen, aber unterschiedlichem AAE-Einsatz wurde deutlich, dass Sätze mit AAE-Ausdrücken oft viel härter bewertet wurden.
Zum Beispiel könnten zwei Sätze nahezu identische Ideen ausdrücken, aber wenn einer AAE-Ausdrücke enthielt, war es viel wahrscheinlicher, dass er als toxisch bewertet wurde. Das verdeutlicht die Vorurteile, die in diesen automatisierten Tools vorhanden sind, und zeigt den Bedarf an kontextsensiblen Bewertungsprotokollen.
Diskussion
Die Ergebnisse werfen wichtige Fragen zur Fairness von automatisierten Inhaltsmoderationstools auf. Vorurteile gegenüber AAE schränken nicht nur den Ausdruck von African Americans ein, sondern untergraben auch die Integrität der Online-Diskussionen. Das ist besonders besorgniserregend, wenn automatisierte Tools zur Moderation von Gesprächen auf sozialen Medien verwendet werden, wo vielfältige Gemeinschaften interagieren.
Während Vorurteile in KI-Modellen ein anerkanntes Problem sind, bleiben sie im Kontext von AAE weit verbreitet. Die Studie betont die Notwendigkeit, sich dieser Vorurteile bewusster zu sein und die Entwickler zu ermutigen, zu überdenken, wie sie ihre Modelle trainieren und welche Datensätze sie verwenden.
Fazit
Zusammenfassend hebt diese Analyse signifikante Vorurteile hervor, wie automatisierte Toxizitäts- und Sentiment-Analysetools AAE bewerten. Die Ergebnisse deuten darauf hin, dass selbst gut entwickelte Modelle Schwierigkeiten haben, Sprache, die ausserhalb traditioneller Normen fällt, genau zu bewerten.
Es besteht eindeutiger Bedarf an inklusiveren Trainingsdatensätzen, die die reichen Variationen des Englischen, einschliesslich AAE, besser repräsentieren. Indem wir mehr vielfältige Beispiele in das Training einbeziehen, können wir darauf hinarbeiten, diese Vorurteile zu reduzieren und eine gerechtere Online-Kommunikation für alle Nutzer zu fördern.
Die Verbesserung der Genauigkeit dieser Tools ist entscheidend, nicht nur für die Fairness, sondern auch für das breitere Ziel, einen inklusiveren digitalen Raum zu fördern. Während die Sprache weiterhin evolviert, muss sich auch die Art und Weise, wie wir Technologie entwickeln und umsetzen, anpassen, um sicherzustellen, dass alle Stimmen gleich und gerecht behandelt werden.
Ethische Überlegungen
Wie bei jeder Forschung, die mit Sprache und Identität zu tun hat, sind ethische Überlegungen von grösster Bedeutung. Diese Studie hat aktiv darauf verzichtet, sich auf selbstberichtete demografische Daten, insbesondere in Bezug auf Rasse, zu stützen, um mögliche Vorurteile zu mindern. Stattdessen lag der Fokus auf den AAE-Ausdrücken selbst.
Das Ziel ist nicht, KI-Tools oder Modelle zu verurteilen, sondern Vorurteile in bestehenden Systemen zu identifizieren. Indem diese Themen beleuchtet werden, hoffen die Forscher, Verbesserungen zu inspirieren und eine weitere Diskussion über die Auswirkungen von KI auf das Leben marginalisierter Gemeinschaften zu fördern.
Alle Begriffe oder Ausdrücke, die als beleidigend angesehen werden, wurden nicht mit der Absicht verwendet, sondern um die Natur der Studie genau widerzuspiegeln. Ziel ist es, das Verständnis zu verbessern und verantwortungsbewusste und respektvolle Diskurse in der Entwicklung und Anwendung von Technologie zu fördern.
Titel: A Comprehensive View of the Biases of Toxicity and Sentiment Analysis Methods Towards Utterances with African American English Expressions
Zusammenfassung: Language is a dynamic aspect of our culture that changes when expressed in different technologies/communities. Online social networks have enabled the diffusion and evolution of different dialects, including African American English (AAE). However, this increased usage is not without barriers. One particular barrier is how sentiment (Vader, TextBlob, and Flair) and toxicity (Google's Perspective and the open-source Detoxify) methods present biases towards utterances with AAE expressions. Consider Google's Perspective to understand bias. Here, an utterance such as ``All n*ggers deserve to die respectfully. The police murder us.'' it reaches a higher toxicity than ``African-Americans deserve to die respectfully. The police murder us.''. This score difference likely arises because the tool cannot understand the re-appropriation of the term ``n*gger''. One explanation for this bias is that AI models are trained on limited datasets, and using such a term in training data is more likely to appear in a toxic utterance. While this may be plausible, the tool will make mistakes regardless. Here, we study bias on two Web-based (YouTube and Twitter) datasets and two spoken English datasets. Our analysis shows how most models present biases towards AAE in most settings. We isolate the impact of AAE expression usage via linguistic control features from the Linguistic Inquiry and Word Count (LIWC) software, grammatical control features extracted via Part-of-Speech (PoS) tagging from Natural Language Processing (NLP) models, and the semantic of utterances by comparing sentence embeddings from recent language models. We present consistent results on how a heavy usage of AAE expressions may cause the speaker to be considered substantially more toxic, even when speaking about nearly the same subject. Our study complements similar analyses focusing on small datasets and/or one method only.
Autoren: Guilherme H. Resende, Luiz F. Nery, Fabrício Benevenuto, Savvas Zannettou, Flavio Figueiredo
Letzte Aktualisierung: 2024-01-23 00:00:00
Sprache: English
Quell-URL: https://arxiv.org/abs/2401.12720
Quell-PDF: https://arxiv.org/pdf/2401.12720
Lizenz: https://creativecommons.org/licenses/by/4.0/
Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.
Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.
Referenz Links
- https://dl.acm.org/ccs.cfm
- https://theconversation.com/the-rings-of-power-is-suffering-a-racist-backlash-for-casting-actors-of-colour-but-tolkiens-work-has-always-attracted-white-supremacists-189963
- https://en.wikipedia.org/wiki/Nigga
- https://hutchinscenter.fas.harvard.edu/odaae
- https://anonymous.4open.science/r/aae_bias-D396/data/aae_terms_black_talk.yaml
- https://www.rottentomatoes.com/top/bestofrt/
- https://buckeyecorpus.osu.edu/php/corpusInfo.php
- https://slanglab.cs.umass.edu/TwitterAAE/
- https://anonymous.4open.science/r/aae_bias-D396/data/youtube_data_description.csv
- https://support.google.com/youtube/thread/70343381
- https://github.com/NVIDIA/NeMo
- https://huggingface.co/
- https://www.noswearing.com/
- https://spacy.io