Simple Science

Hochmoderne Wissenschaft einfach erklärt

# Computerwissenschaften# Rechnen und Sprache# Künstliche Intelligenz# Computer und Gesellschaft# Maschinelles Lernen

Voreingenommenheit in KI-Tools beeinflusst Diskussionen über Behinderungen

Diese Studie zeigt Vorurteile in KI-Modellen, die Sprache im Zusammenhang mit Behinderungen analysieren.

― 5 min Lesedauer


KI-Vorurteile gegenKI-Vorurteile gegenBehinderungenBehinderungen oft negativ.KI-Tools kennzeichnen Diskussionen über
Inhaltsverzeichnis

Dieser Artikel schaut sich an, wie KI-Tools, die Gefühle und Toxizität in Texten analysieren, eine klare Voreingenommenheit gegenüber Menschen mit Behinderungen (PwD) zeigen. Wir haben Informationen von sozialen Medien wie Twitter und Reddit gesammelt und uns auf Diskussionen über Behinderungen konzentriert, um zu sehen, wie sich diese Voreingenommenheiten in alltäglichen Gesprächen zeigen.

Was ist Voreingenommenheit in KI-Modellen?

Voreingenommenheit passiert, wenn ein Modell eine Gruppe von Menschen unfair anders behandelt als eine andere. In diesem Fall interessiert uns, wie KI-Modelle die Sprache bewerten, die rund um Behinderungen verwendet wird. Für viele kann die Sprache über Behinderungen negativ besetzt sein, und unser Anliegen ist, dass KI-Tools diese Voreingenommenheiten verstärken und Kommentare, die mit Behinderung zu tun haben, als negativ oder toxisch kennzeichnen.

Die Bedeutung fairer Vertretung

Etwa 15% der Weltbevölkerung hat irgendeine Form von Behinderung. Je mehr Menschen KI für Aufgaben wie die Analyse von Meinungen und Moderation von Kommentaren nutzen, desto wichtiger ist es, dass diese Modelle alle Gruppen fair behandeln. Wenn sie das nicht tun, könnte das zu unfairer Behandlung von PwD in Online-Räumen führen, was sie noch weiter marginalisieren könnte.

Datensammlung

Um Diskussionen über Behinderungen in sozialen Medien zu analysieren, haben wir Beiträge aus einer bestimmten Reddit-Community und Tweets mit den Worten „Behinderung“ oder „behindert“ gesammelt. Wir haben eine Mischung aus klinischen Begriffen, gängigen Phrasen in sozialen Diskussionen und politisch korrekten Begriffen für Menschen ohne Behinderungen untersucht. So haben wir einen Satz von Sätzen erstellt, die von KI-Modellen getestet werden konnten.

Wie KI-Modelle Text analysieren

Wir haben verschiedene KI-Tools verwendet, um Sentiment-Analysen durchzuführen und toxische Sprache zu erkennen. Das bedeutet, dass wir sehen wollten, ob das Vorhandensein von behindertenbezogenen Begriffen die Modelle dazu bringen würde, Sätze negativer zu bewerten. Die Modelle, die wir untersucht haben, sind populär und erfordern keine Programmierkenntnisse, was sie weit verbreitet zugänglich macht.

Erstellung des BITS-Korpus

Um Voreingenommenheiten in Sentiment-Analysemethoden zu identifizieren, haben wir eine neue Ressource namens Bias Identification Test in Sentiment (BITS) Korpus erstellt. Dieser enthält eine Reihe von Satzvorlagen, die mit verschiedenen Begriffen in Bezug auf Behinderungen gefüllt werden können. Indem wir dieselbe Struktur verwenden, können wir sehen, wie unterschiedliche Begriffe von den Modellen behandelt werden.

Analyse der Sentiment-Scores

Nachdem wir unsere Sätze durch mehrere KI-Tools verarbeitet haben, fanden wir heraus, dass alle signifikante Voreingenommenheit gegenüber Menschen mit Behinderungen zeigten. Zum Beispiel wurden Sätze, die Behinderungsbegriffe enthielten, oft als negativer bewertet als solche ohne diese Begriffe. Diese Erkenntnis unterstreicht, wie die Modelle trainiert werden, was zu solchen Voreingenommenheiten führt und oft den Kontext ignoriert, in dem Wörter verwendet werden.

Ergebnisse unserer Analyse

In unseren Tests haben wir festgestellt, dass die Sentiment-Scores deutlich sanken, wenn wir Sätze so änderten, dass sie behindertenbezogene Begriffe enthielten. Das zeigt eine starke negative Voreingenommenheit in den Tools. Wir haben statistische Tests verwendet, um zu bestätigen, dass diese Änderungen in den Scores nicht zufällig waren, sondern eine Reflexion von eingebauten Voreingenommenheiten.

Auswirkungen unserer Ergebnisse

Die Ergebnisse dieser Analyse haben ernsthafte Auswirkungen. Wenn Sentiment-Analysetools Gespräche über Behinderungen negativ bewerten, nur wegen der verwendeten Sprache, könnte das dazu führen, dass PwD in Online-Diskussionen unfair behandelt werden. Zum Beispiel könnte ein Kommentar über eine Behinderung als toxisch gekennzeichnet werden, einfach weil er spezifische Begriffe enthält, ohne den Gesamtzusammenhang des Kommentars zu berücksichtigen.

Bedarf an besseren Praktiken

Unsere Arbeit zeigt, dass es einen klaren Bedarf dafür gibt, dass KI-Modelle den spezifischen Kontext der Sprache berücksichtigen, insbesondere bei sensiblen Themen wie Behinderungen. Bessere Trainingspraktiken, die eine Vielfalt von Perspektiven einbeziehen, könnten helfen, Voreingenommenheiten zu reduzieren.

Zukünftige Richtungen

In Zukunft wird es wichtig sein, Methoden zu entwickeln und umzusetzen, die genauere Bewertungen von Sentiment und Toxizität ermöglichen, ohne bestehende Voreingenommenheiten zu verstärken. Das könnte die Erstellung inklusiver Trainingsdatensätze beinhalten, die die Perspektiven von PwD und anderen marginalisierten Gruppen effektiv repräsentieren.

Einschränkungen der Studie

Obwohl wir uns auf englischsprachige Modelle konzentriert haben, erkennen wir an, dass Voreingenommenheiten in anderen Sprachen und Kulturen erheblich variieren können. Wie über Behinderungen gesprochen wird, kann sich ändern, und zukünftige Forschung sollte diese Dynamiken umfassender untersuchen. Ausserdem könnten die Methoden, die wir verwendet haben, möglicherweise nicht gut auf längere Texte oder komplexere Gespräche skalieren.

Ethische Überlegungen

Wenn wir mit KI arbeiten, müssen wir die breiteren Auswirkungen unserer Ergebnisse betrachten. Voreingenommenheit in KI ist nicht nur eine technische Herausforderung; sie kann das Leben realer Menschen beeinflussen. Es ist wichtig, nicht nur zu untersuchen, wie man Voreingenommenheit erkennt, sondern auch, wie man sie effektiv mindern kann. Unser Ziel ist es, das Bewusstsein zu schärfen und einen inklusiveren Ansatz für die KI-Entwicklung zu fördern.

Fazit

Unsere Studie hebt die signifikante Voreingenommenheit hervor, die in KI-Modellen vorhanden ist, die für Sentimentanalyse und Toxizitätserkennung verwendet werden, wenn es darum geht, über Menschen mit Behinderungen zu diskutieren. Diese Voreingenommenheit kann reale Auswirkungen haben, von der Moderation von Diskussionen online bis zur Repräsentation von Individuen in sozialen Kontexten. Indem wir diese Probleme anerkennen, können wir darauf hinarbeiten, KI-Tools zu schaffen, die fair und gerecht für alle sind und sicherstellen, dass alle Stimmen gehört und geschätzt werden.

Zusammenfassung

Diese Forschung zeigt, dass KI-Tools oft Sprache über Behinderungen unfair als negativ und toxisch kennzeichnen. Indem wir diese Voreingenommenheiten identifizieren, machen wir einen wichtigen Schritt in Richtung der Schaffung fairerer KI-Systeme, die alle Individuen mit Respekt behandeln. Weiterführende Untersuchungen und bessere Praktiken sind entscheidend, um sicherzustellen, dass keine Gruppe zusätzlichen Herausforderungen in Online-Diskussionen gegenübersteht.

Originalquelle

Titel: Automated Ableism: An Exploration of Explicit Disability Biases in Sentiment and Toxicity Analysis Models

Zusammenfassung: We analyze sentiment analysis and toxicity detection models to detect the presence of explicit bias against people with disability (PWD). We employ the bias identification framework of Perturbation Sensitivity Analysis to examine conversations related to PWD on social media platforms, specifically Twitter and Reddit, in order to gain insight into how disability bias is disseminated in real-world social settings. We then create the \textit{Bias Identification Test in Sentiment} (BITS) corpus to quantify explicit disability bias in any sentiment analysis and toxicity detection models. Our study utilizes BITS to uncover significant biases in four open AIaaS (AI as a Service) sentiment analysis tools, namely TextBlob, VADER, Google Cloud Natural Language API, DistilBERT and two toxicity detection models, namely two versions of Toxic-BERT. Our findings indicate that all of these models exhibit statistically significant explicit bias against PWD.

Autoren: Pranav Narayanan Venkit, Mukund Srinath, Shomir Wilson

Letzte Aktualisierung: 2023-07-18 00:00:00

Sprache: English

Quell-URL: https://arxiv.org/abs/2307.09209

Quell-PDF: https://arxiv.org/pdf/2307.09209

Lizenz: https://creativecommons.org/licenses/by-sa/4.0/

Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.

Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.

Mehr von den Autoren

Ähnliche Artikel