Sprachliche Vorurteile in grossen Sprachmodellen
Untersuchen, wie Sprache die Geschlechteransichten durch Vorurteile in KI-Modellen beeinflusst.
― 4 min Lesedauer
Inhaltsverzeichnis
- Die Rolle des grammatischen Geschlechts
- Untersuchung von Vorurteilen in LLMs
- Assoziationen zwischen Adjektiven und Substantiven
- Vorhersage des Geschlechts aus Adjektiven
- Vergleich von Vorurteilen über Sprachen hinweg
- Übertragbarkeit zwischen Sprachen
- Auswirkungen der Ergebnisse
- Fazit
- Zukünftige Richtungen
- Danksagungen
- Originalquelle
- Referenz Links
Sprache und wie wir denken hängen zusammen. Dieser Artikel schaut sich an, wie unsere Sprache unsere Ansichten formt, besonders durch Geschlechter. Wir konzentrieren uns auf Grosse Sprachmodelle (LLMs), das sind Computerprogramme, die menschenähnliche Texte generieren können. Indem wir diese Modelle studieren, können wir über Vorurteile in unserer Sprache lernen.
Die Rolle des grammatischen Geschlechts
Grammatisches Geschlecht bedeutet, dass in manchen Sprachen Substantive entweder als männlich oder weiblich eingestuft werden. Das beeinflusst, wie Menschen Objekte beschreiben. Zum Beispiel ist im Spanischen das Wort für "Brücke" männlich, und Leute verwenden starke Adjektive wie "stark" oder "robust." Im Deutschen ist dasselbe Wort weiblich, was zu Beschreibungen wie "elegant" oder "schön" führt. Das zeigt, wie Sprache Gedanken und Beschreibungen beeinflusst.
Untersuchung von Vorurteilen in LLMs
Wir untersuchen, wie sich Vorurteile in LLMs zeigen, wenn es um die Beschreibung von geschlechtsspezifischen Substantiven geht. LLMs können Adjektive für Substantive in verschiedenen Sprachen mit grammatischem Geschlecht generieren. Wir nutzen diese Adjektive, um zu sehen, ob sie konsistente Muster von Vorurteilen aufdecken. Indem wir ein Computerprogramm trainieren, das Geschlecht basierend auf den Adjektiven klassifiziert, stellen wir fest, dass LLMs ähnliche Vorurteile in verschiedenen Sprachen zeigen.
Assoziationen zwischen Adjektiven und Substantiven
Wir haben Daten über Substantive und deren Geschlechter aus verschiedenen Sprachen gesammelt. Für jedes Substantiv haben wir das LLM aufgefordert, eine Liste von Adjektiven zu generieren. Durch die Analyse dieser Daten können wir sehen, welche Adjektive häufig für männliche oder weibliche Substantive verwendet werden. Das hilft uns zu verstehen, wie das Modell bestimmte Adjektive mit Geschlecht assoziiert.
Vorhersage des Geschlechts aus Adjektiven
Um zu sehen, ob Adjektive das Geschlecht von Substantiven vorhersagen können, haben wir einen binären Klassifikator erstellt. Dieses Programm nutzt die Häufigkeit von Adjektiven, um das wahrscheinliche Geschlecht eines Substantivs zu bestimmen. Bei Tests zeigt der Klassifikator eine konsistente Vorhersagefähigkeit über verschiedene Sprachen hinweg, was auf ein Muster in den verwendeten Adjektiven hinweist.
Vergleich von Vorurteilen über Sprachen hinweg
Als Nächstes schauen wir, ob Adjektive, die für männliche und weibliche Substantive verwendet werden, in verschiedenen Sprachen ähnlich sind. Indem wir einen Ähnlichkeitswert berechnen, können wir vergleichen, wie verschiedene Sprachen Adjektive geschlechtsspezifischen Substantiven zuordnen. Wir stellen fest, dass romanische Sprachen eine hohe Ähnlichkeit aufweisen, während Griechisch, Hindi und Lettisch niedrigere Werte zeigen. Das deutet darauf hin, dass die Adjektive zwar unterschiedlich sein können, aber trotzdem ähnliche Vorurteile widerspiegeln.
Übertragbarkeit zwischen Sprachen
Wir wollten herausfinden, ob ein auf einer Sprache trainierter Klassifikator das Geschlecht von Substantiven in einer anderen Sprache vorhersagen kann. Durch das Training auf mehreren Sprachen kann unser Klassifikator erfolgreich das Geschlecht von Substantiven in einer neuen Sprache vorhersagen. Das deutet darauf hin, dass die gelernten Vorurteile über Sprachen hinweg übertragbar sind, auch wenn die Adjektive selbst unterschiedlich sind.
Auswirkungen der Ergebnisse
Diese Ergebnisse sind wichtig, da sie zeigen, wie LLMs menschliche Vorurteile in der Sprache widerspiegeln. Wenn diese Modelle für Aufgaben wie Übersetzungen oder das Generieren von Texten über Menschen verwendet werden, können sie diese Vorurteile übertragen. Das könnte dazu führen, dass Menschen missverständlich beschrieben werden oder Stereotypen unabsichtlich verstärkt werden.
Fazit
In dieser Studie haben wir gezeigt, dass LLMs konsistente Vorurteile aufdecken, wenn sie Adjektive mit geschlechtsspezifischen Substantiven assoziieren. Trotz der Unterschiede in der Sprache bleiben die zugrunde liegenden Vorurteile ähnlich. Unsere Ergebnisse weisen auf die Notwendigkeit weiterer Studien hin, um zu erkunden, wie diese Vorurteile in LLMs mit menschlicher Kognition verbunden sind. Das Verständnis dieser Assoziationen kann helfen, wie wir Technologie in Sprachaufgaben nutzen und Fairness in der Darstellung sicherstellen.
Zukünftige Richtungen
Weitere Forschung sollte sich grössere Modelle und andere Sprachen anschauen, um zu sehen, ob ähnliche Muster bestehen bleiben. Es besteht auch Bedarf, zu untersuchen, wie spezialisierte Sprachmodelle sich anders verhalten könnten. Letztendlich können die Erkenntnisse aus diesen Studien zu Diskussionen über den ethischen Einsatz von Sprachmodellen in der Gesellschaft beitragen.
Danksagungen
Diese Arbeit wurde von verschiedenen Organisationen unterstützt, die sich auf künstliche Intelligenz konzentrieren. Die Ergebnisse haben bedeutende Auswirkungen auf das Verständnis der Schnittstelle zwischen Sprache, Kognition und Technologie.
Titel: What an Elegant Bridge: Multilingual LLMs are Biased Similarly in Different Languages
Zusammenfassung: This paper investigates biases of Large Language Models (LLMs) through the lens of grammatical gender. Drawing inspiration from seminal works in psycholinguistics, particularly the study of gender's influence on language perception, we leverage multilingual LLMs to revisit and expand upon the foundational experiments of Boroditsky (2003). Employing LLMs as a novel method for examining psycholinguistic biases related to grammatical gender, we prompt a model to describe nouns with adjectives in various languages, focusing specifically on languages with grammatical gender. In particular, we look at adjective co-occurrences across gender and languages, and train a binary classifier to predict grammatical gender given adjectives an LLM uses to describe a noun. Surprisingly, we find that a simple classifier can not only predict noun gender above chance but also exhibit cross-language transferability. We show that while LLMs may describe words differently in different languages, they are biased similarly.
Autoren: Viktor Mihaylov, Aleksandar Shtedritski
Letzte Aktualisierung: 2024-07-12 00:00:00
Sprache: English
Quell-URL: https://arxiv.org/abs/2407.09704
Quell-PDF: https://arxiv.org/pdf/2407.09704
Lizenz: https://creativecommons.org/licenses/by/4.0/
Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.
Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.
Referenz Links
- https://translate.google.com/
- https://frequencylists.blogspot.com/2016/01/the-2980-most-frequently-used-german.html
- https://frequencylists.blogspot.com/2015/12/the-2000-most-frequently-used-spanish.html
- https://en.wiktionary.org/wiki/Category:Bulgarian_nouns_by_gender
- https://en.wiktionary.org/wiki/Category:Greek_nouns_by_gender
- https://en.wiktionary.org/wiki/Category:Czech_nouns_by_gender
- https://en.wiktionary.org/wiki/Category:French_nouns_by_gender
- https://en.wiktionary.org/wiki/Category:Hindi_nouns_by_gender
- https://en.wiktionary.org/wiki/Category:Italian_nouns_by_gender
- https://en.wiktionary.org/wiki/Category:Latvian_nouns_by_gender
- https://en.wiktionary.org/wiki/Category:Portuguese_nouns_by_gender