Voreingenommenheiten in Text-zu-Bild-Generierungsmodellen
Untersuchung der Auswirkungen von Verzerrungen bei der T2I-Bilderzeugung.
― 7 min Lesedauer
Inhaltsverzeichnis
- Das Problem mit Vorurteilen
- Bewertungsmethoden
- Ergebnisse zur Geschlechterdarstellung
- Rassische Darstellung
- Altersdarstellung
- Bewertung von Persönlichkeitsmerkmalen
- Alltagsituationen und kulturelle Darstellung
- Aufforderungserweiterung und Milderungsstrategien
- Bedenken zur Bildqualität
- Fazit
- Zukünftige Richtungen
- Originalquelle
- Referenz Links
Text-zu-Bild (T2I) Generierung ist ne neue Technologie, die Bilder basierend auf Textbeschreibungen erstellt. Dieses System kann vielen Leuten helfen, von Künstlern bis hin zu normalen Nutzern, indem es hochqualitative Bilder aus einfachen Vorgaben liefert. Allerdings verlassen sich diese Systeme auf grosse Datenmengen aus dem Internet, was schädliche Vorurteile in den Bildern, die sie erstellen, einführen kann. Dieser Artikel untersucht, wie soziale Vorurteile in Bildern erscheinen können, die von beliebten T2I-Modellen generiert werden.
Das Problem mit Vorurteilen
T2I-Modelle schöpfen aus riesigen Online-Quellen, um zu lernen, wie man Bilder erstellt. Das kann riskant sein, weil die Daten Vorurteile in Bezug auf Geschlecht, Alter, Rasse und geografische Lage enthalten können. Solche Vorurteile können zu unfairen Darstellungen in den Bildern führen, die von diesen Modellen produziert werden.
Eine Studie betrachtete zwei bekannte T2I-Modelle, DALL-E 2 und Stable Diffusion, um zu verstehen, wie Vorurteile in den generierten Bildern auftauchen. Durch die Analyse, wie Berufe, Persönlichkeitsmerkmale und alltägliche Szenarien in verschiedenen sozialen Kategorien dargestellt werden, hebt die Studie signifikante Unterschiede in den Darstellungen hervor.
Bewertungsmethoden
Um Vorurteile in diesen Modellen zu bewerten, nutzten die Forscher sowohl automatisierte Tools als auch menschliche Bewertungen. Sie schauten sich besonders an, wie Menschen unterschiedlichen Geschlechts, Alters, Rassen und geografischer Herkunft dargestellt wurden. Die Bewertungen beinhalteten grundlegende Vorgaben wie "eine Person" sowie spezifischere Beschreibungen in Bezug auf Berufe und Persönlichkeitsmerkmale.
Ergebnisse zur Geschlechterdarstellung
Die Ergebnisse zeigten, dass DALL-E 2 dazu tendiert, mehr Bilder von jungen, weissen Männern zu erstellen, während Stable Diffusion eine ausgewogenere Darstellung lieferte, aber immer noch zu weissen Frauen neigte. Das schafft eine Lücke, wie andere Geschlechter und Rassen im generierten Inhalt gezeigt werden. Zum Beispiel gab es weniger Bilder von schwarzen und asiatischen Personen, was ein signifikantes Vorurteil in der Darstellung hervorhebt.
In Berufen waren Vorurteile deutlich. Bei traditionell männlichen Berufen wie CEO gab es sehr wenige Bilder von Frauen, während weiblich dominierte Berufe wie Pflege fast komplett von Frauen dargestellt wurden. Das zeigt, dass die Modelle Stereotypen verstärken können, was beeinflusst, wie Menschen verschiedene Berufe sehen.
Rassische Darstellung
Bei der Untersuchung der rassischen Darstellung zeigten beide Modelle eine klare Vorliebe für weisse Personen und vernachlässigten oft andere ethnische Gruppen. In vielen Berufsbereichen gab es eine auffällige Abwesenheit schwarzer Personen, und andere Rassengruppen wie Latinos und Menschen aus dem Nahen Osten wurden selten dargestellt.
Diese Tendenz wirft Bedenken auf, wie diese Modelle bestehende Stereotypen über Rasse und Berufe verstärken können. Wenn ein Modell Bilder generiert, die überwiegend weisse Personen in verschiedenen Bereichen zeigen, kann das zu einem engen Bild davon beitragen, wer diese Berufe ausüben kann.
Altersdarstellung
Die Studie betrachtete auch, wie das Alter in den Bildern dargestellt wurde. DALL-E 2 hatte einen starken Fokus auf jüngere Erwachsene und vernachlässigte ältere Personen in vielen Berufsbereichen. Im Gegensatz dazu war Stable Diffusion etwas ausgewogener, zeigte aber immer noch eine Tendenz zur Bevorzugung jüngerer Altersgruppen.
Dieses Altersvorurteil kann die Wahrnehmungen von Fähigkeiten und Eignung für verschiedene Rollen beeinflussen und möglicherweise zu Altersdiskriminierung führen, wie Menschen in Medien und der Gesellschaft dargestellt werden.
Bewertung von Persönlichkeitsmerkmalen
Die Analyse erstreckte sich auch auf Persönlichkeitsmerkmale und zeigte, dass Eigenschaften, die mit Kompetenz verbunden sind, hauptsächlich mit männlichen Figuren verknüpft waren. Im Gegensatz dazu wurden warme und fürsorgliche Eigenschaften oft Frauen zugeordnet. Solche Assoziationen können negative Auswirkungen darauf haben, wie Menschen verschiedene Geschlechter in beruflichen oder persönlichen Kontexten wahrnehmen.
Die rassische Verteilung der Merkmale war ebenfalls bemerkenswert. Eigenschaften wie Ehrgeiz wurden oft mit schwarzen Personen in Verbindung gebracht, während positive Merkmale häufiger mit weissen Personen verknüpft waren. Diese Muster spiegeln Stereotypen wider, die beeinflussen können, wie verschiedene Gruppen wahrgenommen werden.
Alltagsituationen und kulturelle Darstellung
Zusätzlich zu Berufen und Merkmalen untersuchte die Studie alltägliche Szenarien. Die generierten Bilder für alltägliche Situationen wie Essen oder Events zeigten, dass Länder wie Nigeria und Äthiopien oft unterrepräsentiert waren. Im Gegensatz dazu wurden Länder wie die Vereinigten Staaten und Deutschland häufig dargestellt.
Dieser Mangel an Darstellung kann ein verzerrtes Bild davon erzeugen, wie verschiedene Kulturen wahrgenommen werden, was angesichts der globalen Natur des Internets bedeutend ist. Wenn bestimmte Länder oder Kulturen häufig in generierten Bildern fehlen, kann das zu weiteren Missverständnissen über diese Orte und deren Menschen führen.
Aufforderungserweiterung und Milderungsstrategien
Um einige dieser Vorurteile anzugehen, testeten die Forscher eine Methode namens Aufforderungserweiterung. Dieser Ansatz beinhaltete die Verwendung detaillierterer Vorgaben, wie z.B. das Spezifizieren von Geschlecht oder Rasse, um die generierten Bilder zu diversifizieren.
Obwohl diese Strategie einige Potenziale zur Verbesserung der Darstellung zeigte, schuf sie auch neue Vorurteile. Zum Beispiel waren die Ergebnisse gemischt, selbst wenn die Vorgaben so gestaltet waren, dass eine spezifische Darstellung sichergestellt werden sollte. Das zeigt, dass das einfache Hinzufügen von Details zu Vorgaben vielleicht keine effektive Lösung zur Überwindung von Vorurteilen ist.
Bedenken zur Bildqualität
Die Qualität der von T2I-Modellen produzierten Bilder ist ein weiteres wichtiges Thema. Die Studie verwendete eine Metrik namens Fréchet Inception Distance (FID), um zu bewerten, wie ähnlich generierte Bilder realen Bildern waren. Die Ergebnisse deuteten darauf hin, dass Bilder, die traditionelle Geschlechterrollen darstellten, tendenziell bessere Qualitätsbewertungen erhielten, was darauf hindeutet, dass die Modelle besser mit vertrauten Stereotypen arbeiteten.
Die Qualitätsunterschiede enthüllen ein tieferliegendes Problem, wie T2I-Systeme arbeiten und das Potenzial, Vorurteile durch die produzierten Bilder zu verstärken. Wenn Modelle niedrigere Qualitätsbilder erzeugen, wenn sie von etablierten Normen abweichen, wirft das Fragen über ihre Zuverlässigkeit und Fairness auf.
Fazit
Diese Studie beleuchtet die signifikanten Vorurteile, die in Text-zu-Bild-Generierungssystemen vorhanden sind. Während diese Technologien weiterentwickelt werden, ist es wichtig, auf die sozialen Auswirkungen der Bilder, die sie produzieren, zu achten.
Vorurteile in Bezug auf Geschlecht, Rasse, Alter und kulturelle Darstellung können Wahrnehmungen prägen und Stereotypen verstärken, was beeinflusst, wie Einzelpersonen und Gemeinschaften in der Gesellschaft gesehen werden. Während einige Milderungsstrategien, wie die Aufforderungserweiterung, vielversprechend erscheinen, zeigen sie auch die Komplexität, diese Vorurteile anzugehen.
In Zukunft ist es entscheidend, umfassendere Strategien zur Bewertung und Milderung von Vorurteilen in T2I-Modellen zu entwickeln. Indem sich Entwickler auf repräsentative Fairness konzentrieren, können sie inklusivere Systeme schaffen, die die Vielfalt der realen Welt widerspiegeln. Dieser Aufwand wird nicht nur den Nutzern zugutekommen, sondern auch eine genauere und gerechte Darstellung der Gesellschaft in Medien und Kunst fördern.
Zukünftige Richtungen
Die diskutierten Forschungen und Ergebnisse heben die Notwendigkeit einer fortlaufenden Prüfung von Vorurteilen in T2I-Generierungsmodellen hervor. Es gibt die Möglichkeit für weitere Studien, wie diese Systeme besser für Diversität, insbesondere in Bezug auf Geschlechtsidentität, Behinderungen und kulturelle Darstellung, berücksichtigt werden können.
Darüber hinaus wäre es hilfreich, reale Tests durchzuführen, um zu beobachten, wie diese Vorurteile in verschiedenen Kontexten wirken. Das Verständnis von Benutzererfahrungen und -wahrnehmungen kann helfen, die Entwicklung fairerer und repräsentativer Modelle zu informieren.
Zusammenfassend wird es entscheidend sein, Vorurteile anzugehen, während T2I-Technologie immer mehr in das tägliche Leben und in die Medien integriert wird. Indem diese Themen direkt angepackt werden, können Entwickler und Forscher eine inklusivere, repräsentativere und genauere Darstellung der Welt in den Bildern fördern, die durch diese mächtigen Werkzeuge erstellt werden.
Titel: Social Biases through the Text-to-Image Generation Lens
Zusammenfassung: Text-to-Image (T2I) generation is enabling new applications that support creators, designers, and general end users of productivity software by generating illustrative content with high photorealism starting from a given descriptive text as a prompt. Such models are however trained on massive amounts of web data, which surfaces the peril of potential harmful biases that may leak in the generation process itself. In this paper, we take a multi-dimensional approach to studying and quantifying common social biases as reflected in the generated images, by focusing on how occupations, personality traits, and everyday situations are depicted across representations of (perceived) gender, age, race, and geographical location. Through an extensive set of both automated and human evaluation experiments we present findings for two popular T2I models: DALLE-v2 and Stable Diffusion. Our results reveal that there exist severe occupational biases of neutral prompts majorly excluding groups of people from results for both models. Such biases can get mitigated by increasing the amount of specification in the prompt itself, although the prompting mitigation will not address discrepancies in image quality or other usages of the model or its representations in other scenarios. Further, we observe personality traits being associated with only a limited set of people at the intersection of race, gender, and age. Finally, an analysis of geographical location representations on everyday situations (e.g., park, food, weddings) shows that for most situations, images generated through default location-neutral prompts are closer and more similar to images generated for locations of United States and Germany.
Autoren: Ranjita Naik, Besmira Nushi
Letzte Aktualisierung: 2023-03-30 00:00:00
Sprache: English
Quell-URL: https://arxiv.org/abs/2304.06034
Quell-PDF: https://arxiv.org/pdf/2304.06034
Lizenz: https://creativecommons.org/licenses/by/4.0/
Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.
Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.
Referenz Links
- https://ctan.org/pkg/amssymb
- https://ctan.org/pkg/pifont
- https://dl.acm.org/ccs.cfm
- https://doi.org/10.48550/arxiv.2211.03759
- https://doi.org/10.48550/arxiv.1908.04913
- https://www.bls.gov/cps/cpsaat11.htm
- https://github.com/CompVis/stable-diffusion
- https://learn.microsoft.com/en-us/rest/api/computervision/3.1/analyze-image/analyze-image
- https://www.mturk.com/
- https://github.com/dchen236/FairFace
- https://doi.org/10.48550/arxiv.2103.00020
- https://doi.org/10.48550/arxiv.2202.04053,
- https://doi.org/10.48550/arxiv.2211.03759,
- https://doi.org/10.48550/arxiv.2302.03675
- https://doi.org/10.48550/arxiv.2202.04053
- https://openai.com/research/dall-e-2-pre-training-mitigations
- https://doi.org/10.48550/arxiv.2204.14217