Simple Science

Hochmoderne Wissenschaft einfach erklärt

# Computerwissenschaften# Computer und Gesellschaft

Rasse neu denken in algorithmischer Fairness

Untersuchen, wie Rasse in der Forschung zu algorithmischer Fairness definiert wird.

― 5 min Lesedauer


Rasse in Algorithmen neuRasse in Algorithmen neudefinierenalgorithmischen Forschung.rassistischen Definitionen in derKritische Untersuchung von
Inhaltsverzeichnis

In den letzten Jahren sind Diskussionen über Fairness in Algorithmen wichtig geworden, besonders wenn es darum geht, Menschen unabhängig von ihrer Rasse gleich zu behandeln. Rasse genau zu definieren, ist entscheidend, um Diskriminierung zu verhindern. Aber das ist kompliziert, denn Rasse ist nicht nur ein biologisches Merkmal, sondern auch ein gesellschaftliches Konzept, das sich im Laufe der Zeit ändern kann. Historisch gesehen hat die Regierung eine grosse Rolle bei der Definition von Rassenkategorien gespielt, durch Gesetze und offizielle Aufzeichnungen. Jetzt übernehmen aber Forscher und Technologiefirmen diese Verantwortung, während sie an Fairness in Algorithmen arbeiten.

Dieser Artikel schaut sich an, wie Forscher im Bereich algorithmischer Fairness Rasse definieren und kategorisieren, was ihre Entscheidungen beeinflusst und wie diese Entscheidungen reale Auswirkungen haben können. Durch die Analyse verschiedener Forschungspapiere wollen wir klären, wie Rasse in diesem Bereich verstanden und angewendet wird.

Die Herausforderung der Rassendefinition

Rassendefinitionen sind kein neues Problem. Seit vielen Jahren hat die Regierung offizielle Rassenklassifikationen durch Volkszählungsdaten und Gesetze bereitgestellt. Diese Klassifikationen wurden oft genutzt, um bestimmte Gruppen vor Diskriminierung zu schützen. Doch mit dem zunehmenden Einsatz von Algorithmen in Entscheidungsprozessen wird die Definition von Rasse zu einer wichtigen Frage für Forscher, die Fairness in diesen Systemen sicherstellen wollen.

In Studien zur algorithmischen Fairness gibt es immer mehr Forderungen nach einer tiefergehenden Untersuchung, wie Rasse konzipiert wird. Einige Forscher betonen die Notwendigkeit, traditionelle Ansichten über Rasse kritisch zu hinterfragen, besonders solche, die aus rechtlichen und biologischen Perspektiven stammen.

Untersuchung veröffentlichter Forschung

Um zu verstehen, wie Rasse in der Literatur zur algorithmischen Fairness behandelt wird, wurde eine detaillierte Analyse von Arbeiten durchgeführt, die zwischen 2018 und 2020 veröffentlicht wurden. Die Ergebnisse dieser Forschung zeigen, dass die Definitionen und die Verwendung von Rassenkategorien inkonsistent sind. Forscher verwenden oft unterschiedliche Kategorien, selbst innerhalb derselben Studie, was Fragen zur Zuverlässigkeit ihrer Schlussfolgerungen aufwirft.

Unter den analysierten Arbeiten definierte ein erheblicher Teil seine Rassenkategorien nicht klar. Einige Arbeiten liessen die Kategorisierung offen, was bedeutet, dass die Autoren verschiedene Rassendefinitionen in ihren Analysen verwenden konnten. Es wurden mehrere häufige Schemata zur Definition von Rasse identifiziert, aber es gab keine Einigkeit darüber, welche Kategorien verwendet werden sollten.

Muster in der Rassenkategorisierung

Wenn Forscher Rasse definierten, verwendeten sie typischerweise eine der mehreren Methoden. Die häufigste Methode war eine grundlegende binäre Unterscheidung zwischen schwarzen und weissen Personen, die oft ohne ausreichende Begründung als gegeben angesehen wurde. Andere Methoden umfassten verschiedene Formen multikultureller Klassifikationen oder Verweise auf unterschiedliche ethnische Gruppen.

Interessanterweise, obwohl es einen starken historischen Kontext zu Volkszählungsklassifikationen gibt, verlassen sich Forscher nicht unbedingt auf diese festgelegten Kategorien. Stattdessen wählten sie oft ihre eigenen Kategorien, was auf einen Mangel an Konsens darüber hinweist, wie Rasse im Kontext algorithmischer Fairness definiert werden sollte.

Die multikulturelle Perspektive

Multikulturelle Individuen waren in vielen der untersuchten Analysen bemerkenswert abwesend. Von den Arbeiten, die Rassenkategorien definierten, behandelten nur sehr wenige, wie multikulturelle Individuen behandelt werden sollten. Diese Lücke zeigt eine Vorliebe für einfachere, binäre Klassifikationen, die die Komplexität der Rassenidentität in der modernen Gesellschaft ignorieren. Das Fehlen klarer Richtlinien für multikulturelle Klassifikationen könnte die Ergebnisse von Fairnessanalysen beeinflussen, da diese Bevölkerungsgruppe wächst und sichtbarer wird.

Dimensionen der Rassenunterschiede

Die Art und Weise, wie Forscher Rassenkategorien konstruieren, zeigt unterschiedliche Auffassungen davon, was Rasse in der Gesellschaft bedeutet. Die Literatur deutet darauf hin, dass Rassenunterschiede oft durch verschiedene Linsen verstanden werden, einschliesslich rechtlicher Schutzmassnahmen, sozialem Status und Gruppenprivilegien. Diese Dimensionen spiegeln die grössere gesellschaftliche Bedeutung von Rasse wider und können beeinflussen, wie Fairness in algorithmischen Systemen wahrgenommen und umgesetzt wird.

Die Rolle institutioneller Einflüsse

Die Institutionen, in denen die Forschung zur algorithmischen Fairness stattfindet, haben ebenfalls einen erheblichen Einfluss darauf, wie Rasse kategorisiert wird. Die Hintergründe der Forscher, die Normen der akademischen Gemeinschaft und die verfügbaren Daten prägen alle die Definitionen und die Verwendung von Rassenkategorien in ihrer Arbeit. Viele Forscher scheinen durch die ihnen zur Verfügung stehenden Daten eingeschränkt zu sein, was dazu führen kann, dass sie zu simplistische oder binäre Kategorien übernehmen, die die wahre Komplexität von Rasse nicht erfassen.

Der Bedarf an Begründung

Ein besorgniserregendes Ergebnis der Forschung ist, dass viele Autoren es versäumten, Begründungen für die verwendeten Rassenkategorien zu liefern. Nur eine kleine Anzahl von Arbeiten bot Gründe für ihre gewählten Definitionen an, was Fragen zur Gründlichkeit und Verantwortlichkeit in diesem Forschungsbereich aufwirft. Wenn Begründungen gegeben wurden, drehten sie sich oft um die verwendeten Daten, technische Einschränkungen oder Verweise auf frühere Arbeiten, statt sich mit den sozialen Implikationen dieser Definitionen sinnvoll auseinanderzusetzen.

Abschliessende Gedanken

Die inkonsistente Verwendung von Rassenkategorien in der Forschung zur algorithmischen Fairness unterstreicht die Notwendigkeit, mehr Aufmerksamkeit darauf zu richten, wie Rasse konzipiert wird. Forscher sollten ihre Definitionen und die Implikationen ihrer Entscheidungen klarer kommunizieren. Die Gemeinschaft muss Transparenz und Begründungen priorisieren, um sicherzustellen, dass das Ziel der Fairness in der Praxis wirklich erreicht wird.

Um weiterzukommen, ist es wichtig, dass Forscher mehr Bewusstsein dafür schaffen, wie die Rassenklassifikation ihre Arbeit beeinflusst. Das Verständnis der zugrunde liegenden Werte und Normen, die diese Definitionen prägen, kann helfen, einen gerechteren Ansatz zur algorithmischen Fairness zu schaffen. Die heutigen Entscheidungen werden langfristige Auswirkungen darauf haben, wie Algorithmen das Leben der Menschen beeinflussen, weshalb es entscheidend ist, dieses Thema bedacht und kritisch anzugehen.

Aufruf zum Handeln

Forscher, Institutionen und die breitere Gemeinschaft müssen zusammenarbeiten, um klarere Standards für die Rassendefinition in der algorithmischen Fairness zu etablieren. Dies sollte vielfältige Perspektiven einschliessen, die die reichen Komplexitäten von Rassenidentitäten und sozialen Realitäten widerspiegeln. Nur durch solche Bemühungen können wir beginnen, die langjährigen Probleme rund um Rasse und Diskriminierung im Design und in der Implementierung von Algorithmen anzugehen.

Originalquelle

Titel: An Empirical Analysis of Racial Categories in the Algorithmic Fairness Literature

Zusammenfassung: Recent work in algorithmic fairness has highlighted the challenge of defining racial categories for the purposes of anti-discrimination. These challenges are not new but have previously fallen to the state, which enacts race through government statistics, policies, and evidentiary standards in anti-discrimination law. Drawing on the history of state race-making, we examine how longstanding questions about the nature of race and discrimination appear within the algorithmic fairness literature. Through a content analysis of 60 papers published at FAccT between 2018 and 2020, we analyze how race is conceptualized and formalized in algorithmic fairness frameworks. We note that differing notions of race are adopted inconsistently, at times even within a single analysis. We also explore the institutional influences and values associated with these choices. While we find that categories used in algorithmic fairness work often echo legal frameworks, we demonstrate that values from academic computer science play an equally important role in the construction of racial categories. Finally, we examine the reasoning behind different operationalizations of race, finding that few papers explicitly describe their choices and even fewer justify them. We argue that the construction of racial categories is a value-laden process with significant social and political consequences for the project of algorithmic fairness. The widespread lack of justification around the operationalization of race reflects institutional norms that allow these political decisions to remain obscured within the backstage of knowledge production.

Autoren: Amina A. Abdu, Irene V. Pasquetto, Abigail Z. Jacobs

Letzte Aktualisierung: 2023-09-12 00:00:00

Sprache: English

Quell-URL: https://arxiv.org/abs/2309.06607

Quell-PDF: https://arxiv.org/pdf/2309.06607

Lizenz: https://creativecommons.org/licenses/by-nc-sa/4.0/

Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.

Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.

Mehr von den Autoren

Ähnliche Artikel