Simple Science

Hochmoderne Wissenschaft einfach erklärt

# Computerwissenschaften# Computer und Gesellschaft# Künstliche Intelligenz# Rechnen und Sprache# Maschinelles Lernen

Bias in der KI-Rekrutierung: Ein näherer Blick

Untersuchen, wie KI-Tools Vorurteile bei der Lebenslaufauswahl verstärken können.

― 5 min Lesedauer


KI-Vorurteile bei derKI-Vorurteile bei derEinstellungder Lebenslaufauswahl.KI-Tools zeigen klare Vorurteile bei
Inhaltsverzeichnis

Künstliche Intelligenz (KI) wird immer häufiger im Einstellungsprozess eingesetzt, besonders um Lebensläufe zu sichten. Viele Firmen nutzen KI-Tools, um die Qualität und Geschwindigkeit der Rekrutierung zu verbessern. Allerdings können diese Tools auch Vorurteile aufdecken, vor allem gegen marginalisierte Gruppen. In diesem Artikel wird betrachtet, wie KI, insbesondere Sprachmodelle, Vorurteile bei der Lebenslauf-Sichtung basierend auf Rasse und Geschlecht einführen kann.

Vorurteile in KI-Einstellungs-Tools

KI-Tools im Einstellungsprozess können helfen, menschliche Vorurteile zu reduzieren. Zum Beispiel können sie so gestaltet werden, dass bestimmte Aspekte des Hintergrunds eines Bewerbers ignoriert werden. Studien haben jedoch gezeigt, dass viele KI-Tools immer noch voreingenommene Ergebnisse liefern, was zu unfairen Nachteilen für bestimmte Gruppen führen kann. Zum Beispiel musste Amazon ein KI-Tool zur Lebenslauf-Sichtung aufgeben, nachdem festgestellt wurde, dass es gegen Frauen voreingenommen war.

Sprachmodelle verstehen

Sprachmodelle sind KI-Systeme, die auf riesigen Mengen von Textdaten trainiert wurden. Sie können viele Aufgaben erledigen, darunter Texte generieren und Lebensläufe sichten. Diese Modelle können jedoch Vorurteile aus ihren Trainingsdaten übernehmen. Wenn die Daten Vorurteile in Bezug auf Rasse, Geschlecht oder andere Merkmale enthalten, spiegelt das Modell diese Vorurteile möglicherweise auch in seinen Ausgaben wider.

Forschungsfokus

Diese Forschung konzentriert sich auf die Verwendung von Sprachmodellen bei der Lebenslauf-Sichtung. Ziel ist es, zu untersuchen, ob diese Modelle gegen bestimmte Gruppen basierend auf Rasse und Geschlecht voreingenommen sind. Die Studie nutzt einen Rahmen, der simuliert, wie Kandidaten für Jobpositionen ausgewählt werden. Genauer gesagt wird die Sichtung von Lebensläufen für verschiedene Jobtypen anhand öffentlich verfügbarer Proben analysiert.

Forschungsfragen

  1. Wählen Sprachmodelle Lebensläufe unterschiedlich basierend auf der Rasse oder dem Geschlecht des Kandidaten aus?
  2. Gibt es Unterschiede, wenn man intersektionale Identitäten vergleicht (z. B. schwarze Frauen versus weisse Frauen)?
  3. Wie beeinflussen Merkmale wie Lebenslauf-Länge und Häufigkeit des Namens diese Ergebnisse?

Methodologie

Um diese Fragen zu bewerten, nutzt die Studie eine Sammlung von Lebensläufen und Stellenbeschreibungen aus neun verschiedenen Jobkategorien. Sie untersucht über 500 Lebensläufe und Stellenbeschreibungen, um zu sehen, wie Sprachmodelle bei der Lebenslauf-Sichtung abschneiden. Der Fokus liegt darauf, etwaige Vorurteile im Auswahlprozess basierend auf Namen, die mit verschiedenen Rassen und Geschlechtern verbunden sind, zu identifizieren.

Der Lebenslauf-Sichtungsprozess

Die Forschung behandelt die Lebenslauf-Sichtung als eine Dokumentenfinderaufgabe. In diesem Kontext hat das Modell die Aufgabe, die relevantesten Lebensläufe für bestimmte Stellenbeschreibungen zu finden. Die Lebensläufe werden mit Namen ergänzt, die unterschiedliche Rassen- und Geschlechtsidentitäten nahelegen. Zum Beispiel werden Namen, die typischerweise mit weissen, schwarzen, männlichen oder weiblichen Identitäten assoziiert werden, einbezogen.

Überblick der Ergebnisse

Die Analyse zeigt klare Vorurteile bei der Lebenslauf-Sichtung. Lebensläufe mit Namen, die mit weissen Identitäten verbunden sind, werden in einer signifikanten Anzahl von Fällen bevorzugt. Im Gegensatz dazu erfahren Lebensläufe mit Namen, die mit schwarzen Identitäten verbunden sind, Diskriminierung. Ähnliche Trends zeigen sich auch beim Geschlecht, wobei männlich assoziierte Namen ebenfalls eine bevorzugte Behandlung erhalten.

Detaillierte Ergebnisse

Rassistische Vorurteile bei der Lebenslauf-Sichtung

Die Forschung zeigt, dass Lebensläufe mit weissen Namen in etwa 85 % der Fälle bevorzugt werden, während solche mit schwarzen Namen nur in etwa 8,6 % der Fälle favorisiert werden. Das deutet auf ein starkes Vorurteil zugunsten von Kandidaten hin, deren Namen darauf hindeuten, dass sie weiss sind.

Geschlechtervorurteile bei der Lebenslauf-Sichtung

Bei der Untersuchung des Geschlechts werden Lebensläufe mit männlich assoziierten Namen in fast 52 % der Tests bevorzugt. Lebenslauf-Namen, die weiblich assoziiert sind, erhalten hingegen nur in etwa 11 % der Fälle eine Bevorzugung. Das zeigt eine klare Präferenz für männliche Kandidaten, was auf anhaltende Geschlechtervorurteile im Einstellungsprozess hinweist.

Intersektionale Vorurteile

Die Studie betrachtet auch, wie Rasse und Geschlecht zusammenwirken. Sie stellt fest, dass schwarze Männer die grössten Nachteile bei der Lebenslauf-Sichtung erfahren. Lebensläufe mit Namen, die typisch für schwarze Männer sind, werden selten gegenüber anderen Gruppen bevorzugt. Das deutet darauf hin, dass intersektionale Identitäten Nachteile in Einstellungs-Szenarien verstärken können.

Einfluss von Lebenslaufmerkmalen

Bestimmte Merkmale von Lebensläufen beeinflussen ebenfalls die Auswahlwahrscheinlichkeit. Kürzere Lebensläufe oder solche mit Namen in unterschiedlichen Frequenzen können zu voreingenommeneren Ergebnissen führen. Zum Beispiel könnte ein kürzerer Lebenslauf eher zu voreingenommenen Auswahlentscheidungen gegen bestimmte Gruppen führen.

Auswirkungen auf die reale Welt

Verständnis von Vorurteilsmustern

Die Ergebnisse heben Vorurteilsmuster hervor, die breitere gesellschaftliche Probleme widerspiegeln. Die in den Ausgaben der Sprachmodelle zu sehenden Vorurteile spiegeln die Diskriminierung wider, die in realen Einstellungspraktiken vorhanden ist. Das wirft wichtige Fragen darüber auf, wie man Fairness in KI-gesteuerten Rekrutierungsprozessen sicherstellen kann.

Strategien zur Minderung

Um diese Vorurteile anzugehen, ist es wichtig, Strategien umzusetzen, die ihre Auswirkungen minimieren. Mögliche Ansätze sind:

  • Regelmässige Überprüfung von KI-Tools, um Vorurteile zu identifizieren und zu beheben.
  • Modelle ausserhalb von voreingenommenen Datenkontexten trainieren.
  • Designstrategien implementieren, die den Fokus auf Namen und andere Identitätsmerkmale reduzieren.

Diese Strategien können Unternehmen helfen, die Fairness von KI-Einstellungs-Tools zu verbessern und die negativen Auswirkungen von Vorurteilen zu mildern.

Fazit

Die Studie zeigt signifikante Vorurteile bei der Verwendung von Sprachmodellen zur Lebenslauf-Sichtung auf. Lebensläufe, die mit weissen und männlichen Identitäten verbunden sind, schneiden besser ab, während solche, die mit schwarzen und weiblichen Kandidaten verknüpft sind, Diskriminierung erfahren. Das Verständnis und die Bekämpfung dieser Vorurteile sind entscheidend, um Fairness in Einstellungspraktiken zu fördern. Fortlaufende Bemühungen, KI-Systeme zu überprüfen und zu verbessern, können zu gerechterer Behandlung aller Kandidaten im Rekrutierungsprozess beitragen.

Originalquelle

Titel: Gender, Race, and Intersectional Bias in Resume Screening via Language Model Retrieval

Zusammenfassung: Artificial intelligence (AI) hiring tools have revolutionized resume screening, and large language models (LLMs) have the potential to do the same. However, given the biases which are embedded within LLMs, it is unclear whether they can be used in this scenario without disadvantaging groups based on their protected attributes. In this work, we investigate the possibilities of using LLMs in a resume screening setting via a document retrieval framework that simulates job candidate selection. Using that framework, we then perform a resume audit study to determine whether a selection of Massive Text Embedding (MTE) models are biased in resume screening scenarios. We simulate this for nine occupations, using a collection of over 500 publicly available resumes and 500 job descriptions. We find that the MTEs are biased, significantly favoring White-associated names in 85.1\% of cases and female-associated names in only 11.1\% of cases, with a minority of cases showing no statistically significant differences. Further analyses show that Black males are disadvantaged in up to 100\% of cases, replicating real-world patterns of bias in employment settings, and validate three hypotheses of intersectionality. We also find an impact of document length as well as the corpus frequency of names in the selection of resumes. These findings have implications for widely used AI tools that are automating employment, fairness, and tech policy.

Autoren: Kyra Wilson, Aylin Caliskan

Letzte Aktualisierung: 2024-08-20 00:00:00

Sprache: English

Quell-URL: https://arxiv.org/abs/2407.20371

Quell-PDF: https://arxiv.org/pdf/2407.20371

Lizenz: https://creativecommons.org/licenses/by-nc-sa/4.0/

Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.

Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.

Mehr von den Autoren

Ähnliche Artikel