KI und Gehaltsverhandlung: Ein genauerer Blick
Diese Studie untersucht die Rolle von KI bei Gehaltsverhandlungs-Tipps und möglichen Vorurteilen.
R. Stuart Geiger, Flynn O'Sullivan, Elsie Wang, Jonathan Lo
― 5 min Lesedauer
Inhaltsverzeichnis
- Warum diese Studie wichtig ist
- Der Aufstieg der KI-Modelle
- Hintergrund der Studie
- Zentrale Fragen der Studie
- Methodik
- Wie wir ChatGPT getestet haben
- Ergebnisse von Arbeitnehmer- und Arbeitgeber-Eingaben
- Geschlechterbias bei Gehaltsangeboten
- Der Einfluss des Studienfachs
- Einfluss der Universität
- Unterschiede zwischen den Modellversionen
- Fazit
- Zukünftige Richtungen
- Originalquelle
- Referenz Links
Da Künstliche Intelligenz (KI) immer verbreiteter wird, nutzen viele Leute Tools wie ChatGPT für Ratschläge zu verschiedenen Themen, darunter auch Gehaltsverhandlungen. Diese Studie untersucht, wie KI-Modelle, speziell ChatGPT, mit Ratschlägen zu Gehaltsverhandlungen umgehen und ob sie Vorurteile in Bezug auf Faktoren wie Geschlecht, Universität und Studienfach zeigen. Bei der zunehmenden Abhängigkeit von KI für wichtige Entscheidungen ist es entscheidend, ihre Stärken und Schwächen zu verstehen.
Warum diese Studie wichtig ist
Es gibt einen deutlichen Anstieg der Nutzung von KI-Modellen für arbeitsbezogene Anfragen. Viele Jobsuchende wenden sich an ChatGPT, um Hilfe bei Dingen wie Gehaltsverhandlungen zu bekommen. Die Ergebnisse dieser Verhandlungen können einen erheblichen Einfluss auf die Karriere und das finanzielle Wohlbefinden einer Person haben. Allerdings stehen die Genauigkeit und Fairness der Ratschläge, die von KI-Modellen gegeben werden, in der Kritik.
Der Aufstieg der KI-Modelle
KI-Modelle, besonders grosse Sprachmodelle (LLMs), sind populär geworden, weil sie menschenähnliche Antworten auf eine Vielzahl von Fragen generieren können. Während sie nützliche Informationen bereitstellen können, gibt es zunehmende Bedenken hinsichtlich ihrer Zuverlässigkeit und möglicher Vorurteile. Wenn ein KI-Modell zum Beispiel unterschiedliche Gehaltsratschläge basierend auf dem Geschlecht oder der Schule einer Person gibt, wirft das ethische Fragen auf.
Hintergrund der Studie
Unsere Untersuchung umfasste eine Reihe von Tests mit verschiedenen Versionen von ChatGPT, um zu sehen, wie es auf Anfragen zu Gehaltsverhandlungen reagiert. Wir haben zehntausende Eingaben gemacht, um zu überprüfen, ob die Antworten des Modells je nach Geschlecht, Universität und Studienfach unterschiedlich ausfielen.
Zentrale Fragen der Studie
Um zu verstehen, wie ChatGPT mit Ratschlägen zu Gehaltsverhandlungen umgeht, haben wir uns auf mehrere zentrale Fragen konzentriert:
- Geben verschiedene Versionen von ChatGPT genaue und konsistente Gehaltsangebote?
- Gibt es einen merklichen Unterschied in den Gehaltsangeboten, basierend auf der Stimme der Eingabe – ob vom Arbeitnehmer oder Arbeitgeber?
- Beeinflusst die Änderung des Geschlechts des Jobkandidaten die Gehaltsangebote?
- Wie beeinflussen verschiedene Studienfächer die Gehaltsempfehlungen?
- Welchen Einfluss hat die Universität auf die Gehaltsempfehlungen?
Methodik
Wir haben kontrollierte Experimente eingerichtet, in denen wir spezifische Faktoren in unseren Eingaben variierten. Wir haben vier Versionen von ChatGPT untersucht und geschaut, wie sie auf 98.800 verschiedene Eingaben reagierten. Durch systematische Veränderungen in Bezug auf Geschlecht, Universität und Studienfach wollten wir herausfinden, ob die KI signifikante Vorurteile in ihren Empfehlungen zeigt.
Wie wir ChatGPT getestet haben
Für unsere Tests haben wir zwei Haupttypen von Eingaben erstellt:
- Arbeitnehmer-Eingaben: Diese sind so formuliert, als ob der Jobkandidat um Rat fragt, wie viel er in einer Gehaltsverhandlung verlangen sollte.
- Arbeitgeber-Eingaben: Diese sind aus der Sicht des Personalverantwortlichen geschrieben, der dem Kandidaten ein Gehalt anbietet.
Ergebnisse von Arbeitnehmer- und Arbeitgeber-Eingaben
Als wir die Ergebnisse analysierten, fanden wir deutliche Muster. Die KI-Modelle tendierten dazu, höhere Gehälter anzubieten, wenn die Eingaben aus der Perspektive des Arbeitnehmers kamen, verglichen mit denen des Arbeitgebers. Dieser Unterschied wirft Fragen auf, ob diese Modelle die Dynamik realer Verhandlungen akkurat widerspiegeln.
Geschlechterbias bei Gehaltsangeboten
Als Nächstes haben wir untersucht, wie das Geschlecht die Gehaltsangebote beeinflusste. Unsere Ergebnisse zeigten, dass die KI-Modelle eine gewisse Voreingenommenheit zugunsten männlicher Kandidaten im Vergleich zu weiblichen Kandidaten zeigten. Allerdings variierte das Ausmass dieses Bias je nach Version des Modells und war nicht konsistent.
Der Einfluss des Studienfachs
Das gewählte Studienfach des Jobkandidaten beeinflusste ebenfalls die Gehaltsempfehlungen. Generell berichteten Kandidaten in technischen Bereichen wie Informatik von höheren Gehaltsangeboten, während diejenigen in den Geisteswissenschaften oft niedrigere Angebote erhielten. Diese Diskrepanz zeigte, dass die Modelle den Marktwert verschiedener Studienfächer erkannten.
Einfluss der Universität
Die Universität, die ein Kandidat besucht hat, hatte einen signifikanten Einfluss auf die Gehaltsempfehlungen. Absolventen renommierter Schulen wie Harvard und MIT wurden allgemein höher bezahlt als diejenigen von weniger bekannten Institutionen. Sogar einige fiktive oder betrügerische Universitäten erhielten im Vergleich zu bestimmten realen Universitäten höhere Gehaltsangebote.
Unterschiede zwischen den Modellversionen
Wir stellten fest, dass jede Version von ChatGPT unterschiedliche Tendenzen beim Generieren von Gehaltsangeboten hatte. Neuere Versionen tendierten dazu, insgesamt höhere Angebote zu machen, was darauf hindeutet, dass Verbesserungen im Modell die Ergebnisse seiner Empfehlungen beeinflussen könnten.
Fazit
Unsere Studie verdeutlicht die Komplexität bei der Nutzung von KI für Ratschläge zu Gehaltsverhandlungen. Während diese Modelle nützliche Einblicke geben können, haben wir bemerkenswerte Inkonsistenzen und Vorurteile entdeckt, die sich negativ auf Jobsuchende auswirken könnten. Entscheidungen, die auf KI-generierten Ratschlägen basieren, müssen mit Vorsicht getroffen werden, insbesondere wenn das Modell signifikante Unterschiede basierend auf Attributen wie Geschlecht, Studienfach und Universität aufweist.
Zukünftige Richtungen
Um voranzukommen, ist es wichtig, KI-Modelle wie ChatGPT weiterhin zu untersuchen, um sicherzustellen, dass sie faire und genaue Informationen bereitstellen. Weitere Forschung könnte untersuchen, wie KI ihre Empfehlungen verbessern und Vorurteile reduzieren kann, um ein zuverlässigeres Werkzeug für Jobsuchende überall zu werden.
Titel: Asking an AI for salary negotiation advice is a matter of concern: Controlled experimental perturbation of ChatGPT for protected and non-protected group discrimination on a contextual task with no clear ground truth answers
Zusammenfassung: We conducted controlled experimental bias audits for four versions of ChatGPT, which we asked to recommend an opening offer in salary negotiations for a new hire. We submitted 98,800 prompts to each version, systematically varying the employee's gender, university, and major, and tested prompts in voice of each side of the negotiation: the employee versus employer. We find ChatGPT as a multi-model platform is not robust and consistent enough to be trusted for such a task. We observed statistically significant salary offers when varying gender for all four models, although with smaller gaps than for other attributes tested. The largest gaps were different model versions and between the employee- vs employer-voiced prompts. We also observed substantial gaps when varying university and major, but many of the biases were not consistent across model versions. We tested for fictional and fraudulent universities and found wildly inconsistent results across cases and model versions. We make broader contributions to the AI/ML fairness literature. Our scenario and our experimental design differ from mainstream AI/ML auditing efforts in key ways. Bias audits typically test discrimination for protected classes like gender, which we contrast with testing non-protected classes of university and major. Asking for negotiation advice includes how aggressive one ought to be in a negotiation relative to known empirical salary distributions and scales, which is a deeply contextual and personalized task that has no objective ground truth to validate. These results raise concerns for the specific model versions we tested and ChatGPT as a multi-model platform in continuous development. Our epistemology does not permit us to definitively certify these models as either generally biased or unbiased on the attributes we test, but our study raises matters of concern for stakeholders to further investigate.
Autoren: R. Stuart Geiger, Flynn O'Sullivan, Elsie Wang, Jonathan Lo
Letzte Aktualisierung: 2024-10-08 00:00:00
Sprache: English
Quell-URL: https://arxiv.org/abs/2409.15567
Quell-PDF: https://arxiv.org/pdf/2409.15567
Lizenz: https://creativecommons.org/licenses/by-sa/4.0/
Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.
Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.