IA et Négociation de Salaire : Un Regard de Plus Près
Cette étude examine le rôle de l'IA dans les conseils de négociation salariale et les biais potentiels.
― 6 min lire
Table des matières
Avec l'essor de l'intelligence artificielle (IA), de plus en plus de gens utilisent des outils comme ChatGPT pour des conseils sur divers sujets, y compris les négociations salariales. Cette étude examine comment les modèles d'IA, notamment ChatGPT, gèrent les conseils sur les négociations de salaire et s'ils montrent des biais selon des facteurs comme le Genre, l'université et la filière. Avec la dépendance croissante à l'IA pour des décisions importantes, il est crucial de comprendre ses forces et ses faiblesses.
Pourquoi cette étude est importante
On a remarqué une augmentation de l'utilisation des modèles d'IA pour des questions liées à l’emploi. Beaucoup de chercheurs d'emploi se tournent vers ChatGPT pour obtenir de l'aide pour des choses comme les négociations salariales. Les résultats de ces négociations peuvent avoir un impact significatif sur la carrière et le bien-être financier d'une personne. Cependant, l'exactitude et l'équité des conseils donnés par les modèles d'IA sont scrutées de près.
L'essor des modèles d'IA
Les modèles d'IA, en particulier les grands modèles de langage (LLM), sont devenus populaires car ils peuvent générer des réponses semblables à celles d'un humain à une grande variété de questions. Bien qu'ils puissent fournir des informations utiles, des inquiétudes croissantes existent concernant leur fiabilité et les biais potentiels. Par exemple, si un modèle d'IA donne des conseils salariaux différents selon le genre ou l'école d'une personne, cela soulève des questions éthiques.
Contexte de l'étude
Notre enquête a consisté à réaliser une série de tests en utilisant différentes versions de ChatGPT pour voir comment il répondait aux questions de négociation salariale. Nous avons soumis des dizaines de milliers de requêtes pour vérifier si les réponses du modèle variaient en fonction du genre de l'individu, de l'université dont il est diplômé, et de sa filière choisie.
Questions clés de l'étude
Pour comprendre comment ChatGPT gère les conseils sur la négociation salariale, nous nous sommes concentrés sur plusieurs questions clés :
- Les différentes versions de ChatGPT donnent-elles des offres salariales exactes et cohérentes ?
- Y a-t-il une différence notable dans les offres salariales selon la voix de la requête - que ce soit de l'employé ou de l'employeur ?
- Est-ce que changer le genre du candidat affecte les offres salariales ?
- Quel impact ont les différentes filières sur les recommandations salariales ?
- Quelle influence a l'université sur les recommandations salariales ?
Méthodologie
Nous avons mis en place des expériences contrôlées où nous avons varié des facteurs spécifiques dans nos requêtes. Nous avons examiné quatre versions de ChatGPT et observé comment elles répondaient à 98 800 requêtes différentes. En modifiant systématiquement des aspects comme le genre, l'université et la filière, nous visons à voir si l'IA montrait des biais significatifs dans ses recommandations.
Comment nous avons testé ChatGPT
Pour nos tests, nous avons créé deux types principaux de requêtes :
- Requêtes d'employés : Celles-ci sont rédigées comme si le candidat demandait des conseils sur combien demander lors d'une négociation salariale.
- Requêtes d'employeurs : Celles-ci sont rédigées du point de vue du responsable du recrutement proposant un salaire au candidat.
Résultats des requêtes d'employés et d'employeurs
En analysant les résultats, nous avons trouvé des schémas distincts. Les modèles d'IA avaient tendance à offrir des salaires plus élevés quand les requêtes provenaient de la perspective de l'employé par rapport à celle de l'employeur. Cette différence soulève des questions sur la fiabilité des modèles en ce qui concerne la dynamique réelle des négociations.
Biais de genre dans les offres salariales
Ensuite, nous avons examiné comment le genre affectait les offres salariales. Nos résultats indiquaient que les modèles d'IA montraient un certain biais en faveur des candidats masculins par rapport aux candidates féminines. Cependant, l'ampleur de ce biais variait selon les différentes versions du modèle et n'était pas cohérente.
L'impact de la filière
La filière choisie par le candidat influençait également les recommandations salariales. En général, les candidats dans des domaines techniques comme l'informatique recevaient des offres salariales plus élevées, tandis que ceux dans des domaines des sciences humaines obtenaient souvent des offres plus basses. Cette disparité montrait que les modèles reconnaissaient la valeur marchande des différentes filières.
Influence de l'université
L'université fréquentée par un candidat avait un impact significatif sur les recommandations salariales. Les diplômés d'écoles prestigieuses comme Harvard et MIT se voyaient généralement proposer des salaires plus élevés comparativement à ceux d'institutions moins connues. Même certaines Universités fictives ou frauduleuses recevaient des offres salariales plus élevées par rapport à certaines vraies universités.
Différences entre les versions du modèle
Nous avons constaté que chaque version de ChatGPT avait des tendances différentes en matière de génération d'offres salariales. Les versions plus récentes avaient tendance à donner des offres plus élevées dans l'ensemble, suggérant que les améliorations du modèle pourraient affecter les résultats de ses recommandations.
Conclusion
Notre étude met en évidence les complexités liées à l'utilisation de l'IA pour les conseils en matière de négociation salariale. Bien que ces modèles puissent fournir des informations utiles, nous avons découvert des incohérences et des biais notables qui pourraient nuire aux chercheurs d'emploi. Les décisions prises sur la base des conseils générés par l'IA doivent être abordées avec prudence, surtout lorsque le modèle montre une variance significative selon des attributs comme le genre, la filière et l'université.
Directions futures
Pour l'avenir, il est essentiel de continuer à examiner les modèles d'IA comme ChatGPT pour s'assurer qu'ils fournissent des informations justes et précises. Des recherches supplémentaires pourraient explorer comment l'IA peut améliorer ses recommandations et réduire les biais, en faisant d'elle un outil plus fiable pour les chercheurs d'emploi partout.
Titre: Asking an AI for salary negotiation advice is a matter of concern: Controlled experimental perturbation of ChatGPT for protected and non-protected group discrimination on a contextual task with no clear ground truth answers
Résumé: We conducted controlled experimental bias audits for four versions of ChatGPT, which we asked to recommend an opening offer in salary negotiations for a new hire. We submitted 98,800 prompts to each version, systematically varying the employee's gender, university, and major, and tested prompts in voice of each side of the negotiation: the employee versus employer. We find ChatGPT as a multi-model platform is not robust and consistent enough to be trusted for such a task. We observed statistically significant salary offers when varying gender for all four models, although with smaller gaps than for other attributes tested. The largest gaps were different model versions and between the employee- vs employer-voiced prompts. We also observed substantial gaps when varying university and major, but many of the biases were not consistent across model versions. We tested for fictional and fraudulent universities and found wildly inconsistent results across cases and model versions. We make broader contributions to the AI/ML fairness literature. Our scenario and our experimental design differ from mainstream AI/ML auditing efforts in key ways. Bias audits typically test discrimination for protected classes like gender, which we contrast with testing non-protected classes of university and major. Asking for negotiation advice includes how aggressive one ought to be in a negotiation relative to known empirical salary distributions and scales, which is a deeply contextual and personalized task that has no objective ground truth to validate. These results raise concerns for the specific model versions we tested and ChatGPT as a multi-model platform in continuous development. Our epistemology does not permit us to definitively certify these models as either generally biased or unbiased on the attributes we test, but our study raises matters of concern for stakeholders to further investigate.
Auteurs: R. Stuart Geiger, Flynn O'Sullivan, Elsie Wang, Jonathan Lo
Dernière mise à jour: 2024-10-08 00:00:00
Langue: English
Source URL: https://arxiv.org/abs/2409.15567
Source PDF: https://arxiv.org/pdf/2409.15567
Licence: https://creativecommons.org/licenses/by-sa/4.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.