L'impact social de l'IA générative
Une étude montre que l'IA affecte l'équité, la confiance et la coopération dans les interactions sociales.
― 8 min lire
Table des matières
L'intelligence artificielle (IA) générative change la façon dont les gens se connectent et communiquent. Même si elle peut prendre beaucoup de décisions rapidement, on ne sait pas trop comment les gens réagissent à l'IA dans des situations sociales. C'est surtout important quand les décisions prises par l'IA peuvent affecter les autres.
Dans cette étude, on a fait une expérience en ligne avec plus de 3 500 participants pour voir comment l'utilisation de l'IA influence l'Équité, la Confiance, la Coopération et d'autres comportements sociaux dans des jeux où les résultats comptent. On a découvert que quand les gens interagissent avec d'autres en utilisant l'IA, ils ont tendance à être moins justes et moins coopératifs. Fait intéressant, quand les gens ne savent pas s'ils interagissent avec une IA ou un humain, les effets négatifs semblent disparaître. Notre étude suggère qu'être transparent sur l'utilisation de l'IA pourrait aggraver les choses plutôt que les améliorer.
Introduction
L'équité, la confiance, la coopération et la coordination sont essentielles à une société qui fonctionne bien. Ces qualités aident les groupes à travailler ensemble efficacement et à maintenir les normes sociales. Les récentes avancées en IA générative soulèvent des questions sur la façon dont ces outils pourraient changer les interactions quotidiennes. Bien que beaucoup de gens utilisent l'IA, on sait encore peu de choses sur son impact sur le comportement social.
Cette recherche se concentre sur la réaction des gens face à l'utilisation de l'IA dans leurs interactions. Contrairement aux études précédentes qui examinaient le comportement de l'IA, on a étudié les réponses humaines. Plusieurs questions importantes se posent : Que se passe-t-il pour le bien-être quand l'IA est utilisée ? Quand les gens sont-ils prêts à laisser l'IA prendre des décisions pour eux ? Comment la transparence concernant les décisions de l'IA affecte-t-elle ces interactions ? La Personnalisation de l'IA influence-t-elle les réactions des gens ?
On a voulu explorer ces questions à travers une grande expérience en ligne. Les participants ont joué à cinq jeux économiques différents, prenant des décisions directement avec d'autres joueurs ou avec le soutien de l'IA. On voulait voir comment ces interactions affectaient l'équité, la coopération et le bien-être global.
L'expérience
Participants et méthodologie
Dans notre expérience, 2 905 personnes ont participé. Elles variaient en âge, genre et éducation. Chaque participant a joué une série de jeux économiques soit avec l'IA soit avec un autre humain. Pour certains jeux, les décisions étaient prises avec l'aide de ChatGPT, un modèle d'IA qui génère du texte basé sur les entrées des utilisateurs.
Les participants ont reçu les mêmes instructions, qu'ils travaillent avec l'IA ou une autre personne. Les jeux comprenaient le jeu de l'ultimatum, le jeu de la confiance, le dilemme du prisonnier, la chasse au cerf et le jeu de coordination. Chaque jeu avait des règles spécifiques qui affectaient comment les joueurs prenaient des décisions et les gains qu'ils recevaient.
Traitements
L'expérience a été conçue avec six conditions de traitement différentes, qui variaient selon que les participants savaient s'ils interagissaient avec l'IA ou non, et si les décisions de l'IA pouvaient être personnalisées ou non.
- Transparente Aléatoire Non-Personnalisée : L'IA prenait des décisions aléatoires pour certains joueurs.
- Transparente Aléatoire Personnalisée : Les joueurs pouvaient personnaliser les décisions de l'IA selon leurs préférences.
- Transparente Délégation Non-Personnalisée : Les joueurs décidaient s'ils laissaient l'IA prendre le relais, avec résultats connus.
- Transparente Délégation Personnalisée : Semblable à ci-dessus, mais les joueurs pouvaient personnaliser les décisions de l'IA.
- Opaque Délégation Non-Personnalisée : Les joueurs ne savaient pas si c'était l'IA ou un humain qui prenait des décisions pour eux.
- Opaque Délégation Personnalisée : Semblable à ci-dessus avec des décisions personnalisées de l'IA.
En comparant ces conditions, on visait à comprendre comment la présence de l'IA affectait la prise de décision dans des situations sociales.
Résultats
Nos résultats révèlent une tendance claire : interagir avec l'IA conduit généralement à un comportement moins juste et coopératif des participants dans tous les jeux. Dans les situations où les joueurs ne pouvaient pas dire s'ils jouaient contre l'IA ou un humain, les impacts négatifs sur le bien-être n'existaient pas. Cela suggère que l'incertitude sur l'implication de l'IA peut mener à des interactions sociales plus favorables.
Résultats clés
Diminution du bien-être : Les participants faisaient des choix moins bons en termes de bien-être en interagissant avec l'IA. Leurs décisions reflétaient des niveaux de confiance et de coopération plus bas, conduisant à des résultats globalement pires comparés aux interactions humaines.
Modèles de délégation : Quand les participants pouvaient choisir de déléguer des décisions à l'IA, ils le faisaient plus souvent dans des situations opaques que dans des situations transparentes. Cela soulève des inquiétudes sur le fait que les gens pourraient vouloir éviter de prendre des responsabilités pour leurs décisions, surtout quand ils pensent que l'IA pourrait prendre le relais.
Effets de personnalisation : Permettre aux participants de personnaliser l'IA n'a pas atténué les impacts négatifs sur le bien-être. La personnalisation des choix de l'IA ne semblait pas influencer les réactions des gens, ce qui suggère que simplement savoir que l'IA est personnalisée ne mène pas à de meilleures interactions sociales.
Confiance globale dans l'IA : Les participants exprimaient des doutes sur l'équité de l'IA et sa capacité à coopérer. Cette méfiance affectait comment ils interagissaient, menant à des niveaux de coopération plus bas dans les jeux.
Détection des décisions de l'IA : Les évaluateurs humains avaient généralement du mal à distinguer entre les décisions prises par l'IA et celles prises par des humains, surtout quand aucune justification n'était donnée. Cela indique que le processus de prise de décision de l'IA est devenu assez sophistiqué pour imiter le comportement humain de manière convaincante.
Discussion
Implications pour les interactions sociales
Les résultats soulignent des considérations importantes sur la façon dont l'IA est intégrée dans la vie quotidienne. À mesure que l'IA prend de plus en plus de rôles dans la prise de décision, surtout dans des contextes sociaux, le potentiel d'impacts négatifs sur la confiance et la coopération devient une préoccupation majeure.
Notre recherche indique également qu'augmenter la transparence sur le rôle de l'IA pourrait ne pas être la meilleure approche. Bien que l'intention soit de réduire les risques associés à l'IA, nos résultats suggèrent que savoir quand l'IA est impliquée peut amener les gens à se comporter de manière plus égoïste. Cela indique qu'il est nécessaire de réfléchir soigneusement à la façon dont la transparence de l'IA est présentée dans la société.
Recommandations
Prudence dans la délégation des décisions : Alors que les gens s'appuient de plus en plus sur l'IA, la tendance à déléguer la prise de décision à ces systèmes pourrait affaiblir les normes sociales qui favorisent la coopération et la confiance. Il est essentiel de considérer comment cette délégation affecte la dynamique de groupe.
Besoin de bâtir la confiance : Construire la confiance dans les systèmes d'IA est crucial. À mesure que les gens deviennent plus familiers avec l'IA, comprendre comment l'utiliser de manière responsable tout en maintenant des connexions sociales deviendra plus important.
Éducation pour les utilisateurs : Les gens devraient être éduqués sur les conséquences potentielles de l'utilisation de l'IA dans des situations sociales. Comprendre que l'IA peut impacter le bien-être et le comportement social pourrait aider les utilisateurs à faire des choix plus éclairés.
Affiner la personnalisation : Bien que la personnalisation de l'IA ne semble pas restaurer le bien-être, de futures recherches devraient se concentrer sur la façon dont ces fonctionnalités peuvent être améliorées pour améliorer l'expérience globale.
Explorer l'éthique de l'utilisation de l'IA : À mesure que l'IA devient plus intégrée dans la vie quotidienne, les considérations éthiques doivent être au centre des discussions autour de son utilisation, en particulier dans des contextes sociaux.
Conclusion
L'étude montre que l'intégration de l'IA générative dans les interactions sociales peut avoir des effets négatifs significatifs sur le bien-être, l'équité et la coopération. Bien que l'IA puisse être utile dans de nombreux scénarios, son impact sur la prise de décision humaine et les dynamiques sociales ne peut pas être ignoré. Une exploration plus approfondie sera nécessaire pour naviguer dans le paysage complexe de l'interaction humain-IA, en veillant à ce que la technologie serve à renforcer, plutôt qu'à entraver, le tissu de la vie sociale.
Alors que l'IA générative continue de se développer, comprendre son influence sur le comportement humain sera crucial pour façonner les politiques, pratiques et technologies futures.
Titre: Generative AI Triggers Welfare-Reducing Decisions in Humans
Résumé: Generative artificial intelligence (AI) is poised to reshape the way individuals communicate and interact. While this form of AI has the potential to efficiently make numerous human decisions, there is limited understanding of how individuals respond to its use in social interaction. In particular, it remains unclear how individuals engage with algorithms when the interaction entails consequences for other people. Here, we report the results of a large-scale pre-registered online experiment (N = 3,552) indicating diminished fairness, trust, trustworthiness, cooperation, and coordination by human players in economic twoplayer games, when the decision of the interaction partner is taken over by ChatGPT. On the contrary, we observe no adverse welfare effects when individuals are uncertain about whether they are interacting with a human or generative AI. Therefore, the promotion of AI transparency, often suggested as a solution to mitigate the negative impacts of generative AI on society, shows a detrimental effect on welfare in our study. Concurrently, participants frequently delegate decisions to ChatGPT, particularly when the AI's involvement is undisclosed, and individuals struggle to discern between AI and human decisions.
Auteurs: Fabian Dvorak, Regina Stumpf, Sebastian Fehrler, Urs Fischbacher
Dernière mise à jour: 2024-01-23 00:00:00
Langue: English
Source URL: https://arxiv.org/abs/2401.12773
Source PDF: https://arxiv.org/pdf/2401.12773
Licence: https://creativecommons.org/licenses/by/4.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.