生成AIの社会的影響
研究によると、AIは社会的なやり取りにおける公平性、信頼、協力に影響を与えるんだって。
― 1 分で読む
生成的人工知能(AI)が人々のつながり方やコミュニケーションを変えてる。AIは多くの決定をすぐに下せるけど、社会的状況で人がAIにどう反応するかについてはまだ不確実性がある。特に、AIが他の人に影響を与える決定をする時は重要だね。
この研究では、3,500人以上の参加者を対象にオンライン実験を行って、AIの使用が公平性、信頼、協力、他の社会的行動にどんな影響を与えるかを調べた。結果、人はAIを使って他の人とやりとりするとき、あんまり公平じゃなくて協力的じゃなくなることがわかった。面白いことに、AIか人間か分からない状況では、その悪影響が消えるみたい。研究結果から、AIの使用がオープンであることが、逆に悪化させるかもしれないって示唆されてる。
はじめに
公平性、信頼、協力、調整は、うまく機能する社会には欠かせない要素だよ。これらの特性は、グループが効率的に協力して社会的規範を維持するのに役立つ。最近の生成AIの発展で、これらのツールが日常のやりとりをどう変えるのか、疑問が出てきてる。多くの人がAIを使ってるけど、その社会的行動への影響についてはあんまり知られてないんだ。
この研究は、AIを使ったときに人がどんな反応を示すかに焦点を当ててる。以前の研究はAIの行動を見てたけど、私たちは人間の反応を調べた。いくつかの重要な質問がある:AIが使われると福祉はどうなる?人はいつAIに決定を任せることを望むの?AIの決定についての透明性は、これらのやりとりにどう影響する?AIのパーソナライズが人々の反応に影響を与える?
これらの質問を調べるために、大規模なオンライン実験を行った。参加者は5つの異なる経済ゲームをプレイして、他のプレイヤーやAIのサポートで直接決定を下した。このやりとりが公平性、協力、全体的な福祉にどんな影響を与えるかを見たかった。
実験
参加者と方法
実験には2,905人が参加した。年齢、性別、教育レベルはさまざま。各参加者は、AIまたは他の人と一緒に一連の経済ゲームをプレイした。いくつかのゲームでは、ユーザーの入力に基づいてテキストを生成するAIモデルのChatGPTの助けで決定が下された。
参加者は、AIと作業する場合でも他の人と作業する場合でも同じ指示を受けた。ゲームには、ウルティメイタムゲーム、信頼ゲーム、囚人のジレンマ、シカ狩り、調整ゲームが含まれていて、それぞれのゲームにはプレイヤーが決定を下す方法や受け取る報酬に影響する特定のルールがあった。
処置
実験は、参加者がAIとやりとりしているかを知っているかどうか、AIの決定がパーソナライズできるかどうかによって異なる6つの処置条件で設計された。
- 透明なランダム非パーソナライズ:AIが一部のプレイヤーのためにランダムに決定を下した。
- 透明なランダムパーソナライズ:プレイヤーが自分の好みに基づいてAIの決定をパーソナライズできた。
- 透明な委任非パーソナライズ:プレイヤーがAIに引き継ぐかどうかを決め、結果は分かっていた。
- 透明な委任パーソナライズ:上記と似ているが、プレイヤーがAIの決定をパーソナライズできた。
- 不透明な委任非パーソナライズ:プレイヤーはAIまたは人間が決定を下しているかどうかわからなかった。
- 不透明な委任パーソナライズ:上記と似ていて、パーソナライズされたAIの決定があった。
これらの条件を比較することで、AIの存在が社会的状況での意思決定にどのように影響するかを理解しようとした。
結果
結果は明確な傾向を示している:AIとやりとりすることは、すべてのゲームで参加者の公平性や協力性を低下させることが多かった。プレイヤーがAIか人間か判断できない状況では、福祉への悪影響は存在しなかった。これは、AIが関与しているか不明であることが、より良い社会的やりとりにつながる可能性があることを示唆している。
主な結果
福祉の減少:参加者はAIと関わると福祉の観点で悪い選択をすることが多かった。彼らの決定は信頼と協力のレベルが低く、結果として人間のやりとりと比べて全体的に悪化した。
委任パターン:参加者がAIに決定を委任できる場合、不透明な状況では透明な状況よりも頻繁に委任した。これは、人々がAIが引き継ぐことを考えて、責任を避ける可能性があることを示唆している。
パーソナライズ効果:参加者がAIをパーソナライズできるようにしても、福祉への悪影響を緩和することはできなかった。AIの選択をパーソナライズすることが人々の反応に影響を与えていないようで、AIがパーソナライズされていることを知っても、より良い社会的なやりとりにはつながらなかった。
AIへの全体的な信頼:参加者はAIの公平性や協力能力に疑問を持っていた。この不信はやりとりに影響し、ゲームでの協力レベルを低下させた。
AIの決定の検出:人間の評価者は、AIによる決定と人間による決定を見分けるのに苦労していた。特に理由が提供されていない時にこの傾向が見られた。これは、AIの意思決定プロセスが人間の行動を convincingly 模倣できるほどに洗練されてきたことを示している。
考察
社会的やりとりへの影響
結果は、AIが日常生活に統合される際の重要な考慮点を浮き彫りにしている。AIが社会的文脈で決定を下す役割を果たすにつれて、信頼と協力への悪影響の可能性が大きな懸念となる。
私たちの研究は、AIの役割についての透明性を高めることが最善のアプローチではないかもしれないことも指摘している。リスクを減らすための意図があっても、AIが関与していることを知ると人々がより利己的に行動する可能性がある。これは、AIの透明性を社会でどのように構築するかについて慎重に考える必要があることを示している。
推奨事項
決定の委任に対する注意:人々がますますAIに頼るようになる中で、決定権をこれらのシステムに委任する傾向は、協力や信頼を促進する社会的規範を弱める可能性がある。委任がグループダイナミクスに与える影響を考慮することが重要。
信頼構築の必要性:AIシステムに対する信頼を築くことが重要。人々がAIに慣れていくにつれて、社会的関係を維持しながら責任を持って利用する方法を理解することがますます重要になるだろう。
ユーザーへの教育:人々は、社会的状況でAIを使用する際の潜在的な影響について教育を受けるべき。AIが福祉や社会的行動に影響を与える可能性を理解することで、ユーザーがより情報に基づいた選択をするのに役立つかもしれない。
パーソナライズの改善:パーソナライズされたAIが福祉を回復するようには見えないが、今後の研究では、こうした機能が全体的な経験を向上させるためにどう改善できるかに焦点を当てるべき。
AI利用の倫理探求:AIが日常生活にますます組み込まれる中で、倫理的な考慮が利用に関する議論の前面に出るべき。
結論
この研究は、生成的AIが社会的やりとりに統合されることで福祉、公平性、協力にかなりの悪影響を与える可能性があることを示している。AIは多くのシナリオで有用かもしれないけど、その人間の意思決定や社会的ダイナミクスに与える影響は無視できない。人間とAIの複雑な相互作用の風景をナビゲートするために、さらなる探求が必要になるだろう。生成AIが進化し続ける中で、その人間の行動への影響を理解することが、今後の政策、実践、技術を形成する上で重要になるだろう。
タイトル: Generative AI Triggers Welfare-Reducing Decisions in Humans
概要: Generative artificial intelligence (AI) is poised to reshape the way individuals communicate and interact. While this form of AI has the potential to efficiently make numerous human decisions, there is limited understanding of how individuals respond to its use in social interaction. In particular, it remains unclear how individuals engage with algorithms when the interaction entails consequences for other people. Here, we report the results of a large-scale pre-registered online experiment (N = 3,552) indicating diminished fairness, trust, trustworthiness, cooperation, and coordination by human players in economic twoplayer games, when the decision of the interaction partner is taken over by ChatGPT. On the contrary, we observe no adverse welfare effects when individuals are uncertain about whether they are interacting with a human or generative AI. Therefore, the promotion of AI transparency, often suggested as a solution to mitigate the negative impacts of generative AI on society, shows a detrimental effect on welfare in our study. Concurrently, participants frequently delegate decisions to ChatGPT, particularly when the AI's involvement is undisclosed, and individuals struggle to discern between AI and human decisions.
著者: Fabian Dvorak, Regina Stumpf, Sebastian Fehrler, Urs Fischbacher
最終更新: 2024-01-23 00:00:00
言語: English
ソースURL: https://arxiv.org/abs/2401.12773
ソースPDF: https://arxiv.org/pdf/2401.12773
ライセンス: https://creativecommons.org/licenses/by/4.0/
変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。
オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。