Simple Science

最先端の科学をわかりやすく解説

# コンピューターサイエンス# 計算と言語# 人工知能# コンピュータと社会# ヒューマンコンピュータインタラクション

政治的説得における言語モデルの限界

研究によると、大きなモデルが必ずしもより良い説得力のあるメッセージを保証するわけじゃないんだって。

― 1 分で読む


AIの説得力の限界AIの説得力の限界保証するわけじゃないって。研究によると、サイズが説得力のある成功を
目次

大規模言語モデル(LLM)は、今や人が書いたものと同じくらい説得力のある政治的メッセージを作れるようになった。これにより、モデルが大きくなるにつれてどれだけ説得力が増すのかという疑問が生じている。この問題に対処するために、10のアメリカの政治トピックに関して、24の異なるサイズの言語モデルを使って720の説得力のあるメッセージを生成した。それらのメッセージを大規模な調査でテストして、各モデルが人々の見解を変えるのにどれだけ効果的かを調べた。

主な発見

私たちの研究では、2つの重要な結果が明らかになった。まず、言語モデルの説得力は対数スケーリングの法則に従っていることが分かった。つまり、大きなモデルが必ずしも大幅に説得力のあるメッセージを生み出すわけではない。実際、私たちがテストした中で最も大きなモデルは、サイズがはるかに小さいモデルと比べてほんの少ししか説得力がなかった。

次に、単にタスクをうまく完遂すること、つまりメッセージが明確でトピックに沿っていることが、大きなモデルがより説得力があるように見える大きな理由だった。だから、モデルを大きくするだけでは、彼らのメッセージの説得力が大幅に向上するわけではない。

影響についての懸念

LLMが大きくなり能力が向上するにつれて、人々の信念や行動に影響を与える可能性についての恐れが高まっている。これらのモデルは強力なプロパガンダを作成し、陰謀論への信念を変え、実際の政府機関からのメッセージに競合するメッセージを生成することができる。研究によると、短い一般的なメッセージでさえ、人々の態度を大いに変えることがあることが示されている。

2024年に多くの有権者が投票所に行くと予想される中、政策立案者はこれらのモデルが情報環境を悪化させ、有権者の選択に影響を与えるのではないかと心配している。専門家たちは、操り人形的な行為者が重要な政治的イベントを操るためにLLMを利用できると警告している。AIが世論に影響を与えることを恐れる人々が多い国々で広く公の懸念が広がっている。

業界の警告と研究の懸念

業界のリーダーや機械学習の専門家は、今後のLLMがさらに説得力を持つようになる可能性があると警鐘を鳴らしている。最近のAI研究者の調査では、AIを利用して世論を操作することが深刻なリスクと見なされていることが示された。そのため、AI企業は非常に説得力のあるモデルからの潜在的な害を評価し管理するためのフレームワークを開発している。

しかし、懸念があるにもかかわらず、より大きなモデルが実際にどれだけ説得できるのかは不明だ。多くのタスクは大きなモデルで改善されるが、必ずしもそうとは限らない。モデルサイズとパフォーマンスの関係は、タスクによって大きく異なることがある。

これは政治的な説得といった複雑なタスクには課題を生む。テストを通じて測定される単純なタスクとは異なり、政治的な説得力は人々がモデル生成のメッセージに接した後にどのように見解を変えるかを見る必要がある。これまでの研究では、説得力がどのくらい速く成長しているか、またはどのサイズのモデルが人間の説得力レベルに達するかは完全には明らかになっていない。

研究アプローチ

私たちは、現在のトップのプレーヤーと比較するために、異なるサイズのオープンウエイト言語モデルの広範な範囲を比較することを目的とした。同じデータで全てのモデルを微調整して、公平な比較を得るようにした。合計で、7000万から3000億以上のパラメータを持つモデルをテストした。

方法

研究中に、私たちは10の政治問題に対して各モデルが3つの説得力のあるメッセージを作成した。私たちは、アメリカの大人を対象にオンライン調査で各モデルのメッセージの説得力を測定した。参加者は、AIメッセージを受け取ったグループ、人間のメッセージを受け取ったグループ、何もメッセージを受け取らなかったコントロールグループの3つに分けられた。

調査の結果、言語モデルの説得力はサイズに応じて増加することが対数スケールに従って示された。簡単に言うと、モデルが大きくなるほど説得力が増すが、モデルがさらに大きくなるにつれてその効果はあまり重要ではなくなる。

結果

まず、私たちは平均して言語モデルが人々を説得できることを見つけ、平均的なサイズのモデルからのメッセージで態度の変化が約6パーセントポイントあったことがわかった。モデルの説得力はサイズにポジティブに関連していたが、サイズが大きくなるにつれてその増加は印象的ではなかった。実際、いくつかの小さなモデルは、最も大きなモデルからのメッセージと同じくらい説得力のあるメッセージを生成した。

タスクの完了と説得力

私たちの結果の重要な部分は、タスクをうまく完了することが説得力の鍵であるという発見だった。モデルはすでにタスク完了で最大スコアを達成しており、つまり彼らのメッセージは筋が通っていてトピックに沿っていた。これは、単にモデルのサイズを大きくするだけでは説得力においてより良い結果を生まない可能性があることを示している。

政治問題と説得力

私たちはまた、モデルが異なる政治トピックでどれだけ説得力を持っているかも調べた。一部の問題は他よりも重要な説得効果を見せた。このバリエーションは、人々が特定のトピックに対してより説得されやすいことを示唆している。例えば、公共の関心が低い問題は、より分極化したトピックよりも明確な説得効果を示すかもしれない。

発見の意味

私たちの研究は、モデルのサイズが大きくなるにつれて説得力の効果には限界があることを示す証拠を提供している。現在のところ、単にモデルを大きくするだけでは、メッセージの説得力が大幅に向上することはないと示唆している。

私たちの発見は、LLM生成のメッセージが説得力を欠いていることを意味するわけではないが、多くの小さなモデルも人間レベルの説得力を持つ能力に達することが示唆されている。これは、効果的なLLMへのアクセスのコストと難易度が以前に考えられていたよりも低いかもしれないことを示している。したがって、より多くのグループが態度に影響を与えるためにこれらのモデルを使用できる可能性がある。

制限事項

私たちの研究にはいくつかの制限がある。まず、私たちが研究したクローズドソースモデルは、彼らの説得力を制限する可能性がある。これらのモデルは大きいが、最大の説得力を持つように訓練されているかどうかは完全には確認できず、私たちの発見は実際のモデルサイズの影響を過小評価している可能性がある。

次に、参加者のグループは広範な人口を完全に代表していなくて、リベラルや民主党の見解に偏りがあった。この偏りが結果に影響を及ぼす可能性があるが、モデルのサイズと説得力の関係に見られる一般的な傾向は変わらないかもしれないことに注意することが重要だ。

今後の方向性

今後の研究にはいくつかの道がある。たとえば、LLMとの長い会話が説得力のある効果をもたらす可能性がある。また、複数のターンの対話でメッセージをパーソナライズすることは、単一で静的なメッセージに比べて説得において大きな利点をもたらすかもしれない。

モデルの説得力を高めるためにどのように訓練やプロンプトを行うことができるかは、将来的な研究の重要な分野でもある。これにより、モデルの能力を効果的に向上させる方法についてのより詳細な理解が得られるだろう。

結論

要するに、私たちの研究は、大きな言語モデルが確かに説得力のあるメッセージを生成できるが、その効果には限界があることを示している。今後は、説得力に寄与する要因を理解し、これらの能力を実用的なアプリケーションで最適化する方法を開発することに焦点を当てるべきだ。

オリジナルソース

タイトル: Evidence of a log scaling law for political persuasion with large language models

概要: Large language models can now generate political messages as persuasive as those written by humans, raising concerns about how far this persuasiveness may continue to increase with model size. Here, we generate 720 persuasive messages on 10 U.S. political issues from 24 language models spanning several orders of magnitude in size. We then deploy these messages in a large-scale randomized survey experiment (N = 25,982) to estimate the persuasive capability of each model. Our findings are twofold. First, we find evidence of a log scaling law: model persuasiveness is characterized by sharply diminishing returns, such that current frontier models are barely more persuasive than models smaller in size by an order of magnitude or more. Second, mere task completion (coherence, staying on topic) appears to account for larger models' persuasive advantage. These findings suggest that further scaling model size will not much increase the persuasiveness of static LLM-generated messages.

著者: Kobi Hackenburg, Ben M. Tappin, Paul Röttger, Scott Hale, Jonathan Bright, Helen Margetts

最終更新: 2024-06-20 00:00:00

言語: English

ソースURL: https://arxiv.org/abs/2406.14508

ソースPDF: https://arxiv.org/pdf/2406.14508

ライセンス: https://creativecommons.org/licenses/by/4.0/

変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。

オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。

著者たちからもっと読む

類似の記事