AIの会話での多様性を促進する
新しいシステムが人工知能の議論で多様な視点を促進してるよ。
― 1 分で読む
言語モデルが特定の見解を促進することへの懸念が出てきてるね。中立的な視点を求めるんじゃなくて、いろんな視点を使ったらどうかな?この論文では、PluralというシステムとPythonライブラリを紹介するよ。Pluralは、カスタマイズ可能な構造の中で討論するエージェント(ペルソナを持つ言語モデル)で構成されていて、モデレーターが見守ってる。システムは、シミュレーションされた社会的グループを作り、政府のデータセットとつながって、全国的に代表性のあるペルソナを形成するんだ。民主的理論にインスパイアされた討論テンプレートを使って、情報の共有方法や討論の進め方をユーザーがパーソナライズできる。6つのケーススタディがシステムの理論的モデルへの適合性と実用的な成功を示してるよ。
システム概要
Pluralは、エージェント、構造、モデレーターを使ってシミュレーションされた社会的グループを作ることを許可してる。エージェントは情報フローを決定する構造の中でタスクをこなす。モデレーターは複数のエージェントの間の議論を要約できる。各コンポーネントはカスタマイズ可能で、ユーザーはさまざまなエージェントを使って指示を調整できる。Pluralには、民主的討論文献に基づいた予め定義されたテンプレートが付いてる。
基礎
Pluralは、技術的視点を広げるために、討論文献と社会技術システムに基づいて構築されてる。これはマルチエージェントシステムに整合していて、AIエンティティ間の協力を強調してる。Pluralは、民主的討論の原則を統合して、意味のある対話を促進するシミュレーションされた社会グループを作るんだ。
方法論
エージェント
エージェントは特定の役割を果たす大規模な言語モデルだよ。彼らの特性には以下が含まれる:
- プロフィール: エージェントの役割を定義する指示。手動で作成したり、ペルソナベースの方法を使ったりできる。
- タスク: エージェントの応答をガイドするユーザープロンプト。
- 組み合わせ指示: エージェントが他のエージェントから情報をどう融合すべきかのガイドライン。
- 知識: モデルによって異なる情報が持ち込まれることがある。
- モデルタイプ: ユーザーは100以上の言語モデルから選べる。
構造
構造は、エージェントがタスクを完了する際にどうインタラクトするかを決定する。既存の構造には、チェーン、グラフ、ディベート、アンサンブルが含まれていて、情報共有のスタイルやインタラクションの種類が異なる。ユーザーはカスタム構造も作れる。
モデレーター
モデレーターは、エージェント間の議論を要約する役割を果たす。彼らはユニークな役割を持つこともできるし、自分が見守る構造からタスクを引き継ぐこともできる。モデレーターは、管理するタスクに基づいて指示を自動生成するために特別に設計されることもある。
実証研究
ケーススタディ概要
Pluralの理論的忠実性と有効性を調べるために6つのケーススタディを行ったよ。スタディは、Pluralが特定の聴衆グループに共鳴する出力を生成する方法に注目してる。
- ANESペルソナの多様性: 政府のデータセットからの交差的ペルソナを使うと、単一属性のプロンプトよりも多様な応答が得られる。
- 討論指示への遵守: エージェントは成功裏に組み合わせ指示に従って、忠実な討論プロセスを示した。
- シミュレーションされたフォーカスグループ: Pluralsがシミュレートしたフォーカスグループは、標準的なゼロショット生成よりも関連する聴衆に好まれる提案を生み出した。
- ソーラーパネル会社のアイデア: シミュレーションされたフォーカスグループからの出力は、保守的な参加者の間でゼロショットアイデアよりも優れてた。
- チャータースクールの提案: 自由主義的な親がゼロショット出力よりも好むチャータースクールのアイデア生成にも同様の成功が見られた。
- ホームレスシェルターのアイデア: ホームレスシェルターの提案は、一般的なプロンプトよりもシミュレーションされた議論から得られた方が共鳴した。
制限事項と今後の展望
システムには、特に操作性や忠実性に関する言語モデルの能力に関連する制限がある。今後のバージョンでは、新たなペルソナ生成方法を探求したり、リトリーバル強化生成を取り入れたり、倫理的なアプリケーションのためにモデレートされた構造を探ったりする予定だよ。
倫理的考慮事項
Pluralシステムは、ペルソナによる誤解のリスクや説得的な目的での使用の可能性など、重要な倫理的問題を提起している。これらの懸念を認識しつつ、慎重な実施と継続的な評価の必要性を強調してるよ。
結論
Pluralは、プラリスティックAIを作成するための実用的なシステムとして機能する。さまざまな視点に焦点を当て、意味のある対話を促進することで、AI技術の反映的な発展を促してる。今後の研究では、Pluralの機能性と適用性をさまざまなAI文脈で向上させる予定だよ。
タイトル: Plurals: A System for Guiding LLMs Via Simulated Social Ensembles
概要: Recent debates raised concerns that language models may favor certain viewpoints. But what if the solution is not to aim for a 'view from nowhere' but rather to leverage different viewpoints? We introduce Plurals, a system and Python library for pluralistic AI deliberation. Plurals consists of Agents (LLMs, optionally with personas) which deliberate within customizable Structures, with Moderators overseeing deliberation. Plurals is a generator of simulated social ensembles. Plurals integrates with government datasets to create nationally representative personas, includes deliberation templates inspired by deliberative democracy, and allows users to customize both information-sharing structures and deliberation behavior within Structures. Six case studies demonstrate fidelity to theoretical constructs and efficacy. Three randomized experiments show simulated focus groups produced output resonant with an online sample of the relevant audiences (chosen over zero-shot generation in 75% of trials). Plurals is both a paradigm and a concrete system for pluralistic AI. The Plurals library is available at https://github.com/josh-ashkinaze/plurals and will be continually updated.
著者: Joshua Ashkinaze, Emily Fry, Narendra Edara, Eric Gilbert, Ceren Budak
最終更新: 2024-11-19 00:00:00
言語: English
ソースURL: https://arxiv.org/abs/2409.17213
ソースPDF: https://arxiv.org/pdf/2409.17213
ライセンス: https://creativecommons.org/licenses/by/4.0/
変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。
オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。