Simple Science

最先端の科学をわかりやすく解説

# コンピューターサイエンス# 計算と言語# 人工知能

REBEL: 言語モデルにおける推論の進展

REBELは複雑な推論タスクを外部ツールや再帰的手法で強化するよ。

― 1 分で読む


REBELアルゴリズムREBELアルゴリズムfor 言語モデルいアプローチ。言語モデルにおける複雑な推論のための新し
目次

大規模言語モデル(LLM)は質問に答えるのが得意だけど、トレーニングデータにない知識が必要な質問には苦戦してる。その知識はリアルワールドを観察したり、インタラクトしたりすることでしか得られないんだ。今の方法は推論タスクを一連のステップに分解するけど、複雑な問題に取り組む能力を制限することもある。

そこで、Recursion Based Extensible LLM(REBEL)っていう方法を紹介するよ。REBELはダイナミックプランニングみたいなテクニックを使って複雑な推論タスクに取り組むように設計されてる。問題を分解して外部ツールを使って推論することができるんだ。そのツールは普通の言葉で説明できるから、必要なことを簡単に指定できるんだ。

関連研究

LLMを使った推論タスクにはいろんなアプローチがあって、プロンプトを作ったりモデルをファインチューニングしたりすることが含まれる。ここではプロンプトテクニックに焦点を当てるよ。一般的な方法の一つは前方連鎖で、既知の事実から論理ルールを使って答えに辿りつく方式だ。

いくつかのシステムはこれを基に、推論ステップに基づいて特定のアクションを生成する。別のアプローチでは、さまざまなツールから情報を集めて質問に答える。複雑な構造の質問にどれだけいい答えができるかをチェックする方法もいろいろある。以前の研究では、問題を分解することで推論が助けられることが示されている。

REBELアルゴリズム

REBELアルゴリズムは質問を小さい部分に分けて、これ以上分けられないまで繰り返す仕組みになってる。各質問とその答えはタプルと呼ばれるよ。例えば、ユーザーが質問をすると、それがさらに小さなサブ質問につながることがある。アルゴリズムはこれらのサブ質問を再帰的に処理するんだ。

無限ループを防ぐために、アルゴリズムはどの部分がチェック済みかトラッキングして、既存の答えに似すぎるものを取り除くよ。REBELは利用可能なツールのリストも保持していて、質問に答えるための最適な方法を決めるのに役立つんだ。

REBELの主要ステップ

  1. 質問分割:このステップではLLMが生成する内容に基づいて質問を小さな部分に分けるよ。
  2. メモリチェック:その質問がツールなしで答えられるか確認するんだ。
  3. ツール選択:LLMがどのツールが回答に最適か決める。
  4. ツール使用:選ばれたツールを使って答えを得て、その答えを最終的な出力に使う。

実験設定

REBELシステムは3つのデータセット、Compositional Celebrities、FEVER、HotPotQAでテストされた。目標は、REBELが他のシステムと比べてどれだけ質問に答えられるかを見ることだった。回答が正しいかどうかを基準と比べて確認したよ。

結果

REBELは複雑な質問に答えるのに既存のシステムよりも良いパフォーマンスを示した。Compositional Celebritiesデータセットでは、REBELが以前の方法よりもかなり改善した。ただ、HotPotQAデータセットでは、より複雑な質問に直面して深い推論ステップが必要だったことで難しさがあった。

FEVERデータセットでは、REBELが他のシステムよりも若干いい結果を出した。これはREBELが処理中に多くの事実を集める方法によるものだ。

結論

REBELは再帰的アプローチと外部ツールを使った新しい推論方法を提案してる。多くの事実を組み合わせて正確なクエリを作ることが求められる質問に答える際に有望さを見せている。ただ、シンプルな質問には限界もあるんだ。

今後の研究では、REBELの各ステップを改善したり、質問の分解がどれだけ深く行われるかを制御する方法をテストすることに焦点を当てるといいかもね。

オリジナルソース

タイトル: LLM Guided Inductive Inference for Solving Compositional Problems

概要: While large language models (LLMs) have demonstrated impressive performance in question-answering tasks, their performance is limited when the questions require knowledge that is not included in the model's training data and can only be acquired through direct observation or interaction with the real world. Existing methods decompose reasoning tasks through the use of modules invoked sequentially, limiting their ability to answer deep reasoning tasks. We introduce a method, Recursion based extensible LLM (REBEL), which handles open-world, deep reasoning tasks by employing automated reasoning techniques like dynamic planning and forward-chaining strategies. REBEL allows LLMs to reason via recursive problem decomposition and utilization of external tools. The tools that REBEL uses are specified only by natural language description. We further demonstrate REBEL capabilities on a set of problems that require a deeply nested use of external tools in a compositional and conversational setting.

著者: Abhigya Sodani, Lauren Moos, Matthew Mirman

最終更新: 2023-09-20 00:00:00

言語: English

ソースURL: https://arxiv.org/abs/2309.11688

ソースPDF: https://arxiv.org/pdf/2309.11688

ライセンス: https://creativecommons.org/licenses/by/4.0/

変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。

オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。

類似の記事