共同デコーディングで言語モデルの事実性を改善する
大規模言語モデルの精度を高めつつ、多様な応答を確保する方法。
― 1 分で読む
目次
大規模言語モデル(LLM)であるChatGPTやLLaMA-2は、いろんなアプリケーションで重要なツールになってるんだ。彼らはトレーニングプロセス中にたくさんのデータから学ぶんだけど、それには事前トレーニングとファインチューニングが含まれてる。これらのモデルは指示を理解して安全な応答を生成できるけど、時々は正確な情報を思い出すのが苦手で、間違った事実を作り出したり“ハルシネーション”したりすることがあるんだ。
事実性を改善するために、研究者たちはこれらのモデルがどう答えを作るかをコントロールするより良い方法を探している。この文章では、協調デコーディングと呼ばれる新しい方法について話していて、これはLLMの精度を上げつつ、柔軟で役立つ性質を保つことを目的にしてるんだ。
事実性の課題
LLMはトレーニング中に、主に事前トレーニングとファインチューニングの2つの段階を経るんだ。事前トレーニングでは、膨大なテキストデータから学び、世界に関する事実知識を得る。ファインチューニングの段階では、特定のガイドラインに基づいて、人間の好みに応じた安全な応答を生成するように調整されるんだけど、このファインチューニングは、事実を正確に思い出す能力に影響を与えちゃうことが多いんだ。
ユーザーがLLMとやり取りするとき、普通はサンプリングと呼ばれる方法を使って応答を得るんだ。この技術はランダム要素を導入するから、数字や名前のように正確さが必要な事実にとっては問題になることがある。これがモデルが間違ったり誤解を招く答えを出す可能性を高める要因になってる、これをハルシネーションの問題って呼ぶんだ。
現在の解決策
このハルシネーションの問題に対処するために、いくつかの方法が提案されてる。外部データベースから情報を集めて答えをサポートするリソースを使うアプローチもあれば、追加のトレーニングデータなしでモデル内部を調整する方法もある。ただ、これらの内部調整はモデル特有の調整が必要で、異なるコンテキストでの効果を減少させることがあるんだ。
この記事では、カスタマイズされたトレーニングデータなしでハルシネーションに対処する内部戦略を示してる。目標は各トークン、つまり情報の一部がどう生成されるかを慎重にコントロールすることでモデルの事実性を向上させることなんだ。重要なトークンにだけ集中することで、事前トレーニング中に学んだ事実知識の有効活用ができる。
クリティカルトークン
ここでいうクリティカルトークンは、応答の全体的な真実性に大きな影響を与える特定の言葉やフレーズのこと。固有名詞、日付、数字が含まれるんだ。これらのトークンが正確に生成されないと、全体の応答が誤解を招いたり間違ったものになっちゃう。
これらのクリティカルトークンは変動を許さないタイプとして分類できる。たとえば、有名な人の名前は正確でなきゃダメで、ちょっとでも変わると混乱を招くことがある。俺たちの研究の焦点は、これらのクリティカルトークンを特定して、最も信頼できるモデルから取得することなんだ。
協調デコーディングフレームワーク
協調デコーディングアプローチは、2つのモデルの強みを組み合わせることを目指してる。事前トレーニングされたモデルは強い事実知識を持ってて、ファインチューニングされたモデルは指示に従うのが得意なんだ。主なアイデアは、どのモデルが各クリティカルトークンを生成すべきかを決定するために、分類器を使うこと。
分類器の設定: 応答内のクリティカルトークンを特定するための特別な分類器を設定する。この分類器が、どのモデルが各トークンの生成をリードすべきかを決めるのを助ける。
トークン生成: 一度クリティカルトークンが特定されると、システムはそのトークンの生成に最も適したモデルを選ぶ。高い正確さが求められるトークンには、事前トレーニングされたモデルを単純に使用して、普通のトークンは整合モデルが生成する。
効率性: このアプローチは事実の正確さを保ちながら、バラエティに富んだ面白い答えを許すことを目指してる。重要なトークンにだけより正確なモデルを選択的に使うことで、全体の生成品質への影響を最小限に抑えるんだ。
クリティカルトークンのデータ収集
分類器を効果的にトレーニングするためには、大規模な例のデータセットを集める必要がある。データ生成プロセスでは、言語モデルに既存の記事に基づいて事実質問を作らせる。質問生成の後、同じモデルが回答を提供して、クリティカルトークンを特定するために分析される。
このデータセットには、入力に質問とその回答が含まれ、出力にはトークンがクリティカルかどうかを示すラベルが含まれてる。13万以上のトレーニング例があるこのデータセットは、クリティカルトークン分類器のトレーニングのための強力な基盤を提供する。
クリティカルトークン分類器のトレーニング
データセットが整ったら、特定のトークンがクリティカルかどうかを予測するモデルをトレーニングできる。これは、トークンが答えの正確性を確保するために重要かどうかを決定するバイナリ分類法を使う。
モデルの異なるバージョンがパフォーマンスを評価するためにトレーニングされる。クリティカルトークンの特定に焦点を当てたモデルは、さまざまなシナリオでより良いパフォーマンスを示す。このトレーニングされたモデルが、協調デコーディングフレームワークでトークン生成に関するリアルタイムの決定を行うために利用される。
協調デコーディングの実行
協調デコーディング戦略は、二つのモデル間のチームワークアプローチと言える。各モデルにはそれぞれの強みがあって、一緒に作業することでより良い答えを提供できる。
- 整合モデルは、ユーザーのプロンプトや会話の履歴に基づいてトークンを生成する。
- クリティカルトークン分類器は、トレーニングモデルの出力を活用してこのトークンがクリティカルかを評価する。
- 分類器がそのトークンをクリティカルと判断した場合、事前トレーニングされたモデルが引き継いで、その特定のトークンを正確に生成する。
このプロセスは、正確な重要情報を保ちながら自然な言語の流れを維持するために、完全な応答が形成されるまで繰り返される。
評価と結果
協調デコーディング戦略の効果を評価するために、提案されたアプローチは様々なデータセットでいくつかの確立された方法と比較される。目的は、この方法が既存の技術と比べて事実性ハルシネーションをどれだけ減少させるかを評価すること。
TriviaQAやNaturalQuestionsを含むいくつかのベンチマークがあり、生成された応答が正確な事実の答えにどれだけ一致しているかを測るのに役立つ。これらの評価を通じて、協調デコーディングフレームワークは従来の方法よりも常に優れたパフォーマンスを示す。
異なるモデル間のパフォーマンス
さまざまなサイズのモデルを使用した実験で、協調デコーディング戦略の堅牢性が示される。小さい整合モデルを大きい事前トレーニングされたモデルとリンクさせることで、応答のバラエティを犠牲にすることなく、事実性の大幅な改善を実現する。
結果は、異なるモデルファミリーを使用してもフレームワークが強力であることを示す。これは、その適応性とさまざまなAIシステムでの広範な応用の可能性を示している。
結論
この研究は、協調デコーディングを通じて大規模言語モデルの事実性を改善する革新的なアプローチを提示している。クリティカルトークンに焦点を当て、二重モデルシステムを利用することで、生成される応答の信頼性を効果的に高める。
現在のモデルはすでに強力だけど、この方法は事実の正確性のギャップを埋める手段を提供し、ユーザーが正確で信頼できる情報を受け取れるようにしている。今後の研究では、このアプローチをさらに洗練させ、言語モデルの能力を向上させるための追加のアプローチを探る予定だ。
モデルの協力方法や情報の生成方法を慎重に考えることで、より知的で真実を伝えるAIシステムへの道を切り開き、データ駆動型の世界でユーザーのニーズにより良く応えられるようになるんだ。
タイトル: Collaborative decoding of critical tokens for boosting factuality of large language models
概要: The most common training pipeline for large language models includes pretraining, finetuning and aligning phases, with their respective resulting models, such as the pretrained model and the finetuned model. Finetuned and aligned models show improved abilities of instruction following and safe generation, however their abilities to stay factual about the world are impacted by the finetuning process. Furthermore, the common practice of using sampling during generation also increases chances of hallucination. In this work, we introduce a collaborative decoding framework to harness the high factuality within pretrained models through the concept of critical tokens. We first design a critical token classifier to decide which model to use for the next token, and subsequently generates the next token using different decoding strategies. Experiments with different models and datasets show that our decoding framework is able to reduce model hallucination significantly, showcasing the importance of the collaborative decoding framework.
著者: Lifeng Jin, Baolin Peng, Linfeng Song, Haitao Mi, Ye Tian, Dong Yu
最終更新: 2024-02-27 00:00:00
言語: English
ソースURL: https://arxiv.org/abs/2402.17982
ソースPDF: https://arxiv.org/pdf/2402.17982
ライセンス: https://creativecommons.org/licenses/by/4.0/
変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。
オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。