Simple Science

最先端の科学をわかりやすく解説

# コンピューターサイエンス# 機械学習# 人工知能# 計算と言語

人間のフィードバックを使った強化学習のメモリ効率の改善

新しい方法が言語モデルのトレーニングでメモリの使い方とスピードを向上させてるよ。

― 1 分で読む


効率的なRLHF技術が明ら効率的なRLHF技術が明らかにされた言語モデルのトレーニングを提供する。新しい手法が、より速くてメモリ効率の良い
目次

人間のフィードバックを活用した強化学習(RLHF)は、言語モデルのトレーニング方法を変え、人々のニーズをより反映するようになった。でも、このプロセスの重要な部分である近接ポリシー最適化(PPO)は、すごくメモリを使うんだ。従来の方法の3倍のメモリを必要とすることもあるから、効果的に使うのが難しいんだよ。この問題を解決するために、メモリの使用量、パフォーマンス、トレーニングにかかる時間を詳しく調べたんだ。

新しいアプローチ、Hydra-RLHFを導入したよ。これは、いくつかのモデルを組み合わせて、トレーニング中に特定の部分をオフにしてメモリを節約する方法なんだ。テストの結果、2つの主なことが分かった。まず、PPO中にLoRAっていうテクニックを使うことで、従来の方法よりもメモリ使用量を減らしつつ、モデルが人間の好みにより合うようになるんだ。次に、Hydra-PPOアプローチは、各サンプルにかかる時間を最大65%削減できるけど、パフォーマンスは落ちないから、もっと多くの人がRLHFを使いやすくなるんだ。

ChatGPT、GPT-4、Llama-2などのモデルが人気になってから、ユーザーはそれらがさまざまなタスクでどれだけ役立つかに驚いてる。一つの重要な成功要因は、RLHFを使ってモデルを人間の期待に合わせていることなんだ。大きな言語モデルをトレーニングすることで大量の知識を与えるけど、その知識を正しく活用するのは難しいことがある。それによってエラーや危険が生じる可能性があるから、アライメントでモデルの動作を期待通りに調整することが重要なんだ。これが、モデルが安全で役に立つことを確実にするための大切な部分になっているよ。

でも、RLHFはこのアライメントを改善する一方で、課題もあるんだ。複数のモデルを同時に実行するためにかなりのメモリが必要で、PPO中はすごく複雑になることがある。RLHFはまだ新しい研究分野なので、その速度や効果に関する評価が強く求められているんだ。

そのニーズに応えるために、私たちは標準的なRLHF-PPOのトレーニングステップや構造に注目した。参考モデル、報酬モデル、アクターモデル、クリティックモデル間でモデルを共有することで、メモリと計算コストを大幅に削減できるチャンスがあることが分かったんだ。

私たちの比較では、特定のモデルに対してさまざまな方法がどれだけのメモリと時間を使ったかが示された。また、異なるPPO手法で何モデルが必要かを詳しく示し、私たちのHydra-PPO手法がメモリ内でモデルを少なく使うことで、より効率的であることを証明したんだ。

RLHFプロセスのステージ

RLHF手法には、3つの主要なステージがあるよ:

  1. 監視付きファインチューニング(SFT):このステージでは、データセットを使って言語モデルに言語パターンを学ばせる。全てのパラメータをトレーニングするバージョン(フルファインチューニング)と、特定のテクニック(LoRA)を使ってパラメータ数を減らすバージョンがある。

  2. 報酬モデル(RM:ここでは、言語モデルの出力を変更して、人間が好むと思われる出力を予測することに重点を置く。トレーニング後、このモデルからの報酬が安定するようにして、PPOステップを助けるんだ。

  3. PPO:この最後のステージでは、事前に定義された報酬モデルを使って、アクター(モデルのクリエイティブな部分)とクリティック(出力を評価する部分)の両方をトレーニングする。トレーニング中は、安定性を確保するために、少なくとも4つのモデルが使用されるよ。

Hydra-RLHFの導入

私たちはHydra-RLHFを提案する。これは、PPOフェーズ中にメモリを節約しつつパフォーマンスを維持するように従来のRLHFを改良したものなんだ。

  1. Hydra-SFT:この新しいトレーニング方法は、標準的な報酬モデルのトレーニングに似たデータセットを使用して、2つのタスクを同時に最適化する。この方法には、効果的にトレーニングするためにペア比較を含む新しいデータが必要なんだ。

  2. ダイナミックLoRA:このアプローチは、必要ないときにLoRAの重みをオフにすることでメモリを節約する。それぞれ同じモデル(アクターとクリティック)があるから、一方からもう一方を復元できるので、パフォーマンスを維持しつつメモリ使用量を大幅に削減できるんだ。

  3. Hydra-PPO:アクターとクリティックのために別々のLoRA重みを使うことで、PPO中のメモリ内での複数モデルの必要性をさらに減らすよ。

結果と比較

私たちは異なる方法を比較して、そのパフォーマンスを評価した。新しい方法は、従来の方法よりも一般的にパフォーマンスが良いことが分かった。Hydra-PPOはLoRA-PPOよりも良いアライメントを示したけど、これは改善された報酬モデルのおかげだと思う。

時間の面では、Hydra-PPOはテキストの量が増えるにつれて速くなった。トレーニングバッチサイズを増やすことで、PPO中の各サンプルにかかる時間を大幅に減らすことができたんだ。

他のデータセット、例えばStackExchangeやLearning to Summarizeを評価したときにも、結果を通じて興味深いパターンが見つかった。たとえば、標準モデルはよく機能することが多いけど、PPO手法はリコールが良いけど、精度が時々落ちることがあるんだ。

Joined-Hydra-PPOの課題

私たちは、アクターとクリティックの両方に同一のLoRA重みを使うJoined-Hydra-PPOもテストした。この方法は若干のメモリを節約できたけど、パフォーマンスはHydra-PPOほど良くなかった。これは、モデルを一つに合わせることで不安定さが生じるためだと考えているよ。

今後の方向性

私たちの研究は、RLHFの改善に向けた新しい道筋を示している。SFTやRMトレーニングで使うデータセットのバランスをより良く取る必要があるね。さらなる開発が、J-Hydra-PPOのパフォーマンスを向上させたり、RLHFの設定でより効果的なパラメータ効率の良いファインチューニング手法を作り出したりする可能性があるんだ。

結論

私たちの研究を通じて、PPOフェーズ中にメモリを節約することでRLHFの効率を向上させることが可能であることを示した。Hydra-RLHF手法は、モデルを組み合わせてトレーニング戦略を調整することで、より大きなバッチサイズを使えるようにし、より速く、よりアクセスしやすいトレーニングプロセスを実現しているんだ。私たちの発見が、RLHFの広範な採用を促し、このエキサイティングな技術分野でのさらなる改善をインスパイアできることを願っているよ。

オリジナルソース

タイトル: Efficient RLHF: Reducing the Memory Usage of PPO

概要: Reinforcement Learning with Human Feedback (RLHF) has revolutionized language modeling by aligning models with human preferences. However, the RL stage, Proximal Policy Optimization (PPO), requires over 3x the memory of Supervised Fine-Tuning (SFT), making it infeasible to use for most practitioners. To address this issue, we present a comprehensive analysis the memory usage, performance, and training time of memory-savings techniques for PPO. We introduce Hydra-RLHF by first integrating the SFT and Reward models and then dynamically turning LoRA "off" during training. Our experiments show: 1. Using LoRA during PPO reduces its memory usage to be smaller than SFT while improving alignment across four public benchmarks, and 2. Hydra-PPO reduces the latency per sample of LoRA-PPO by up to 65% while maintaining its performance. Our results demonstrate that Hydra-PPO is a simple and promising solution for enabling more widespread usage of RLHF.

著者: Michael Santacroce, Yadong Lu, Han Yu, Yuanzhi Li, Yelong Shen

最終更新: 2023-09-01 00:00:00

言語: English

ソースURL: https://arxiv.org/abs/2309.00754

ソースPDF: https://arxiv.org/pdf/2309.00754

ライセンス: https://creativecommons.org/licenses/by/4.0/

変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。

オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。

著者たちからもっと読む

類似の記事