Simple Science

最先端の科学をわかりやすく解説

# コンピューターサイエンス# 計算と言語

タスクに依存しない大規模言語モデルの蒸留

教師モデルなしで大規模言語モデルを蒸留する新しい方法。

― 1 分で読む


言語モデルの効率的な蒸留言語モデルの効率的な蒸留グを改善する。教師なしの新しい方法がモデルのトレーニン
目次

大規模言語モデル(LLM)は急速にサイズと能力が成長して、使い方が変わってきたんだ。以前のモデル、ELMoやBERTは特定のタスクに合わせて微調整するように設計されてたけど、GPT-3みたいな現代のモデルはサイズが大きすぎてこのアプローチが実用的じゃなくなってる。だから、最近は微調整なしでパフォーマンスを評価する方法、ゼロショットやフューショット学習みたいなのがよく使われている。こういう変化があるから、大きなモデルのパフォーマンスを維持しつつ、小さいバージョンを作る方法を再考する必要があるんだ。

知識蒸留

知識蒸留は、一般的に学生モデルと呼ばれる小さいモデルを、教師モデルと呼ばれる大きいモデルの出力を真似るように訓練する技術なんだ。この方法は、モデルを小さくて速くするために使われるけど、効果も維持できるんだ。今までの研究は小さいエンコーダモデルに焦点を当てて、特定のタスク用に微調整できるって想定してたけど、現代のLLMではそのサイズや計算資源の多さからそれが難しいことが多い。

タスク無関係な蒸留

私たちの研究では、教師モデルに依存せず、タスク無関係なアプローチに焦点を当てた新しい蒸留方法を提案してるんだ。これは、特定のタスクのためのトレーニングなしで、幅広いタスクに対してうまく機能する小さいモデルを作ろうってこと。これは特に、微調整データにアクセスできない場合や、モデルのパフォーマンスを直接評価したい場合に役立つんだ。

教師なしアプローチ

従来の蒸留では、教師モデルと学生モデルの両方がGPUメモリに存在している必要がある。これは、パラメータが数十億もあるモデルだとかなり難しくなるから、私たちは小さいバージョンの大きいモデルから始めて、そのデータで言語モデルのタスクを使って訓練を続ける教師なしアプローチを提案してる。こうすることで、別の教師モデルが必要なくなるし、全体の計算負荷を軽減できるんだ。

パフォーマンス評価

私たちは、推論や言語理解、質問応答が必要なさまざまなタスクでこの新しいアプローチをテストしたんだ。実験では、300百万パラメータのモデルと1.1十億パラメータのモデルの2つを使った。どちらのモデルも、400億トークンから3200億トークンにわたる大量のデータで訓練した。シンプルな方法にもかかわらず、私たちのアプローチはモデルサイズを50%削減しながら、従来の蒸留方法の結果を上回るか、同等の結果を出すことに成功した。

蒸留設定

私たちの蒸留方法の設定は、実用的かつ効率的に保つことに焦点を当ててる。私たちは大きいモデルから半分の層を取り除いて、最も重要な部分だけを残すことにした。どの層を取り除くかの選択は重要で、パフォーマンスを維持するために最も重要な層を残すようにしてる。私たちの目標は、必要な層を保ちながらモデルサイズを効果的に削減する方法を学ぶことだった。

継続的な前訓練

教師モデルの出力を単にコピーするのではなく、言語モデリングの目的を使って小さいモデルのさらなる訓練を行った。これにより、層を減らすことで失ったパフォーマンスを回復できた。私たちの実験では、さらに200億トークンのデータで訓練を続けたことで、小さいモデルの後のタスクでのパフォーマンスが大幅に向上したんだ。

実験設定

私たちの発見を検証するために、私たちの方法と従来の蒸留アプローチを使った一連の実験を設定した。言語モデリングの混乱度や下流タスクでの正確性など、さまざまな指標でパフォーマンスを比較した。結果として、両方の方法に強みがある一方で、私たちの教師なしアプローチが計算資源の効率性で一般的に優れていることが分かった。

層の削除戦略

私たちのアプローチでの重要な決定のひとつは、訓練中に層を削除するタイミングと方法だった。実験の結果、すべての層を一度にドロップすることはパフォーマンスに影響を与えなかったことがわかった。だから、層を一度に削除するか、訓練を通じて段階的に削除するか選べるんだ。最終的には、これらの削除のタイミングはモデルのパフォーマンスに大きく影響しなかったから、プロセスが簡単になった。

層の位置の影響

私たちは、パフォーマンスの損失を最小限に抑えるためにモデル内でどこから層を削除するかを探った。私たちの発見は、入力に近い層を削除することが出力近くの層を削除するよりもパフォーマンスに対する悪影響が少ないということだった。この洞察は私たちのアプローチを洗練させるのに役立ち、必要なパフォーマンスを犠牲にすることなく小さなモデルを実現するための最適な戦略に集中できるようにしてるんだ。

モデルサイズと訓練トークン

異なるモデルサイズや訓練データの量がパフォーマンスに与える影響を理解するために、さまざまな設定でテストを行った。全体的に見て、より多くの層を削除するほどパフォーマンスの低下が大きくなることがわかった。また、より大きな訓練データにさらされたモデルは蒸留が難しいことが分かった。でも、大きいモデルはサイズを減らしてもそれほどパフォーマンスを失わない“余地”があることが分かって、これは将来のより大きなモデルを目指す研究にとって励みになるね。

結論

この研究では、教師モデルに依存せずにタスク無関係な評価を強調した大規模言語モデルの新しい蒸留方法を提案してるんだ。私たちの教師なしアプローチは、従来の方法よりも計算資源が効率的でありながら強いパフォーマンスを維持する可能性を示している。結果はさらなる研究を促し、私たちはこの方法をより大きなモデルに適用してその全能力を探るつもりだ。

タスク無関係な蒸留を再定義することで、現代の大規模言語モデルにとってプロセスをより実用的にしたいと思ってる。私たちの研究は、モデルの質を維持しつつ、これらのモデルを訓練・評価する方法を簡素化する重要性を強調して、将来の進展への道を開いていくんだ。

オリジナルソース

タイトル: Just CHOP: Embarrassingly Simple LLM Compression

概要: Large language models (LLMs) enable unparalleled few- and zero-shot reasoning capabilities but at a high computational footprint. A growing assortment of methods for compression promises to reduce the computational burden of LLMs in deployment, but so far, only quantization approaches have been demonstrated to be effective for LLM compression while maintaining zero-shot performance. A critical step in the compression process, the pretrain-then-finetune paradigm, has largely been overlooked when adapting existing pruning strategies to LLMs or proposing new ones. In this work, we show that embarrassingly simple layer pruning coupled with an extended language model pretraining as the finetuning phase produces state-of-the-art results against structured and even semi-structured compression of models at a 7B scale while being more inference efficient. We call this method LayerChop, where we deterministically remove layers from a model followed by task-agnostic finetuning of the remaining weights by continued self-supervised pretraining. At this scale, we also show how distillation, which has been super effective in task-agnostic compression of smaller BERT-style models, becomes inefficient against our simple pruning technique.

著者: Ananya Harsh Jha, Tom Sherborne, Evan Pete Walsh, Dirk Groeneveld, Emma Strubell, Iz Beltagy

最終更新: 2024-07-09 00:00:00

言語: English

ソースURL: https://arxiv.org/abs/2305.14864

ソースPDF: https://arxiv.org/pdf/2305.14864

ライセンス: https://creativecommons.org/licenses/by-nc-sa/4.0/

変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。

オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。

著者たちからもっと読む

類似の記事