小さな言語モデルの数学的推論を改善する
小さい言語モデルの数学問題解決スキルを向上させる新しい方法。
― 1 分で読む
目次
言語モデル(LM)は、人間の言語を理解して生成できるコンピュータープログラムだ。最近、これらのモデルは数学の問題を解決するのに特に重要になってきている。数学的推論は、これらのモデルが算数の質問を効果的に処理するために必要な重要なスキルだ。
最近、大規模な言語モデルが数学の問題に取り組む際に素晴らしい結果を示している。この成功は、複雑な質問をよりシンプルなステップに分解できる能力によるものだ。ただし、大規模モデルは通常、パラメータが多く、それにより能力が向上する。そこで疑問が生じる:小さな言語モデルも多段階の推論が得意になるにはどうしたらいいの?
小さなモデルの改善目標
この研究は、数学の問題を効果的に推論させることで小さな言語モデルを強化することを目指している。単に質問に答えるのではなく、モデルにはどのようにして答えにたどり着いたのかを示すステップを生成してもらいたい。そのために、MsATという特別に作られたデータセットを使った新しいトレーニング方法を導入する。
数字の重要性
数学の問題を解決するには、数字を理解することが不可欠だ。しかし、研究によれば中程度の大きさのモデルは数値の理解に苦しんでいる。モデルがこの分野で改善するための一般的な方法は二つあり、一つは数字を特別な記号でマスクしてそこから式を生成すること、もう一つは人工的な数値タスクで事前トレーニングすることだ。どちらの方法にもメリットがあるが、効果を制限する課題もある。
より良い学習のためのMsATの導入
以前の方法で特定された問題を克服するために、新しいアプローチを提案する。まず、小さなモデルをMsATデータセットを使って訓練し、その後特定の数学タスクで微調整する。訓練中は、質問の中の数字をそのまま保持し、モデルがそれから十分に学べるようにする。内部で計算させるのではなく、MsATを通じて、最終的な答えに至る一連の推論ステップを作成するように導く。
MsATの構造と目的
MsATデータセットは、入出力のタスクとして設計されている。つまり、モデルは数学の質問を説明する入力を受け取り、その結果、答えに至る推論ステップのシリーズを生成する。各入力シーケンスは、質問の文脈、方程式、そして問われている変数の三つの部分から構成されている。方程式は記号と数字を混ぜて関係を定義し、モデルは明確に定義されたステップを通じて答えを導き出す必要がある。
出力プロセス中、プログラミングコードに似た形式を作成する。各推論ステップには変数に値を割り当てて計算を行うことが含まれ、外部プログラムが答えを簡単にチェックできるようになっている。
数字の効果的な扱い
パフォーマンスに影響を与える重要な要素は、モデルが数字をどのように理解するかだ。従来の数値をトークン化する方法には限界がある。たとえば、数字が分割されることで理解が妨げられる場合もある。代わりに、数字を一桁ずつ分解することで、モデルが訓練とテストの両方で数値の価値をよりよく理解できるようにする。
継続的な事前トレーニングの効果
私たちの継続的な事前トレーニング方法では、モデルがMsATデータセットから段階的に推論を学んでから、実際の数学タスクにこの知識を適用できる。二段階のアプローチにより、モデルの元の言語理解を保持しながら推論スキルを導入する。
まずMsATで訓練することで、モデルは数学の言葉の問題を扱う能力を徐々に向上させることができる。事前トレーニングのステップが多ければ多いほど、モデルはMsATと現実のタスクの両方でよく機能することがわかった。
推論出力の形式の比較
モデルが推論ステップを出力する方法は、学習に影響を与えることがある。私たちは、構造化された出力形式とよりシンプルな数学の表現を比較した。コードスタイルの形式は、多段階の推論を教えるのにより効果的だと示されている。
中間ステップを生成するモデルは、最終的な答えだけを出すモデルよりも一般的にパフォーマンスが良い。モデルが完全な推論プロセスを生成することを確保することで、その能力は大幅に向上する。
タスクの難易度に適応
合成データでの訓練により、難易度レベルをカスタマイズできる。数学のタスクに関しては、問題を解決するのに必要な平均ステップ数に基づいて難易度を定義する。モデルをより難しいデータセットで訓練することは、簡単な問題に効果的に備えるために重要だ。
また、異なる数学の言葉の問題が同じ数の推論ステップを持っていても、自然言語による難易度が異なることに注意が必要だ。したがって、言語モデルを訓練する際には、数値の複雑さと言語的な課題の両方を考慮することが重要だ。
アダプターチューニングの結果と影響
私たちのアプローチは、アダプターチューニングとMsATデータセットを組み合わせている。この方法は、単にMsATでモデルを微調整するだけよりも良い結果を得られることがわかった。このトレーニングの形式は、MsATでの良いパフォーマンスを達成するだけでなく、現実世界のタスクにも適応できる。
関連研究と他のアプローチ
私たちは、言語モデルの推論スキルを向上させる既存の研究との関連性を探る。他の方法は、数値的推論をモデルに注入するために異なる技術を使っている。しかし、多くは直接的な数値的な答えを出すことに焦点を当てており、それはあまり信頼できない場合がある。私たちの方法は、モデルが複雑な算術問題を段階的に解くように導くことを目指しており、学習プロセスを改善している。
これまでのいくつかの試みは、数学的推論のための専門的なモデルを作成し、既存のモデルと新しい構造を組み合わせている。一つの課題は、数字をマスクするときに情報が失われることだ。私たちのアプローチは、数字を桁ごとにトークン化することで実際の数字を維持し、モデルがより効果的に学習できるようにしている。
制限と今後の方向性
私たちのアプローチで進展はあったものの、いくつかの制限も残っている。現在の研究は特定の二項演算に焦点を当てており、モデルが扱える問題の範囲を制限している。今後の研究では、より複雑な演算を取り込むことが探求される可能性がある。
また、パフォーマンス結果は単一のデコーディング方法を通じて達成されている。複数の答えを生成してその中から最良のものを選択するような代替デコーディング戦略は、さらなるパフォーマンス向上をもたらすかもしれない。
結論
要するに、私たちは小さな言語モデルの数学的推論能力を向上させるための新しい方法を提案する。MsATデータセットで事前トレーニングを行い、効果的な推論形式を採用することで、算数の質問を扱うためのモデルの能力が向上することが示された。構造化された合成タスクでのトレーニングが、実際の数学問題に対してより堅牢なモデルを生み出す可能性がある。私たちの方法のさらなる探求と適応は、この分野でのさらなる進展の可能性を秘めている。
タイトル: Learning Multi-Step Reasoning by Solving Arithmetic Tasks
概要: Mathematical reasoning is regarded as a necessary ability for Language Models (LMs). Recent works demonstrate large LMs' impressive performance in solving math problems. The success is attributed to their Chain-of-Thought (CoT) reasoning abilities, i.e., the ability to decompose complex questions into step-by-step reasoning chains, but such ability seems only to emerge from models with abundant parameters. This work investigates how to incorporate relatively small LMs with the capabilities of multi-step reasoning. We propose to inject such abilities by continually pre-training LMs on a synthetic dataset MsAT which is composed of Multi-step Arithmetic Tasks. Our experiments on four math word problem datasets show the effectiveness of the proposed method in enhancing LMs' math reasoning abilities.
著者: Tianduo Wang, Wei Lu
最終更新: 2023-06-06 00:00:00
言語: English
ソースURL: https://arxiv.org/abs/2306.01707
ソースPDF: https://arxiv.org/pdf/2306.01707
ライセンス: https://creativecommons.org/licenses/by/4.0/
変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。
オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。