新しいデータ手法で大規模言語モデルを改善する
大型言語モデルのための指示調整データを集める新しい方法。
― 1 分で読む
高品質な指示調整データは、大規模言語モデル(LLM)を向上させるために重要なんだ。今のデータ収集方法は、高いコストがかかったり、正確じゃなかったりすることが多いから、手動でラベル付けしたり、LLMが自分でタスクを作ったりするのに頼ってると、間違いが起きることがある。この研究は、自動的にこのデータを集める新しい方法を紹介してる。人が書いたテキストを使って、タスクを作るために言語モデルを訓練することで、プロセスが改善されるんだ。
タイトル: DoG-Instruct: Towards Premium Instruction-Tuning Data via Text-Grounded Instruction Wrapping
概要: The improvement of LLMs' instruction-following capabilities relies heavily on the availability of high-quality instruction-response pairs. Unfortunately, the current methods used to collect the pairs suffer from either unaffordable labor costs or severe hallucinations in the self-generation of LLM. To tackle these challenges, this paper proposes a scalable solution. It involves training LLMs to generate instruction-response pairs based on human-written documents, rather than relying solely on self-generation without context. Our proposed method not only exploits the advantages of human-written documents in reducing hallucinations but also utilizes an LLM to wrap the expression of documents, which enables us to bridge the gap between various document styles and the standard AI response. Experiments demonstrate that our method outperforms existing typical methods on multiple benchmarks. In particular, compared to the best-performing baseline, the LLM trained using our generated dataset exhibits a 10\% relative improvement in performance on AlpacaEval, despite utilizing only 1/5 of its training data. Furthermore, a comprehensive manual evaluation validates the quality of the data we generated. Our trained wrapper is publicly available at https://github.com/Bahuia/Dog-Instruct.
著者: Yongrui Chen, Haiyun Jiang, Xinting Huang, Shuming Shi, Guilin Qi
最終更新: 2024-05-25 00:00:00
言語: English
ソースURL: https://arxiv.org/abs/2309.05447
ソースPDF: https://arxiv.org/pdf/2309.05447
ライセンス: https://creativecommons.org/licenses/by/4.0/
変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。
オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。