ペルシャ語における大規模言語モデルの評価
この研究では、ペルシャ語を使ったLLMのパフォーマンスを評価してるよ。
― 1 分で読む
この記事では、大規模言語モデル(LLMS)がペルシャ語でどれだけうまく機能するかを見ていくよ。ChatGPTみたいなモデルは英語では素晴らしいけど、リソースが少ない言語、例えばペルシャ語ではどうなのかを理解したいんだ。主にChatGPTのGPT-3.5-turboに焦点を当てるけど、より広い理解のためにGPT-4やOpenChat-3.5も含めるね。
研究の目的
私たちは、ペルシャ語のさまざまなタスクにおけるLLMsの詳細な評価を行うことを目指しているよ。このタスクを3つの主要なグループに分類したんだ:クラシックタスク、推論タスク、知識に基づくタスク。推論タスク用のペルシャ語データセットがあまりないから、基本的な数学の質問を含む新しいベンチマークを2つ作ったよ。
主要な発見
私たちの分析によると、GPT-4のようなLLMsは推論や一般知識を必要とするタスクで良い成績を出すけど、特定のタスクに特化した小さいモデルには及ばないことが多いんだ。また、GPT-3.5を使う前にテスト問題を英語に翻訳するとパフォーマンスが改善されることもわかったよ。
ペルシャ語のNLPにおける重要性
ペルシャ語は、イランや周辺地域で何百万もの人々によって話されている重要な言語だよ。多くの高リソース言語とは異なるアルファベットや書き方を持っている独自の特徴があるんだ。LLMsがペルシャ語をどれだけうまく扱えるかを研究することは、非英語言語の技術を向上させるための道を開く手助けになる。
方法
タスクのカテゴリー
私たちは調査を3つのカテゴリーに分けたよ:
- クラシックタスク:感情分析、感情検出、固有表現認識などのタスクが含まれるよ。
- 推論タスク:モデルの論理や問題解決能力を評価する多肢選択問題が含まれるよ。
- 知識タスク:モデルが学習した情報に基づいて質問に答える必要があるタスクだよ。
データ収集
多くのタスクで公開データセットを使ったけど、リソースが不足している分野のために新しいベンチマークを作成したよ。例えば、実際の試験から小学校の数学の問題を集めて、英語の質問をペルシャ語に翻訳した。
タスクの詳細な内訳
クラシックタスク
感情分析:テキストの感情的なトーンを分析して、ポジティブ、ニュートラル、またはネガティブかを判断するよ。ParsiNLUのデータを使ってる。
感情認識:ポール・エクマンの6つの基本的な感情のフレームワークに基づいて、テキスト内の特定の感情を特定するタスク。
固有表現認識(NER):テキスト内の名前、場所、組織を特定することが目的。これにはArmanNERデータセットを利用したよ。
推論タスク
読解力:与えられた段落から質問に対する答えを見つける必要があるよ。データはParsiNLUデータセットから取ってる。
多肢選択QA:正しい答えを選ぶために論理的推論が必要な質問を作成したよ。
数学と論理:基本的な算数や問題解決を含む数学関連の質問に答えるんだ。
実験のセットアップ
ペルシャ語に対するパフォーマンスを評価するために、さまざまなモデルとタスクを使ってテストを行ったよ。ペルシャ語と英語の両方のプロンプトを使ってモデルを評価した。
結果と観察
パフォーマンスの概要
私たちの結果では:
- クラシックタスク:GPT-4は良い成績を収め、以前のモデルを上回ることが多かった。ただ、GPT-3.5は特にペルシャ語でのプロンプトに対して制限があった。
- 推論タスク:GPT-3.5は苦戦したけど、GPT-4はより多くの例で改善が見られた。
- 知識タスク:GPT-4は一般的な話題に関してはしっかりした知識を示したけど、ペルシャ文学には深みがなかった。
プロンプト言語の影響
一つの大きな発見は、英語のプロンプトを使うことで全体的にパフォーマンスが良くなることだった。ペルシャ語から英語に例を翻訳して入力すると、回答の精度が上がることもわかったよ。
面した課題
私たちの研究は、非英語の文脈でのLLMsの展開にいくつかの課題を明らかにしたよ。
- 限られたリソース:ペルシャ語は英語ほどの膨大なデータセットがないから、トレーニングと評価が難しい。
- モデルの限界:多くのモデルは、ペルシャ語のタスクを直接解釈するように求めると期待通りには機能しなかった。
結論と今後の課題
ペルシャ語のLLMsの評価はまだ初期段階にあるよ。私たちの結果は、リソースが少ない言語でのLLMパフォーマンスを向上させるための大きな機会があることを示している。今後の研究では、既存のデータセットを拡充し、より高度なタスクを探求することができるよ。
これらのモデルが非英語の文脈でどのように機能するかを引き続き研究することで、ペルシャ語話者のためのより良いツールを開発し、AI技術における多言語対応能力を向上させられるんだ。
謝辞
この研究にインサイトやデータを提供してくれたすべての貢献者に感謝の意を表するよ。共同作業の重要性を強調して、NLPの進歩に向けた取り組みを支えているんだ。
この研究は、大規模言語モデルとペルシャ語のテキスト理解と生成の効果に関連する将来の調査や応用の基礎を築いているよ。
タイトル: Benchmarking Large Language Models for Persian: A Preliminary Study Focusing on ChatGPT
概要: This paper explores the efficacy of large language models (LLMs) for Persian. While ChatGPT and consequent LLMs have shown remarkable performance in English, their efficiency for more low-resource languages remains an open question. We present the first comprehensive benchmarking study of LLMs across diverse Persian language tasks. Our primary focus is on GPT-3.5-turbo, but we also include GPT-4 and OpenChat-3.5 to provide a more holistic evaluation. Our assessment encompasses a diverse set of tasks categorized into classic, reasoning, and knowledge-based domains. To enable a thorough comparison, we evaluate LLMs against existing task-specific fine-tuned models. Given the limited availability of Persian datasets for reasoning tasks, we introduce two new benchmarks: one based on elementary school math questions and another derived from the entrance exams for 7th and 10th grades. Our findings reveal that while LLMs, especially GPT-4, excel in tasks requiring reasoning abilities and a broad understanding of general knowledge, they often lag behind smaller pre-trained models fine-tuned specifically for particular tasks. Additionally, we observe improved performance when test sets are translated to English before inputting them into GPT-3.5. These results highlight the significant potential for enhancing LLM performance in the Persian language. This is particularly noteworthy due to the unique attributes of Persian, including its distinct alphabet and writing styles.
著者: Amirhossein Abaskohi, Sara Baruni, Mostafa Masoudi, Nesa Abbasi, Mohammad Hadi Babalou, Ali Edalat, Sepehr Kamahi, Samin Mahdizadeh Sani, Nikoo Naghavian, Danial Namazifard, Pouya Sadeghi, Yadollah Yaghoobzadeh
最終更新: 2024-04-02 00:00:00
言語: English
ソースURL: https://arxiv.org/abs/2404.02403
ソースPDF: https://arxiv.org/pdf/2404.02403
ライセンス: https://creativecommons.org/licenses/by/4.0/
変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。
オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。
参照リンク
- https://github.com/Ipouyall/Benchmarking_ChatGPT_for_Persian
- https://doi.org/10.48550/arxiv.2207.11808
- https://github.com/miras-tech/MirasText
- https://jon.dehdari.org/corpora
- https://www.kanoon.ir/Public/ExamQuestions
- https://sampad.gov.ir/
- https://huggingface.co/openchat/openchat
- https://huggingface.co/persiannlp/mt5-small-parsinlu-sentiment-analysis
- https://huggingface.co/persiannlp/mt5-base-parsinlu-sentiment-analysis
- https://huggingface.co/persiannlp/mt5-large-parsinlu-sentiment-analysis
- https://huggingface.co/persiannlp/wikibert-base-parsinlu-entailment
- https://huggingface.co/persiannlp/mt5-base-parsinlu-snli-entailment
- https://huggingface.co/persiannlp/mt5-large-parsinlu-snli-entailment
- https://huggingface.co/persiannlp/parsbert-base-parsinlu-entailment
- https://huggingface.co/persiannlp/mbert-base-parsinlu-entailment
- https://huggingface.co/FacebookAI/xlm-roberta-large
- https://huggingface.co/google-bert/bert-base-multilingual-cased
- https://huggingface.co/google/mt5-large
- https://huggingface.co/HooshvareLab/bert-fa-base-uncased-ner-arman
- https://huggingface.co/persiannlp/mt5-small-parsinlu-multiple-choice
- https://huggingface.co/persiannlp/mt5-base-parsinlu-multiple-choice
- https://huggingface.co/persiannlp/mt5-large-parsinlu-multiple-choice
- https://huggingface.co/persiannlp/mt5-small-parsinlu-arc-comqa-obqa-multiple-choice
- https://huggingface.co/persiannlp/mt5-base-parsinlu-arc-comqa-obqa-multiple-choice
- https://huggingface.co/persiannlp/mt5-large-parsinlu-arc-comqa-obqa-multiple-choice
- https://huggingface.co/persiannlp/mt5-small-parsinlu-squad-reading-comprehension
- https://huggingface.co/persiannlp/mt5-base-parsinlu-squad-reading-comprehension
- https://huggingface.co/persiannlp/mt5-large-parsinlu-squad-reading-comprehension
- https://huggingface.co/Toshifumi/distilbert-base-multilingual-cased-finetuned-emotion
- https://huggingface.co/MilaNLProc/xlm-emo-t
- https://github.com/AmirAbaskohi/Persian-Emotion-Detection-using-ParsBERT-and-Imbalanced-Data-Handling-Approaches
- https://huggingface.co/Toshifumi/bert-base-multilingual-cased-finetuned-emotion
- https://huggingface.co/persiannlp/mt5-small-parsinlu-opus-translation_fa_en
- https://huggingface.co/persiannlp/mt5-base-parsinlu-opus-translation_fa_en
- https://huggingface.co/persiannlp/mt5-large-parsinlu-opus-translation_fa_en
- https://huggingface.co/persiannlp/mt5-small-parsinlu-translation_en_fa
- https://huggingface.co/persiannlp/mt5-base-parsinlu-translation_en_fa
- https://huggingface.co/persiannlp/mt5-large-parsinlu-translation_en_fa