AIを活用したコラボレーションストーリーテリング
新しいデータセットが、協力的なストーリーテリングのためのAIの進展を可能にした。
― 1 分で読む
協力的なストーリーテリングは、複数の著者の助けを借りて物語を作ることを含んでるんだ。それぞれの著者が自分の部分を貢献しながら、一貫した物語を維持しようとする。この独特なストーリーテリングの方法は、テキストを理解し生成することを目的としたコンピュータプログラムには挑戦をもたらす。ただ、こういった分野は十分な物語がないから、あまり研究されてこなかったんだ。
この問題に取り組むために、約9,500人の著者が書いた40,000以上の協力的な物語からなる新しいデータセットが作られた。このデータセットには、物語の理解と新しい章の生成を試すためのさまざまなタスクが含まれていて、完全に監視された学習、少数ショット学習、ゼロショット学習など、異なる学習シナリオに役立つようにデザインされてる。
ストーリーテリングの重要性
ストーリーテリングは人類の歴史や文化において重要な役割を果たしてる。人間は常に事実とフィクションを組み合わせた物語を作って、意味のあるメッセージを伝えてきた。現在の物語を生成するコンピュータシステムは、通常、基本的なプロットから始めて、そこから拡張していく。これは物語を直線的に書いたり、段階的に計画したりすることが含まれる。ただし、協力的なストーリーテリングは、固定されたプロットがないため、複雑さが増す。代わりに、物語は一章ずつ構築されていき、前の著者が何を貢献したかを意識する必要がある。
これによって、テキストを生成するだけでなく、他の人が提供した文脈も把握できるプログラムが必要になる。大規模言語モデル(LLM)はこの分野でのエキサイティングな進展で、協力的なストーリーテリングに関連するタスクを解決する可能性を示している。
データセット
さっき言ったデータセットは、ユーザーが一緒に物語を作れるオンラインプラットフォームから得られたもの。このウェブサイトからデータをスクレイピングして、最初のコレクションには約76,000の物語が含まれていた。品質を確保するために、物語は英語のコンテンツに絞り、ノイズが多いか低品質なエントリを排除するようフィルタリングされた。その結果、タイトル、ジャンル、著者の貢献、他のユーザーからの評価などの重要な要素が含まれた40,000以上の物語が含まれるデータセットができた。
物語の理解と生成のタスク
モデルが協力的なストーリーテリングをどれだけうまく扱えるかを評価するために、さまざまなタスクが作成された。これらのタスクは、理解タスクと生成タスクの2つのカテゴリに分けられる。
理解タスク
- ジャンル分類: 物語のジャンルを特定して、モデルがその文脈を把握するのを助ける。
- 著者帰属: 特定の章が誰によって書かれたかを、文体に基づいて判断する。
- 著者検証: 2つの章が同じ著者によって書かれたかどうかをチェックする。
- 接続推論: 2つの章が順番になっているかどうかを推測する。
- 時間的推論: 物語の章の正しい順序を評価する。
- ストーリー評価: いいねや星を基に物語の人間の評価を評価する。
- ストーリーセグメンテーション: 1つの章が終わるところと別の章が始まるところを特定する。
生成タスク
- 次の章生成: 前の章に基づいて新しい章を作成する。
- 条件付きストーリー生成: 物語の完全な続編を書く。
- 章の埋め込み: 2つの既存の章の間に合う章を生成する。
- グローバル埋め込み: 周囲の章を使って文脈を持った章を作成する。
- 時間的順序付け: 時間に基づいて章を配置する。
タスクのベンチマーキング
これらのタスクを使ってモデルの効果を評価するためのベンチマークが作られた。合計101のタスクが含まれていて、理解タスクに大きな重点が置かれている。それぞれのタスクは、異なる学習シナリオに応じてカテゴライズされて、データセット間の重複なしに徹底的な評価を確保している。
パフォーマンス評価では、特定のタスクに対して異なる指標が使われる。例えば、理解タスクにはF-1スコアが使われ、一方で得点タスクには相関係数が使われる。結果は、さまざまなタスクにおけるモデルのパフォーマンスを判断するのに役立つ。
インストラクションチューニング
インストラクションチューニングは、モデルが異なるタスクにより適応できるように訓練される技術だ。この文脈では、2段階のトレーニングプロセスが実施された。最初の段階では、見えない課題に対処する能力を高めるために複数のタスクを使ってモデルを準備した。2段階目では、各特定のタスクに対してモデルを微調整した。この方法は、有望な結果を示していて、こうして訓練されたモデルはさまざまなシナリオでうまく機能することができる。
実験結果
新たに開発されたモデルは、いくつかの強力なベースラインモデルと比較された。理解タスクでは、確立された多くのモデルを上回り、より良いスコアを示した。生成タスクでも好結果を得たが、いくつかのモデルにはやや劣った。これは、新しいモデルが効果的であるものの、改善の余地がまだあることを示している。
さまざまな設定で、このモデルは少数ショットとゼロショット学習シナリオで卓越したパフォーマンスを発揮した。これは、限られた例が与えられた場合でも高いパフォーマンスを維持できることを示唆している。
今後の方向性
この研究は貴重な洞察を提供しているが、さらに探求が必要な領域がいくつかある。一つの大きな懸念は、新しいタスクで訓練されると、モデルが以前に得た知識を忘れてしまう可能性だ。今後の研究は、この問題に対処する技術に焦点を当てるかもしれず、以前の能力を失わずに継続的な改善を可能にする。
また、協力的なストーリー生成のためのより良い評価方法の必要性も重要だ。現在の指標は役立つが、ストーリーテリングに関わる創造性や複雑さを完全には捉えきれないかもしれない。モデルのパフォーマンスを正確に評価するためのより洗練されたベンチマークが必要だ。
倫理的考慮
ストーリーテリングにAIを使用することは、いくつかの倫理的な質問を提起する。生成される物語が有害なステレオタイプや偏見を助長しないことを確保することが重要だ。公正な表現を促進し、ユーザーデータを保護する努力が必要だ。目標は、責任を持ってAI生成コンテンツが作られる一方で、創造性を促進することだ。
結論
協力的なストーリーテリングの登場は、物語がどのように作られ、理解されるかにおいて重要な進展の可能性を秘めたエキサイティングな研究分野を示している。新しいデータセットと提案されたタスクはさらなる研究の基盤を提供する。インストラクションチューニングを活用することで、モデルは物語の理解と生成の両方により適応できるようになる。しかし、倫理的な影響や評価指標の改善の必要性は、今後の探求の重要な分野であり続ける。これらの領域での改善されたアプローチが、協力的なストーリーテリングにおけるAIの役割を強化し、将来の革新への道を切り開くことになるだろう。
タイトル: STORYWARS: A Dataset and Instruction Tuning Baselines for Collaborative Story Understanding and Generation
概要: Collaborative stories, which are texts created through the collaborative efforts of multiple authors with different writing styles and intentions, pose unique challenges for NLP models. Understanding and generating such stories remains an underexplored area due to the lack of open-domain corpora. To address this, we introduce STORYWARS, a new dataset of over 40,000 collaborative stories written by 9,400 different authors from an online platform. We design 12 task types, comprising 7 understanding and 5 generation task types, on STORYWARS, deriving 101 diverse story-related tasks in total as a multi-task benchmark covering all fully-supervised, few-shot, and zero-shot scenarios. Furthermore, we present our instruction-tuned model, INSTRUCTSTORY, for the story tasks showing that instruction tuning, in addition to achieving superior results in zero-shot and few-shot scenarios, can also obtain the best performance on the fully-supervised tasks in STORYWARS, establishing strong multi-task benchmark performances on STORYWARS.
著者: Yulun Du, Lydia Chilton
最終更新: 2023-05-14 00:00:00
言語: English
ソースURL: https://arxiv.org/abs/2305.08152
ソースPDF: https://arxiv.org/pdf/2305.08152
ライセンス: https://creativecommons.org/licenses/by/4.0/
変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。
オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。
参照リンク
- https://beta.openai.com/docs/api-reference/moderations
- https://github.com/unitaryai/detoxify
- https://archive.md/sAOOq
- https://www.latex-project.org/help/documentation/encguide.pdf
- https://github.com/ylndu/storywars
- https://acl-org.github.io/ACLPUB/formatting.html
- https://2023.aclweb.org/calls/main_conference/
- https://aclweb.org/anthology/anthology.bib.gz
- https://www.aclweb.org/portal/content/acl-code-ethics