物語予測を通じたサポートされていない主張の理解
オンラインディスカッションでの裏付けのない主張を分類する新しいアプローチ。
― 1 分で読む
目次
日常生活の中で、裏付けがなくて検証が難しい主張にしばしば出くわすよね。こういう主張は、いろんなトピックについての意見や見解に影響を与えることがあるけど、特に議論が広がったり混沌としたりすると、これらの主張を分類したり理解したりするのが難しい場合がある。このアーティクルでは、ナラティブ予測という新しいアプローチを通じて、これらの裏付けのない主張をよりよく理解して分類する方法に焦点を当てるよ。
ナラティブ予測の重要性
特にオンラインでの公共の議論の中でナラティブを特定する能力はめっちゃ大事。これがあれば、いろんな主張の妥当性を評価するのに役立つ。オンラインプラットフォームはさまざまなテーマの議論のホットスポットになってるけど、明確な主張が欠けていることが多い。こういう議論の中で特定のナラティブを見つけることで、ファクトチェックを行う人たちは主張や議論の正確さをより効果的に評価できるんだ。
ナラティブ、主張、議論の定義
理解を深めるために、まずナラティブ、主張、議論が何を意味するかを定義するね:
- ナラティブ:ナラティブは特定のトピックについての明確な声明で、個人の視点を反映してる。証拠があるかどうかは関係ない。
- 主張:主張は、単に証拠がない声明や提案のこと。
- 議論:議論は、証拠や理由によって裏付けられた主張。特定の視点を正当化することが目的。
たとえば、「人間のクローンは倫理的ではない」というのは主張で、これを支持する証拠(例:クローンに関する倫理的な懸念)を含むのが議論だよ。
裏付けのない主張の課題
多くの主張は議論と見なすのに十分な証拠がなく、ファクトチェックが難しくなる。公共の議論をよりよく理解するためには、裏付けのない主張を特定する必要がある。このタスクをナラティブ予測と呼んでいて、こういう主張を認識可能なナラティブのセットに分類することを目指してる。
分析のためのデータのクラウドソーシング
リサーチをサポートするために、さまざまなオンラインソースから12万以上の議論、主張、コメントの大規模データセットを集めた。これらの例は、議論のあるトピックにカテゴライズされていて、分析を助けるためにナラティブラベルが付けられてる。
大規模言語モデルの役割
大規模言語モデル(LLM)が主張の統合を助ける方法を探ったよ。インコンテキストラーニングというメソッドを使うことで、証拠付きの主張がナラティブ分類モデルのパフォーマンスを向上させることが分かった。この発見は、LLMが限られた数のトレーニング例からスタンスや側面を推測できることを示唆してる。
ナラティブ特定の方法論
私たちの方法論では、トピック、スタンス、側面、証拠などの追加属性を考慮して、ナラティブを主張や議論から区別してる。たとえば、クローンに関するトピックは倫理的な影響や科学的な進展に関するナラティブを含むかもしれない。
証拠の重要性
証拠は、声明の信頼性を評価する上で非常に重要。主張が証拠によって支持されると、それはより強い議論に変わる。一方、証拠がない声明は単なる主張のままだ。
パロット仮説の紹介
パロット仮説は、あるソーシャルメディアの議論において、ユーザーの貢献から限られた数の異なるナラティブが出現することを提唱してる。人々は多様で飾られた形で自分の意見を表現するけど、こうした表現は認識可能なナラティブの有限なセットに抽出できる。このアプローチは、複雑な議論の評価を分類タスクに簡略化するのに役立つ。
ナラティブ予測のプロセス
ナラティブ予測の目的は、ツイートを分析してそのナラティブを特定し、適切に分類すること。各ツイートには複数のナラティブが含まれることがあるけど、明確さを保つために1つのナラティブだけを割り当てるようにしてる。
データ収集と注釈
データセットを効果的に注釈付けするために、Amazon Mechanical Turkを使用した。最初のステップでは、注釈者が主張と議論の違いを理解しているか確認するためのプレテストを行った。その後、注釈者はツイートをそれぞれのナラティブに基づいて分類した。
データセットの特徴
Twitter-Narratives-9 (TN9) とUKP-Corpusの拡張版という2つのデータセットを作成した。これらのデータセットは、ナラティブ予測テクニックのトレーニングと評価を可能にする。
予測向上のためのテクニック
私たちは、Prompt, Condition, and Generate (PCG)というフレームワークを提案した。このフレームワークは、特定されたスタンスや側面に基づいて合成例を生成することで、ナラティブ予測を向上させるためにLLMを活用する。
ナラティブ予測の評価
ナラティブ予測モデルを評価するために、そのパフォーマンスを既存のベースラインと比較した。Rouge-L F1スコアなどのさまざまな指標を使用して、予測されたナラティブの質を定量化した。
結果と議論
私たちの発見は、LLMによって生成された合成ツイートを使用することで、ナラティブ予測のパフォーマンスが大幅に向上することを示してる。この研究は、特に対立したトピックにおけるスタンスや側面予測の課題も浮き彫りにする。
今後の方向性
今後は、方法を洗練させて、ナラティブ予測のためのアンサンブル技術を探求したいと思ってる。私たちのアプローチは、複数のトピックやナラティブを含めるように適応できて、より包括的な分析が可能になる。
結論
ナラティブの明確な定義を作って、分類のための高度なテクニックを活用することで、公共の議論をより良く分析できる。ナラティブ予測に関する作業は、オンラインの議論の急速に変わる状況の中で、裏付けのない主張を理解し評価する能力を向上させるための一歩だよ。
タイトル: Prompt, Condition, and Generate: Classification of Unsupported Claims with In-Context Learning
概要: Unsupported and unfalsifiable claims we encounter in our daily lives can influence our view of the world. Characterizing, summarizing, and -- more generally -- making sense of such claims, however, can be challenging. In this work, we focus on fine-grained debate topics and formulate a new task of distilling, from such claims, a countable set of narratives. We present a crowdsourced dataset of 12 controversial topics, comprising more than 120k arguments, claims, and comments from heterogeneous sources, each annotated with a narrative label. We further investigate how large language models (LLMs) can be used to synthesise claims using In-Context Learning. We find that generated claims with supported evidence can be used to improve the performance of narrative classification models and, additionally, that the same model can infer the stance and aspect using a few training examples. Such a model can be useful in applications which rely on narratives , e.g. fact-checking.
著者: Peter Ebert Christensen, Srishti Yadav, Serge Belongie
最終更新: 2023-09-19 00:00:00
言語: English
ソースURL: https://arxiv.org/abs/2309.10359
ソースPDF: https://arxiv.org/pdf/2309.10359
ライセンス: https://creativecommons.org/licenses/by/4.0/
変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。
オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。