ソーシャルメディアの投稿でのセクシズムの検出
プロジェクトはオンラインの空間で有害な言葉を特定することに集中してるよ。
― 1 分で読む
目次
SNSは私たちの生活の大きな一部になったけど、それと同時にネット上での憎悪や虐待、性差別的な言葉も増えちゃった。この問題は重要だから、研究者たちは自動的にこうした有害な言葉を見つけてラベルを付ける方法を作ろうとしてる。最近のプロジェクトは、特に英語のSNS投稿における性差別を検出することに焦点を当ててる。このプロジェクトには、性差別的なコンテンツを見つけること、広いカテゴリーに分類すること、そしてそれをもっと具体的なタイプに分けることの3つのメインタスクがある。
性差別検出の課題
性差別的な言葉を見つけるのは簡単じゃない。多くの人は性差別を女性への直球の侮辱だと思ってるけど、実はもっと微妙な偏見やステレオタイプも含まれる。だから、有害な言葉を探すためのデータセットは、こうした隠れた形の性差別を逃しがちなんだ。最近、性差別を特定することへの関心が高まって、検出方法を改善するためのさまざまな共同作業が行われてる。
問題へのアプローチ
このプロジェクトでは、研究者たちは3つのタスクに対してマルチタスクモデルを使った。まず、虐待的な言葉を認識する一般的なモデルを訓練し、それをこのプロジェクトの特定のタスクに微調整したんだ。モデルは異なるタスクを一緒に見てパターンを認識しやすくするマルチタスク学習という方法を使った。
モデルは、2つの部分から入力を受け取った。最初の部分はタスクに関する情報、2つ目は分類が必要なテキスト。こうすることで、研究者はモデルが入力テキストが与えられた説明に合ってるか予測できるようにした。
データ収集
モデルを訓練するために、大量のデータが必要だった。ヘイトスピーチや攻撃的なコメント、フェミニズムや中絶に関する感情など、有害な言葉に関連した広範なデータセットを集めた。この収集によって、さまざまな有害な言葉を認識できるようにするための560,000以上の例が得られた。
訓練プロセス
モデルの訓練には3つの主要なステージがあった。最初のステージでは、集めたデータ全体で虐待的な言葉を検出する一般的なモデルを訓練した。次に、このモデルをプロジェクトの特定のタスクに微調整した。そして最後に、達成したい特定のタスクにモデルを集中させた。
訓練の結果は良好だった。性差別を検出する最初のタスクではモデルは高得点を達成したけど、2つ目と3つ目のサブタスクでカテゴリーが増えるとパフォーマンスが低下した。
マルチタスク学習の重要性
マルチタスク学習はかなり役に立った。特に性差別を認識するのに結果が大きく改善された。研究は、ラベルに対して追加の説明を使うことでパフォーマンスが向上することを示した。ただし、特定のデータセットの識別子を追加することが分類に役立つかどうかは結果がまちまちだった。
補助データセットの使用
メインの訓練データに加えて、さまざまなオンラインプラットフォームからのヘイトスピーチや攻撃的な言語の例を含む他のデータセットタイプを使った。これらの補助データセットは、モデルをさらに訓練するのに役立ち、微妙な性差別を認識するのがより強固になった。
ラベル説明の役割
ラベルの説明はモデルが各タスクが何を含むか理解するのに重要だった。これらの説明はコンテキストを提供し、モデルがテキストが与えられた基準に合ってるか予測するのを助けた。ただし、同じラベルが異なるデータセットでどう定義されるかに関してのバリエーションなど、いくつかの課題もあった。
モデル性能の評価
テスト中、モデルは最初のタスクでは良好なパフォーマンスを発揮したが、2つ目と3つ目のタスクでは中程度だった。研究者たちは、カテゴリーを少なくする方が方法がうまく機能することを発見した。クラスの数が増えるとパフォーマンスが低下し、微妙な性差別を検出する際の課題が浮き彫りになった。
クラス分布と課題
プロジェクトはクラス分布の問題に直面した。一部のクラスには非常に少ない例しか含まれておらず、モデルが効果的に学ぶのが難しかった。研究者たちは、これらのクラスのバランスを取るためにアップサンプリングなどの技術を使い、パフォーマンスを改善した。
エラー分析
モデルのエラーを分析した結果、密接に関連するカテゴリ内で多くの誤分類が発生していることがわかった。たとえば、モデルは異なるタイプの有害なコンテンツを混同することがあった。これは、モデルが広いカテゴリーを比較的うまく識別できる一方で、細かいディテールには苦労していることを示している。
結論
要するに、このプロジェクトはSNS投稿における性差別を検出して分類するモデルの構築に焦点を当てた。研究者たちはマルチタスク学習アプローチを使って、関連するさまざまなタスクとデータセットから学ばせることで、モデルをより効果的にした。最初のタスクの結果は強力だったが、微妙な性差別の認識や分類にはまだ成長の余地があることがわかった。
有害な言葉を検出する方法の改善は、今日のデジタル社会では重要なことだ。これらの問題への認識が高まるにつれ、自動的に問題のあるコンテンツをフラグ付けするツールや方法の価値がますます増していく。この研究は、オンラインモデレーションのためのより良いシステムを作る助けになり、健全なオンラインコミュニケーション環境に貢献するだろう。
今後の研究
今後は、すべてのタスクでのパフォーマンスを向上させるためにモデルを改善することに焦点を当てる必要がある、特に複雑なカテゴリーでは。これには、より大きいまたは多様なデータセットの使用、訓練方法の改善、ラベル説明の強化が含まれるだろう。目指すのは、有害な言葉を検出するだけでなく、その分類の理由を説明できるツールを開発することだ。
最後の考え
私たちの社会が性差別や有害な言葉に関連する問題に取り組み続ける中で、これらの問題に対処するための適切なツールに投資することが重要だ。この研究からの発見は、すべてのユーザーにとって安全なオンラインスペースを作るための一歩に過ぎない。協力し、過去の努力から学ぶことで、SNSなどでの有害な言葉の理解と検出をさらに改善していくことが目標だ。
タイトル: CL-UZH at SemEval-2023 Task 10: Sexism Detection through Incremental Fine-Tuning and Multi-Task Learning with Label Descriptions
概要: The widespread popularity of social media has led to an increase in hateful, abusive, and sexist language, motivating methods for the automatic detection of such phenomena. The goal of the SemEval shared task \textit{Towards Explainable Detection of Online Sexism} (EDOS 2023) is to detect sexism in English social media posts (subtask A), and to categorize such posts into four coarse-grained sexism categories (subtask B), and eleven fine-grained subcategories (subtask C). In this paper, we present our submitted systems for all three subtasks, based on a multi-task model that has been fine-tuned on a range of related tasks and datasets before being fine-tuned on the specific EDOS subtasks. We implement multi-task learning by formulating each task as binary pairwise text classification, where the dataset and label descriptions are given along with the input text. The results show clear improvements over a fine-tuned DeBERTa-V3 serving as a baseline leading to $F_1$-scores of 85.9\% in subtask A (rank 13/84), 64.8\% in subtask B (rank 19/69), and 44.9\% in subtask C (26/63).
著者: Janis Goldzycher
最終更新: 2023-06-06 00:00:00
言語: English
ソースURL: https://arxiv.org/abs/2306.03907
ソースPDF: https://arxiv.org/pdf/2306.03907
ライセンス: https://creativecommons.org/licenses/by/4.0/
変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。
オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。