オンラインでの性差別対策:検出のためのフレームワーク
オンラインのセクシズムを効果的に特定して分類する研究。
― 1 分で読む
オンラインのセクシズムは、今日のデジタル世界での増加する問題だね。オンラインでシェアされるテキストが膨大な量に達しているから、こういった有害な行動を特定して理解する方法を見つけることが大事なんだ。セクシズムには、性別や人種、性的指向などの他のアイデンティティに基づいて女性に向けられた否定的なコメントが含まれることがあるよ。
オンラインセクシズムを検出することは、みんなが安全にインターネットを使えるようにするために重要な作業なんだ。セクシストコンテンツを特定するツールはあるけど、なぜそれがセクシストとみなされるのかを説明するのが難しいんだ。私たちの仕事は、単にセクシストなコメントを特定するだけでなく、それがなぜそう見なされるのかを明確に説明することを目指しているんだ。
セクシズム検出の課題
オンラインセクシズムを検出する作業は、3つの部分に分けられるよ。
- バイナリーセクシズム検出: これは特定のテキストがセクシストかどうかを判断する作業。
- セクシズムのカテゴリー: テキストがセクシストと認定された場合、この作業では脅威、侮辱、敵意、偏見のある議論など、具体的なカテゴリーに分類するんだ。
- 詳細なセクシズムのカテゴリー: この作業はさらに進んで、カテゴリーの詳細な側面を特定することで、テキストに見られる特定のセクシズムのタイプをより良く理解することを目的にしているよ。
この問題をこれらのタスクに分けることで、オンラインセクシズムに対処するための明確なフレームワークを作れるんだ。
私たちのアプローチ
これらのタスクに取り組むために、トランスフォーマーという技術を使った高度なモデルを使用したよ。RedditやGabなどのプラットフォームから集めた関連データでこれらのモデルをファインチューニングして、テキストを正確に分類できるようにしたんだ。
実験では、トランスフォーマーモデルを組み合わせる異なる方法や、事前に学習したモデルを使ってセクシストコメントを理解し分類する能力を向上させることを試みたよ。セクシズムを検出するだけでなく、その分類の理由を明らかにするシステムを目指していたんだ。
データセットの概要
私たちが使用したデータセットは、GabとRedditからのテキストを均等に分けた20,000件のテキストで構成されているよ。これらのテキストは慎重にレビューされ、訓練を受けたアノテーターによってセクシストであるかどうか識別され、分類されたんだ。
データセットには、各テキストに対して次の3つのタイプのラベルが含まれていた:
- テキストがセクシストかどうかを示すラベル。
- テキスト内に存在するセクシズムのタイプを分類するラベル、該当する場合。
- 表現されたセクシズムの性質についての詳細な洞察を提供するラベル。
データセットは、トレーニングデータ、バリデーションデータ、テストデータの3つの部分に整理されていた。このセットアップにより、モデルが効果的に学ぶことができるようになって、新しいデータでテストできたんだ。
方法論
私たちの作業の中心は、RoBERTaやDeBERTaと呼ばれるトランスフォーマーモデルを使用することだったよ。これらのモデルはテキスト分類タスクを処理するために作られていて、自然言語処理のさまざまなアプリケーションで大きな可能性を示しているんだ。
最終モデルを作成するために、これらのトランスフォーマーの最後の層を取り、その上にマルチレイヤーパセプトロン(MLP)を接続して予測を行う助けにしたよ。
また、ドメイン適応前学習という技術を導入した。この方法では、分類タスクに適用する前に、私たちの研究分野に特化したテキストでモデルをトレーニングするんだ。このステップは、モデルがセクシストコメントで使われている言語のニュアンスを認識し解釈するのに役立つから大事なんだ。
結果
私たちの努力は、分類タスクで有望な結果につながったよ。マクロF1スコアを記録して、私たちのシステムが各サブタスクでどれだけうまく機能したかを示したんだ。これらのスコアは、私たちの分析に関与するさまざまなクラスの精度と再現率のバランスを反映しているから重要なんだ。
良いスコアを達成したにもかかわらず、モデルがいくつかの分野で苦しんでいることを認識したよ。たとえば、しばしばセクシストなテキストを非セクシストとして誤分類してしまうんだ。これはオンラインセクシズムを軽減する上で重要なリスクになるね。
セクシストなテキストの約35%が非セクシストとして誤って認識されていたんだ。この種のエラーは、本当に有害なコメントが正しくフラグされるようにシステムを改善する重要性を浮き彫りにするよ。
エラー分析
モデルがどこで短所を抱えているかを理解するために、詳細なエラー分析を行ったんだ。
タスクA
最初のタスクでは、混乱行列がモデルが非セクシストなテキストを特定するのにかなり正確であることを示していた。しかし、セクシストなテキストを検出する際に課題が生じたんだ。実際にセクシストな多くの事例が誤分類されてしまった。
これは、トレーニングセットのセクシストなテキストの例が限られていたことに起因しているようだね。もっと多様で多数のサンプルがあれば、モデルはセクシストな言語に関連するパターンをよりよく学べたはずなんだ。
タスクB
2つ目のタスクでは、テキスト内に存在するセクシズムのタイプを分類する必要があった。混乱行列は、モデルが侮辱と敵意を正確に区別するのに苦労していることを示していた。
これらの誤分類は、モデルが追加のトレーニングデータと、似たようなカテゴリー間の微妙な違いを理解するための改善を必要としていることを示唆しているよ。
今後の方向性
現在のモデルの限界を認識したことで、パフォーマンスを向上させる方法を考え始めたんだ。
一つのアイデアは、トレーニングデータの量を増やすことだった。これには、モデルにパターンや文脈を拾うチャンスを与えるために、より多くのセクシストコンテンツの例を集めることが含まれるよ。
また、モデルが高い信頼度でラベルを付けられる無ラベルデータにラベルを付ける擬似ラベリングを使用することも考えた。これにより、手動でのアノテーションを広範に行わなくてもトレーニングセットを増やすことができるんだ。
もう一つの可能性は、言語モデルを使って同様のセクシストコンテンツの例を生成する合成データを作ることだね。これにより、オンラインソースから集める必要なくトレーニング用の資料を増やすことができるんだ。
結論
私たちの作業は、オンラインセクシズムを検出し理解することの重要性を強調しているよ。セクシストコンテンツを分類し説明するモデルの開発において大きな進展があったけど、まだやるべきことがたくさんあるんだ。
誤分類を最小限に抑え、文脈の理解を深めるためにモデルを改善することが、みんなにとってオンラインプラットフォームをより安全にするキーになるだろう。データを集め続け、技術を洗練して、モデルアーキテクチャを強化することで、オンラインセクシズムの検出と理解がより良くなっていくはずだよ。
タイトル: Attention at SemEval-2023 Task 10: Explainable Detection of Online Sexism (EDOS)
概要: In this paper, we have worked on interpretability, trust, and understanding of the decisions made by models in the form of classification tasks. The task is divided into 3 subtasks. The first task consists of determining Binary Sexism Detection. The second task describes the Category of Sexism. The third task describes a more Fine-grained Category of Sexism. Our work explores solving these tasks as a classification problem by fine-tuning transformer-based architecture. We have performed several experiments with our architecture, including combining multiple transformers, using domain adaptive pretraining on the unlabelled dataset provided by Reddit and Gab, Joint learning, and taking different layers of transformers as input to a classification head. Our system (with team name Attention) was able to achieve a macro F1 score of 0.839 for task A, 0.5835 macro F1 score for task B and 0.3356 macro F1 score for task C at the Codalab SemEval Competition. Later we improved the accuracy of Task B to 0.6228 and Task C to 0.3693 in the test set.
著者: Debashish Roy, Manish Shrivastava
最終更新: 2023-04-10 00:00:00
言語: English
ソースURL: https://arxiv.org/abs/2304.04610
ソースPDF: https://arxiv.org/pdf/2304.04610
ライセンス: https://creativecommons.org/licenses/by/4.0/
変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。
オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。