Simple Science

最先端の科学をわかりやすく解説

# コンピューターサイエンス# 計算と言語

言語を越えたヘイトスピーチへの対処

プロジェクトは、複数の言語で有害なLGBTQ+コメントを特定することを目指している。

― 1 分で読む


オンラインヘイトスピーチとオンラインヘイトスピーチと戦うを特定する。革新的な技術が複数の言語でヘイトスピーチ
目次

最近、ソーシャルメディアは意見や体験をシェアする強力なプラットフォームになってきたよ。ただ、同時に、特にホモフォビアやトランスフォビアに関連するネガティブなコメントも増えてきてる。この論文では、こういった有害なコンテンツを複数の言語で特定するシステムを作るプロジェクトについて話すよ。

プロジェクトの目標

このプロジェクトの主な目標は、LGBTQ+の人たちに対するヘイトスピーチを含むコメントを分類できるシステムを開発することだったんだ。プロジェクトは英語、スペイン語、ヒンディー語、マラヤーラム語、タミル語の5つの言語に焦点を当てたよ。チームは、3つのカテゴリと7つのカテゴリの2つの分類システムを構築し、それぞれ異なるネガティブスピーチを特定することを目指したんだ。

システムの仕組み

このシステムを作るために、チームはBERTというコンピュータモデルを使ったんだ。これは言語関連のタスクに効果的なんだよ。また、XLM-RoBERTaという別のモデルも使って、これは多くの言語のテキストで訓練されてる。このモデルは、ローカルな言語使用に合わせてソーシャルメディアのコメントを使って再訓練されたから、オンラインでのコミュニケーションに敏感になってるんだ。

プロジェクトは、ユーザーがYouTubeのLGBTQ+動画に反応するコメントを大量に集めて準備することが含まれた。このデータは慎重に異なるカテゴリにラベル付けされたけど、コメントの注釈がどうなってるかの詳細情報がなかったから、チームはちょっと苦労したんだ。

トレーニングデータ

プロジェクトのために、主催者は5つの対象言語のコメントが含まれた.csvファイルのデータを提供したよ。コメントは、ヘイトスピーチを含むかどうかに基づいて異なるグループにカテゴリ分けされた。合計で、達成するべき二つの主要なタスクがあったんだ。最初のタスクは、ホモフォビアの発言、非反LGBT+コンテンツ、トランスフォビアの発言の3つのクラスを特定すること。二つ目のタスクは、カウンター・スピーチ、さまざまなタイプのホモフォビアとトランスフォビアのコンテンツ、そして「上記のどれでもない」の7つのカテゴリがあったんだ。

データの課題

このプロジェクトの大きな課題の一つは、各言語グループのデータが不均衡だったことだね。一部の言語は他の言語よりも例が多かったから、効果的なモデルのトレーニングが難しくなった。プロジェクトチームは、異なる言語でヘイトスピーチを特定しようとする以前の試みが混合した結果に終わっていたことに気づいてた。

モデルの再訓練

XLM-RoBERTaモデルは、もともとさまざまな言語が含まれた大規模データセットで訓練されてたけど、チームはヘイトスピーチを特定する特定タスクのパフォーマンスを改善する必要があったんだ。そのために、チームはトレーニング用にTwitterからツイートを集めて、YouTubeのコメントと同じ時間と場所のものにするようにしたよ。このデータをフィルタリングして、不要な文字を削除し、言語スタイルを保つことに注力したんだ。

さらに、チームは異なる書き方のスクリプトを混ぜたサンプルを作ったよ。例えば、マラヤーラム語で書かれたツイートをラテン文字に転写したりしたんだ。このプロセスは、既存のモデル内でローマ字化されたマラヤーラム語の例が不足している問題に対処するためだったんだ。

モデルのファインチューニング

新しいデータでモデルを再訓練した後、チームはラベル付けされたトレーニングデータを使ってファインチューニングしたよ。例が少ないカテゴリをオーバーサンプリングする方法を使って、モデルが各クラスのための十分なトレーニング素材を持つようにしたんだ。モデルは何度もトレーニングされ、そのパフォーマンスを継続的に評価して精度を向上させていったんだ。

結果

このプロジェクトは有望な成果をもたらしたよ。再訓練された新しいモデルは、ベースラインモデルと比べてヘイトスピーチを特定するパフォーマンスが良かった。最初のタスクでは、マラヤーラム語が最高得点を得て、スペイン語が最低だった。二つ目のタスクでも、マラヤーラム語がモデルの中で一番良いパフォーマンスを示して、再訓練プロセスがパフォーマンスに大きな利益をもたらしたことがわかったよ。ただ、スクリプトを混ぜたときに意外な結果が出て、言語によってパフォーマンスが大きく異なることもあったんだ。

問題への対処

ヘイトスピーチを検出するのは難しいタスクだよ。人々がオンラインでネガティブな表現をする方法の多様性があるからね。ソーシャルメディアのコメントはしばしば微妙で、システムは特定の言葉を探すだけでなく、文脈を理解する必要があるんだ。チームは、この複雑さが特定の言語や地域に限ったものではないことを認識していて、そのタスクがさらに重要だと考えてるよ。

データの不足を解決するために、チームは多様性を高めるために合成データを使うことを提案したよ。この合成データは、代表性のない領域のギャップを埋めるのに役立ち、モデルの全体的な効果を向上させる可能性があるんだ。アイデアは、バイアスに対処し、ヘイトスピーチが表現されるさまざまな方法を考慮に入れたトレーニングデータを作成することだったよ。

現実世界のアプリケーション

このプロジェクトの結果は、オンラインでのヘイトスピーチを監視する上で重要な意味を持ってる。特定の言語や地域データでモデルを洗練させることで、LGBTQ+コミュニティを狙った有害なコメントを追跡するのに役立つんだ。これは、より大きなモデルで十分な代表性がないことが多い言語にとって特に重要だよ。

結論

このプロジェクトは、XLM-RoBERTaのようなモデルがさまざまな言語でヘイトスピーチを特定する可能性を成功裏に示したよ。特に関連するデータで再訓練されたときの成果だね。スクリプトを混ぜたデータの追加により一部混合した結果もあったけど、分類パフォーマンスの全体的な向上は、モデルをローカルな言語使用に適応させる重要性を強調してる。

今後、チームはノイズ注入のような技術を探求するなど、方法をさらに洗練させる計画を立ててるよ。継続的な作業によって、これらのモデルが言語や地域を超えてヘイトスピーチを検出し、対処する能力がさらに向上することを期待してるんだ。

オリジナルソース

タイトル: cantnlp@LT-EDI-2023: Homophobia/Transphobia Detection in Social Media Comments using Spatio-Temporally Retrained Language Models

概要: This paper describes our multiclass classification system developed as part of the LTEDI@RANLP-2023 shared task. We used a BERT-based language model to detect homophobic and transphobic content in social media comments across five language conditions: English, Spanish, Hindi, Malayalam, and Tamil. We retrained a transformer-based crosslanguage pretrained language model, XLMRoBERTa, with spatially and temporally relevant social media language data. We also retrained a subset of models with simulated script-mixed social media language data with varied performance. We developed the best performing seven-label classification system for Malayalam based on weighted macro averaged F1 score (ranked first out of six) with variable performance for other language and class-label conditions. We found the inclusion of this spatio-temporal data improved the classification performance for all language and task conditions when compared with the baseline. The results suggests that transformer-based language classification systems are sensitive to register-specific and language-specific retraining.

著者: Sidney G. -J. Wong, Matthew Durward, Benjamin Adams, Jonathan Dunn

最終更新: 2023-08-24 00:00:00

言語: English

ソースURL: https://arxiv.org/abs/2308.10370

ソースPDF: https://arxiv.org/pdf/2308.10370

ライセンス: https://creativecommons.org/licenses/by/4.0/

変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。

オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。

著者たちからもっと読む

類似の記事