Simple Science

最先端の科学をわかりやすく解説

# コンピューターサイエンス# 社会と情報ネットワーク

インセルフォーラムの暴力的言語トレンド

研究がインセルコミュニティにおける暴力的な言葉の増加を分析してるよ。

― 1 分で読む


インセルとオンラインの暴力インセルとオンラインの暴力的な言葉調べる。インセルフォーラムでの有害な言葉の増加を
目次

この研究は、特定のオンライングループ「インセル」の暴力的な言語の使い方を調査してるよ。「インセル」っていうのは「非自発的な独身者」を指してて、主にロマンチックな関係を築くのに苦労してる男性たちのこと。彼らはネットでフラストレーションや怒りを表現することが多いんだ。

私たちは、incels.isっていうインセルフォーラムから大量の投稿を集めて、どういう風に暴力的な言葉が出現するかを研究したよ。投稿を非暴力的、明示的な暴力的、暗示的な暴力的に分類したんだ。二人のレビュアーがその一部の投稿にラベルを付けて、暴力的な言語をどうやって特定するかを理解する手助けをしたよ。それから、高度な言語モデルを使って残りの投稿を評価したんだ。

結果として、incels.isでは時間が経つにつれて暴力的な言語が増えてることがわかったよ。特にコミュニティに積極的なユーザー間での増加が目立つね。直接的な暴力的メッセージは減少してるけど、非指向の暴力的メッセージは増加していて、自己傷害に関する議論は特に長期間活動しているユーザーの間では減っているんだ。

レビュアー二人は暴力的な言語の評価に同意していて、私たちがテストした言語モデルも彼らのラベルと良い一致を示したよ。最もパフォーマンスが良かったモデルは、さらなるレビューのためにもっと多くの投稿を分析して分類することができたんだ。

インセルの背景

インセルコミュニティは、暴力行為との関連で注目を集めているよ。2014年以降、このグループに関連する50件以上の死亡が報告されてる。特に女性に対する危険な考え方がこのオンラインコミュニティ内で共有されていて、研究者や当局を驚かせてるんだ。一部の当局者は、彼らのイデオロギーからインセルを潜在的なテロリスト脅威とみなしているよ。

これらのフォーラムでの議論は、女性を簡単に引き寄せる男性に対する嫉妬心から生まれることが多く、「チャド」と呼ばれることもあるんだ。こうした対話は有害な考えや表現につながり、女性との関係や相互作用に関する有毒な信念を強化することがあるんだ。

多くの人がインセルを主に暴力的だと見なしてるけど、研究によると彼らは日常生活や趣味についても様々なトピックを議論してるよ。しかし、虐待的で差別的な言葉は依然として大きな問題で、コミュニティのダイナミクスやメンバーのメンタルヘルスにも影響を与えてるんだ。

研究の目的

この研究は、incels.isで見られる暴力的な言語の種類を分類し、この言語が時間とともにどう進化してきたかを分析することを目指してるよ。まずいくつかの投稿に手動でラベルを付けて分類基準を設定し、その後、高度な言語処理ツールを使ってより大きなデータセットを分析したんだ。さらに、アクティブなユーザー間で暴力的な言語が時間とともにどう変化するかも調べたよ。

方法論

incels.isから投稿を集めて、100万件以上のエントリーを得たんだ。このプールから、非暴力的、明示的な暴力的、暗示的な暴力的言語を区別するラベリングシステムを使ってランダムサンプルを分類したよ。

二人の人間のコーダーがこれらの投稿の一部をレビューして、暴力的な言語を特定する最善の方法についての洞察を提供したんだ。彼らの評価は、残りの投稿を分析するための言語モデルのパーシング手法を微調整するのに使われたよ。

私たちが使用した言語モデルは、さまざまなプロンプトでテストされ、異なるバッチで効果的な暴力的言語の分類方法を決定したんだ。最もパフォーマンスが良かったモデルは、私たちの研究のために追加の投稿を分析したよ。

発見

私たちの発見は、分析した投稿の約10%が何らかの形で暴力的な言語を含んでいたことを明らかにしたよ。この割合はほんの少しだけど、時間とともに顕著な上昇傾向を示したんだ。興味深いことに、長期間アクティブでなかったユーザーは、フォーラムに積極的に参加しているときよりも暴力的な言語を使う傾向があることに気づいたよ。

言語ラベリングを強化するために行った実験は、データを管理するための実用的で効率的な方法を提供してくれた。さらに、入力バッチのサイズがモデルが言語を分類する能力に大きな影響を与えることも観察したんだ。

比較研究

最近、研究者たちはインセルフォーラムで使われている言語を探るためにさまざまな手法を使ってるよ。自然言語処理は、コメント内の攻撃性や否定的なパターンを特定するのに役立ってる。以前の研究は、ヘイトスピーチや有毒な言語に焦点を当てていて、インセルコミュニティ内に存在するイデオロギーを理解するための枠組みを確立していたんだ。

コミュニティがどのように機能し、その言語がより広範な差別や敵意のパターンを反映しているかを強調する研究は続けられているよ。この研究は、オンラインでの有害な議論に対処するための戦略を開発するために重要なんだ。

暴力的な言語の種類

暴力的な言語を分類する際、私たちは明示的な暴力と暗示的な暴力の二つの主要なタイプを認識したよ。明示的な暴力は直接的で、識別が容易なんだ。一方、暗示的な暴力はより微妙で、明確な攻撃的な言葉が欠けていることが多いんだ。

私たちの発見では、脅迫や虐待的な発言など、明示的な暴力行為はより認識しやすかったよ。暗示的な言語は、皮肉や暗号化された用語が含まれていて、直接的に言わなくても攻撃的な感情を暗示することがあったんだ。

私たちは、特定の個人またはグループに向けられたかどうかに基づいて言語を分類したよ。指向された暴力は誰か特定の人を狙うけど、非指向の暴力はより広いグループを対象にするんだ。この文脈では、使われる言語はしばしば女性や社会の特定のグループに対する否定的な見解を反映していることが多いんだ。

分類プロセス

投稿を正確に分類するために、私たちは人間のアノテーターによるサンプルのラベリングを含む体系的なアプローチを採用したよ。彼らの分類は、言語モデルの暴力的なコンテンツを特定するパフォーマンスを測定するための信頼できる基準を確立するのに役立ったんだ。

私たちは、異なるアノテーターとラングモデル間の合意を測定するためにコーエンのカッパのような指標を使用したよ。これは、さまざまな投稿に対する分類の信頼性を評価するために重要だったんだ。

人間のレビュアーからのフィードバックを使用して、私たちは言語モデルのプロンプトとバッチサイズを継続的に調整して、分類の精度を向上させたよ。目標は、オンラインの暴力的な言語のニュアンスを特定する際の一貫性と信頼性を達成することだったんだ。

発見の議論

私たちの分析は、全体的に投稿の暴力が増加しており、特にフォーラムで長期間アクティブなユーザーの間で顕著だということを示してるんだ。これは、個人が時間と共に自分の見解に固執し、より極端な暴力表現に至る可能性があることを示唆しているよ。

また、表現される暴力の種類に変化が見られたよ。特に、特定の個人に向けられた暴力が減少し、非指向の暴力が増加していることに気づいたんだ。この変化は、コミュニティの規範が時間と共に変わり、ユーザーが特定の個人を狙うのではなく一般的な攻撃性を表現するのがより快適に感じる可能性を示唆しているよ。

興味深いことに、自己指向の暴力は大幅に減少していて、特に長期間のユーザーエンゲージメントの後に顕著なんだ。この減少は、サポートの影響やよりポジティブな感情表現を促すコミュニティのダイナミクスの変化を反映している可能性があるね。

モデレーションと研究への影響

インセルコミュニティ内での暴力的な言語の普及とその性質を理解することは、コンテンツモデレーターや研究者にとって、オンラインのヘイトスピーチに関する問題に取り組むのに役立つよ。言語使用のパターンを特定することで、モデレーション戦略や有害な信念を緩和するための教育的努力を通じたターゲット介入を開発できるんだ。

言語モデルの利用は、オンラインフォーラムを監視するためのスケーラブルなアプローチを提供するけど、データ処理やユーザーのプライバシーに関する倫理基準を維持することが重要なんだ。また、レビュープロセス中に人間のアノテーターへの感情的な影響にも優先的に対処するべきだね。

結論と今後の方向性

この研究は、incels.isにおける暴力的な言葉の進化に関する重要なトレンドを明らかにして、ユーザーのレベルや時間枠にわたる暴力の顕著な増加を強調してるよ。これらのパターンを理解することで、今後の研究やオンラインコミュニティに存在する有害な言語に対処するための実践的な努力に役立つんだ。

今後の調査では、インセルコミュニティ内での特定のサブグループがどのように異なる形で暴力を表現するかや、社会の変化や危機などの外的な出来事がオンライン行動に与える影響について詳しく調べることができるよ。

私たちの分類フレームワークをインセルコミュニティの用語や文化にもっと正確に反映させるように適応させれば、言語のモデレーションにおけるより効果的な戦略につながるかもしれないね。オンラインのヘイトスピーチがもたらす課題に取り組んで、より健康的なオンライン環境を促進するためには、研究者と実務者の間の継続的な研究と協力が重要になるよ。

オリジナルソース

タイトル: Close to Human-Level Agreement: Tracing Journeys of Violent Speech in Incel Posts with GPT-4-Enhanced Annotations

概要: This study investigates the prevalence of violent language on incels.is. It evaluates GPT models (GPT-3.5 and GPT-4) for content analysis in social sciences, focusing on the impact of varying prompts and batch sizes on coding quality for the detection of violent speech. We scraped over 6.9M posts from incels.is and categorized a random sample into non-violent, explicitly violent, and implicitly violent content. Two human coders annotated 3,028 posts, which we used to tune and evaluate GPT-3.5 and GPT-4 models across different prompts and batch sizes regarding coding reliability. The best-performing GPT-4 model annotated an additional 30,000 posts for further analysis. Our findings indicate an overall increase in violent speech overtime on incels.is, both at the community and individual level, particularly among more engaged users. While directed violent language decreases, non-directed violent language increases, and self-harm content shows a decline, especially after 2.5 years of user activity. We find substantial agreement between both human coders (K = .65), while the best GPT-4 model yields good agreement with both human coders (K = 0.54 for Human A and K = 0.62 for Human B). Weighted and macro F1 scores further support this alignment. Overall, this research provides practical means for accurately identifying violent language at a large scale that can aid content moderation and facilitate next-step research into the causal mechanism and potential mitigations of violent expression and radicalization in communities like incels.is.

著者: Daniel Matter, Miriam Schirmer, Nir Grinberg, Jürgen Pfeffer

最終更新: 2024-01-03 00:00:00

言語: English

ソースURL: https://arxiv.org/abs/2401.02001

ソースPDF: https://arxiv.org/pdf/2401.02001

ライセンス: https://creativecommons.org/licenses/by/4.0/

変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。

オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。

著者たちからもっと読む

類似の記事

ソフトウェア工学ソーシャルメディアでオープンソースのスポンサーシップを盛り上げよう

この記事では、Twitterが開発者がGitHub Sponsorsを通じてスポンサーシップを得るのをどう助けるかを見ていくよ。

― 1 分で読む