Simple Science

最先端の科学をわかりやすく解説

# コンピューターサイエンス# ヒューマンコンピュータインタラクション# マルチメディア# 社会と情報ネットワーク

ライブストリーミングコミュニティにおけるヘイトレイドへの対処

ヘイトレイドと、それが社会的に疎外されたストリーマーに与える影響についての考察。

― 1 分で読む


ストリーミングでのヘイトレストリーミングでのヘイトレイドと戦うら、コミュニティの行動が大事だよ。ヘイトレイドはストリーマーに害を及ぼすか
目次

オンラインハラスメント、特にライブストリーミングコミュニティでのハラスメントは、多くのユーザーに影響を与える重要な問題だよね。これは、ストリーマーに対して有害なメッセージで攻撃する「ヘイトレイド」みたいな形で現れることが多い。この問題は、特に人種的マイノリティやLGBTQ+コミュニティのストリーマーにとって深刻だ。このアーティクルでは、ヘイトレイドやそれがユーザーに与える影響、そしてその解決策について探っていくよ。

ヘイトレイドって何?

ヘイトレイドは、ストリーマーに対する協調攻撃で、通常は多数のアカウントやボットがチャットにヘイトメッセージを流す形で行われるんだ。意味のある交流をするのではなく、ストリーミング体験を妨害して敵対的な環境を作ろうとする。こうしたオンラインの虐待は、リアルタイムでのインタラクションが重要なTwitchのようなプラットフォームでますます一般的になっている。

ストリーマーへの影響

特にマイノリティグループに属するストリーマーにとって、ヘイトレイドはさまざまな害をもたらすよ:

精神的な害

多くのストリーマーは、ヘイトレイドの可能性からライブ配信をすることに不安や恐怖を感じている。配信中にヘイトコメントを受ける可能性があることで、娯楽から不安管理への焦点が移っちゃうんだ。一部のストリーマーは、この攻撃のせいでトラウマを経験したと語っていて、メンタルヘルスが悪化することもあるよ。

コミュニティの喪失

ヘイトレイドは、ストリーマーの周りのコミュニティを壊すことがある。視聴者はハラスメントを避けるために配信を離れるかもしれなくて、それによってストリーマーのオーディエンスやサポートネットワークが減少する。この損失は、ストリーマーがチャンネルから収入を得る能力にも影響し、さらにメンタルヘルスやモチベーションの低下につながるかもしれない。

安全への懸念

極端な場合、攻撃者がストリーマーの個人情報を見つけて暴露することもある。プライバシーの侵害は、リアルライフでの脅威につながることがあって、ストリーマーがオンラインでもオフラインでも安全に感じるのが難しくなる。こうした安全への懸念は、ストリーマーが視聴者とのインタラクションをどう行うかに影響し、自分を守るために過激な対策を取らざるを得なくなることもあるよ。

ヘイトレイドはどうやって起こるの?

ヘイトレイドは、ライブストリーミングプラットフォームの機能を有害な形で利用するんだ。よくある方法は以下の通り:

マスフォローボット

攻撃者は、ボットと呼ばれる自動アカウントを使ってストリーマーをフォローすることがある。これによって通知が大量に発生してチャットが混乱し、真剣な交流が難しくなる。攻撃者は繰り返しフォローしたりアンフォローしたりすることで、常に混乱を引き起こすことができる。

協調メッセージ

ヘイトレイドが発生すると、ボットやユーザーが一度にヘイトメッセージや虐待的なメッセージでチャットを埋めることができる。これによって、会話の通常の流れが壊れ、ストリーマーや視聴者を脅かすカオスな環境が生まれる。

機能の悪用

攻撃者は、コミュニティのインタラクションを促すために設計された機能を悪用することが多いよ。例えば、他のチャンネルにレイドする機能は、ストリーマーが視聴者を支援するために使うものだけど、悪意のあるユーザーによってマイノリティのストリーマーに逆に利用されることもある。彼らはレイドを使ってヘイトメッセージをチャンネルに流し込むことができるんだ。

プラットフォームのモデレーションにおける役割

Twitchのようなプラットフォームには、ユーザーをハラスメントから守る責任があるし、モデレーションへのアプローチもまちまちだよ。ここでは、ストリーミングプラットフォームのモデレーションに関するいくつかの重要ポイントを紹介するね:

コミュニティモデレーション

プラットフォームは通常、ストリーマーがモデレーターを任命してコミュニティを管理できるようにしている。しかし、この戦略の効果は、モデレーターに利用可能なリソースやツールによって左右される。多くのマイノリティストリーマーは、大きなストリーマーと同じレベルの保護が受けられないと感じていて、サポートが不足していると報告しているよ。

アルゴリズムツール

プラットフォームは、有害なコンテンツを検出・管理するためのアルゴリズムツールを実装することがある。しかし、これらのツールはリアルタイムチャットでのヘイトスピーチのすべてのケースを捉えきれないことが多い。攻撃者は創造的で、検出を逃れる方法を見つけて虐待を続けることがあるからね。

効果的な対応の欠如

多くのストリーマーは、ヘイトレイドを報告したときにプラットフォームからの反応が遅いことに不満を抱えている。しばしば、プラットフォームは彼らの懸念を真剣に受け止めたり、迅速な解決を提供したりしないと感じている。この断絶は、ユーザー間に見捨てられた感覚を生むことがあるんだ。

ユーザーの戦略でヘイトレイドに立ち向かう

プラットフォームが重要な役割を果たす一方で、ユーザーもヘイトレイドに立ち向かうための戦略を発展させてきたよ。ストリーマーや視聴者が使えるアプローチは以下の通り:

モデレーションツールの強化

ストリーマーは、有害なメッセージをフィルタリングしたり、不正アカウントをすぐにバンするためのさまざまなモデレーションツールを活用できる。これには、厳格なチャット設定を導入したり、サードパーティのモデレーションボットを使ってチャットルームを管理したりすることが含まれるかも。ストリーマーが自分のチャンネルを積極的にモデレートすることで、視聴者にとって安全な環境を作れるんだ。

サポートネットワーク

他のストリーマーとの間にサポートネットワークを構築することで、マイノリティユーザーが体験や対処方法を共有できる。ストリーマーたちは共にヘイトレイドを報告し合ったり、お互いを促進したりして、孤立に対抗するコミュニティ感を生み出せるよ。

意識と教育

ユーザーにヘイトレイドのリスクについて教育し、個人的な経験を共有することで、問題への意識を高めることができる。自分の体験や対処法について話すことで、ストリーマーは他の人々がハラスメントに立ち向かうための力を与えることができるんだ。

結論

ヘイトレイドは、特にマイノリティのストリーマーにとって、ライブストリーミングコミュニティにとって深刻な課題を示しているよ。これらの協調攻撃は心理的な害を与え、コミュニティを壊し、安全への懸念を生む。プラットフォームとユーザーは、これらの脅威を管理するために効果的な戦略やツールを開発するために協力しなきゃいけない。問題に対する意識が高まるにつれて、モデレーションやコミュニティの安全についての継続的な議論が、ライブストリーミングでのオンラインハラスメントを防ぐためには不可欠なんだ。

オリジナルソース

タイトル: Hate Raids on Twitch: Understanding Real-Time Human-Bot Coordinated Attacks in Live Streaming Communities

概要: Online harassment and content moderation have been well-documented in online communities. However, new contexts and systems always bring new ways of harassment and need new moderation mechanisms. This study focuses on hate raids, a form of group attack in real-time in live streaming communities. Through a qualitative analysis of hate raids discussion in the Twitch subreddit (r/Twitch), we found that (1) hate raids as a human-bot coordinated group attack leverages the live stream system to attack marginalized streamers and other potential groups with(out) breaking the rules, (2) marginalized streamers suffer compound harms with insufficient support from the platform, (3) moderation strategies are overwhelmingly technical, but streamers still struggle to balance moderation and participation considering their marginalization status and needs. We use affordances as a lens to explain how hate raids happens in live streaming systems and propose moderation-by-design as a lens when developing new features or systems to mitigate the potential abuse of such designs.

著者: Jie Cai, Sagnik Chowdhury, Hongyang Zhou, Donghee Yvette Wohn

最終更新: 2023-05-25 00:00:00

言語: English

ソースURL: https://arxiv.org/abs/2305.16248

ソースPDF: https://arxiv.org/pdf/2305.16248

ライセンス: https://creativecommons.org/licenses/by/4.0/

変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。

オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。

著者たちからもっと読む

類似の記事