オンラインメンタルヘルススペースにおけるモデレーションの課題
オンラインメンタルヘルスコミュニティにおけるコンテンツモデレーションの役割を調べる。
― 1 分で読む
目次
より多くの人が世界中のオンラインプラットフォームでつながる中、安全な空間を作るためにコンテンツをモデレートすることが大事だよね。コンテンツモデレーションは、ユーザーが投稿した素材を管理する方法で、特定のガイドラインに合ったものであることや、有害または不適切な内容が含まれていないことを確認するもの。この作業には、自動システム、アルゴリズム、そして人間のモデレーターが協力してルールや基準を守ることが含まれるよ。モデレーションには、プラットフォームレベルとコミュニティレベルの2つの主なタイプがあるんだ。
プラットフォームレベルのモデレーション
プラットフォームレベルのモデレーションは、最も広いレベルで行われて、全体のプラットフォームに焦点を当てるんだ。ユーザー生成コンテンツをサイトのすべてのエリアで規制しようとするもの。モデレーターは、自動ツール、アルゴリズム、人間のチェックを使って、プラットフォーム上のすべての人に一貫したルールを適用するよ。このアプローチは、自傷や自殺に関する議論など、有害なコンテンツをコントロールするのに欠かせない。
コミュニティレベルのモデレーション
コミュニティレベルのモデレーションは、特定のグループやコミュニティ内でのユーザーの積極的な参加に依存するんだ。ユーザーは、コミュニティのガイドラインに違反していると思うコンテンツを報告したり、フラグ付けしたりできる。このアプローチはユーザーの関与を促し、安全な環境を維持するための共通の責任感を育むのに役立つよ。両方のモデレーションタイプは、特に敏感または有害な資料をコントロールするのに重要だね。
モデレーターの役割
モデレーターは、特にメンタルヘルスに焦点を当てたオンラインコミュニティを管理する上で重要な役割を果たすんだ。彼らの責任は、コンテンツをレビューしたり、問題を引き起こす可能性のあるユーザーを特定したり、コミュニティのルールを強制したりすること。モデレーターが取る行動には、有害なコンテンツをブロックしたり、ガイドラインを違反したユーザーを永久に追放したりすることが含まれるよ。この仕事は、すべてのユーザーに質の高い環境を確保するのに役立つ。
でも、モデレーションに対する体験はユーザーによって大きく異なることがあるよ。たとえば、FacebookやInstagramがグラフィックな自傷画像を禁止したとき、Twitterのようなプラットフォームではさまざまな反応が生まれた。ある人は禁止に対して怒りや悲しみを感じて、モデレーションが時々意図しない感情的反応を引き起こすことがあるってことを示している。
モデレーションの課題
特にメンタルヘルスに焦点を当てた環境でのコンテンツモデレーションは、一筋縄ではいかないよ。モデレーターは、ユーザーを潜在的にトリガーになるコンテンツから守ることと、社会的サポートを提供するためのオープンな議論を許可することのバランスを取らなきゃいけない。厳しいモデレーション手法、例えば完全な禁止は、その効果が疑問視されているよ。リサーチによると、ユーザーはしばしば有害なコンテンツを求め、別のハッシュタグを使ったり、テキストなしで投稿したりしてモデレーションシステムを回避するんだ。
プラットフォームがあらかじめ有害な素材を探して取り除こうとしても、効果がないことがある。コンテンツが同じプラットフォームや他のプラットフォームで再び現れたりするから、安全な空間を保つのが難しくなる。
誰がモデレーションの責任を負うべきか?
コンテンツモデレーションを誰が担当するかが問題になってくるよ。プラットフォームレベルのモデレーションは、通常、有給のスタッフを雇用し、自動システムでサポートすることもある。一方、コミュニティレベルのモデレーションは、ユーザーがボランティアでモデレーターの役割を担うことに依存するんだ。モデレーターとしての役割には、目的や承認感を感じるなどの利点があるけど、モデレーションを行う人のメンタルヘルスへの影響に対する懸念もあるよ。
リサーチによると、多くのオンラインモデレーターは定期的に苦痛を伴うコンテンツに遭遇しているんだ。こうした素材にさらされることは、心理的な苦痛や二次的なトラウマを引き起こす可能性があるけど、同僚のサポートがこれらの影響を軽減するのに役立つこともある。いくつかのプラットフォームは、敏感な素材に対処するためのトレーニングやカウンセリングサービスの提供を含む、モデレーターをサポートする戦略を導入し始めているけど、これらの施策がモデレーターの幸福感を向上させる効果があるかはまだ不明だよ。
モデレーターの好みの多様性
すべてのモデレーターが同じサポートを望んでいるわけじゃないよ。精神的な健康の専門家や訓練を受けたプロからの支援を好む人もいれば、実体験を持つ仲間モデレーターが必要なサポートを提供できると考える人もいる。この違いは、メンタルヘルスのスペースにおけるモデレーターの具体的なニーズや好みをよりよく理解する必要性を浮き彫りにしているね。
新しい規制とオンラインの安全性
ポリシーや規制は、オンラインプラットフォームがモデレーションをどのように扱うかを形成する重要な役割を果たすんだ。たとえば、イギリスのオンライン安全法案は、ユーザーへのケアの義務を強調し、有害なコンテンツを最小限に抑えるための措置をプラットフォームに求めている。これには、自傷行為や自殺関連の素材を削除し、ユーザーに対してより良い報告メカニズムを提供することが含まれるよ。
オンラインのメンタルヘルスのスペースでのモデレーションの重要性にもかかわらず、ユーザーのモデレーション体験についての研究はまだ限られているんだ。既存の研究では、モデレーションが重要である一方で、現在の方法が効果的ではない可能性があり、ユーザーやモデレーターの両方に脆弱性を増すことがあることが示唆されているよ。たとえば、自動削除を避けるために最小限のコンテキストで投稿すると、ユーザーがトリガーになるコンテンツにさらされることになる。
研究の目的
この研究は、オンラインの自己傷害や自殺コンテンツに焦点を当てたスペースにおけるユーザーのモデレーションとモデレーターとの体験をより深く理解することを目的としていたんだ。インタビューや定性的分析を通じて、モデレーションがユーザーの体験にどのように影響するかを探り、より良いモデレーションの実践について情報を提供することが目標だったよ。
多様な背景を持つ参加者が研究に参加して、多様な視点を提供してくれたんだ。彼らはさまざまな段階でインタビューを受け、オンラインでの自傷行為や自殺コンテンツとのやり取りを振り返るために毎月の日記を記入するよう求められたよ。
研究で明らかになったテーマ
コンテンツの報告
多くの参加者が、オンラインで遭遇した自傷行為や自殺関連コンテンツを報告する決定に影響を与える要因について話してくれたよ。中には、報告方法がわからなかったり、内容に気を取られて報告しなかったという経験を共有する人もいた。他の参加者は、メンタルの状態が報告の見方に影響を与え、言論の自由と他者を守る必要性について矛盾した気持ちを持っていることを示唆していた。
参加者たちは、一般的な不適切なコンテンツ、例えば人種差別的な素材に対しては報告する可能性が高いが、自傷行為のコンテンツを報告する際は選択的になることを指摘していた。状況を理解しないまま投稿を報告することに対してためらいを感じる人もいて、ユーザーとの対話がより適切かもしれないという意見もあったよ。
多くの参加者が、自傷行為の画像に倫理的な懸念がある一方で、それが自分たちの行動に影響を与える可能性があるため、報告は正当化されるべきだと合意していた。報告は、そうしたコンテンツが他者に与える影響についての認識を高める手段にもなるんだ。
モデレーションの認識
参加者は、自分たちのコンテンツがモデレートされたときの体験を共有してくれた。一部は、モデレーションの決定についてプラットフォームからの明確なコミュニケーションが不足していて、混乱を招いたと指摘していた。ユーザーは、説明なしにコンテンツが削除されると落胆し、自分自身を表現する能力や経験を記録する能力が妨げられると感じていたよ。
自分たちのコンテンツが削除されたと報告する人もいれば、モデレーションが一貫性がなく、プラットフォームによって異なると感じる人もいた。この不一致は、ユーザーが自分の投稿の結果について不安を感じる原因となっていたんだ。
モデレーションのアプローチと課題
全体的に、多くの参加者は自傷行為や自殺に関するコンテンツの一部はオンラインに残しておくべきだと感じていたが、サポート環境を作るためにはモデレーションが必要だと考えていた。メンタルヘルスサポートグループに参加している人たちは、ユーザーの安全を優先する明確で効果的なモデレーション戦略を評価していたよ。
でも、参加者はプラットフォームからのモデレーションプロセスに関する透明性の向上が必要だとも指摘していた。現行のアプローチはしばしば反応的すぎて、苦しんでいる人たちに本当のサポートを提供するためのニュアンスが欠けていると見なされていた。
プロフェッショナルの役割vs. 実地経験のモデレーター
参加者は、モデレーションはメンタルヘルスの専門家によって行われるべきか、それとも自傷や自殺に関する経験を持つ仲間によって行われるべきかを議論したよ。多くの人が、実体験を持つモデレーターがユーザーのニーズや体験をよりよく理解できるので、もっと共感的なサポートを提供できると考えていた。
それでも、実体験を持つモデレーターに対する感情的な負担についての懸念もあったよ。参加者は、モデレーションを行う人たちが十分なリソースと指導を受けられるように、メンタルヘルスの専門家をプロセスに組み込む重要性を強調していた。
多くの参加者が、モデレーターがトレーニングや継続的なサポートを受けることを望んでいて、これらの環境で直面するユニークな課題を認識していたんだ。定期的なチェックインやメンタルヘルスリソースが、モデレーターのバーンアウトから守るための必須対策として提案されたよ。
結論と提言
この研究の成果は、オンラインのメンタルヘルススペースにおけるユーザーとモデレーターが直面する課題についての貴重な洞察を提供しているんだ。ユーザーはモデレーションを重視しているけど、現行のアプローチには一貫性と共感が不足していることが多いよ。改善のための提言には次のものが含まれる:
ユーザーの課題を認識すること: プラットフォームは、特に有害なコンテンツに関してユーザーが自己モデレーションを行う際に直面する困難を理解するべきだ。ユーザー報告だけに頼るのは不十分だよ。
サポートの統合: コミュニティは、メンタルヘルスの専門家がモデレーターにサポートを提供することを検討し、仲間モデレーターが必要なトレーニングと監督を受けられるようにするべきだ。
継続的な幸福: プラットフォームは、モデレーターが自分のメンタルヘルスを意識し、定期的なチェックインを促す責任がある。
バランスの取れたモデレーションアプローチ: 思慮深いモデレーションアプローチは、ユーザーの安全を優先しつつ、コンテンツを投稿する個人の感情的および表現的なニーズを認識するべきだ。モデレーションの実践についての明確なコミュニケーションが不可欠だよ。
オープンダイアログ: プラットフォームは、ユーザーとのオープンダイアログを促進し、モデレーションプロセスについて情報を提供し、ガイドラインの透明性を維持するべきだ。
これらの提言は、メンタルヘルスコンテンツに関わるユーザーにとってより安全なオンライン空間を作るための政策立案者や業界リーダーの努力を導くことができるよ。将来の研究では、ユーザーの経験やモデレーターの実践を引き続き調査して、より効果的で責任あるモデレーション戦略を開発するべきだね。
タイトル: Experiences of moderation, moderators, and moderating by online users who engage with self-harm and suicide content.
概要: Online mental health spaces require effective content moderation for safety. Whilst policies acknowledge the need for proactive practices and moderator support, expectations and experiences of internet users engaging with self-harm and suicide content online remain unclear. Therefore, this study aimed to explore participant accounts of moderation, moderators and moderating when engaging online with self-harm/suicide (SH/S) related content. Participants in the DELVE study were interviewed about their experiences with SH/S content online. N=14 participants were recruited to interview at baseline, with n=8 completing the 3-month follow-up, and n=7 the 6 month follow-up. Participants were also asked to complete daily diaries of their online use between interviews. Thematic analysis, with deductive coding informed by interview questions, was used to explore perspectives on moderation, moderators and moderating from interview transcripts and diary entries. Three key themes were identified: content reporting behaviour, exploring factors influencing decisions to report SH/S content; perceptions of having content blocked, exploring participant experiences and speculative accounts of SH/S content moderation; and content moderation and moderators, examining participant views on moderation approaches, their own experiences of moderating, and insights for future moderation improvements. This study revealed challenges in moderating SH/S content online, and highlighted inadequacies associated with current procedures. Participants struggled to self-moderate online SH/S spaces, showing the need for proactive platform-level strategies. Additionally, whilst the lived experience of moderators was valued by participants, associated risks emphasised the need for supportive measures. Policymakers and industry leaders should prioritise transparent and consistent moderation practice. Author SummaryIn todays digital world, ensuring the safety of online mental health spaces is vital. Yet, theres still a lot we dont understand about how people experience moderation, moderators, and moderating in self-harm and suicide online spaces. Our study set out to change that by talking to 14 individuals who engage with this content online. Through interviews and diaries, we learned more about their experiences with platform and online community moderation. Our findings showed some important things. Firstly, individuals with declining mental health struggled to use tools that might keep them safe, like reporting content. This emphasised the need for effective moderation in online mental health spaces, to prevent harm. Secondly, unclear communication and inconsistent moderation practices lead to confusion and frustration amongst users who reported content, or had their own content moderated. Improving transparency and consistency will enhance user experiences of moderation online. Lastly, users encouraged the involvement of mental health professionals into online moderating teams, suggesting platforms and online communities should provide training and supervision from professionals to their moderation staff. These findings support our recommendations for ongoing changes to moderation procedures across online platforms.
著者: Zoë Haime, L. Kennedy, L. Grace, L. Biddle
最終更新: 2024-02-17 00:00:00
言語: English
ソースURL: https://www.medrxiv.org/content/10.1101/2024.02.15.24302878
ソースPDF: https://www.medrxiv.org/content/10.1101/2024.02.15.24302878.full.pdf
ライセンス: https://creativecommons.org/licenses/by/4.0/
変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。
オープンアクセスの相互運用性を利用させていただいた medrxiv に感謝します。