Simple Science

最先端の科学をわかりやすく解説

# コンピューターサイエンス# コンピュータと社会# 計算と言語

ウィキペディア編集者に対する有害なコメントの影響

有害な言葉はボランティア編集者に影響を与え、ウィキペディアの全体的な成功にも関わってくる。

― 0 分で読む


ウィキペディア編集者への有ウィキペディア編集者への有害性の影響てる。して、ウィキペディアの未来にも影響を与え有害なコメントがボランティアの参加を脅か
目次

ウィキペディアはボランティアがコンテンツを作成・編集する巨大なオンライン百科事典だよ。世界中に何百万ものユーザーがいて、いろんなトピックの情報源として利用されている。ただ、ボランティアの編集者に向けられた有害なコメントは、彼らの貢献意欲やプラットフォームへの関与を傷つけることがあるんだ。この記事では、有害な言葉がウィキペディアの編集者の活動にどう影響するかを見ていくよ。

ウィキペディアの重要性

ウィキペディアは、協力的なプロジェクトの中でも最も重要なものの一つだね。今や最大かつ最も人気のある参考作品となっていて、インターネットで5番目に訪問されているウェブサイトなんだ。情報を探したり事実を確認したりする際、多くのユーザーがまずウィキペディアを利用するんだ。ただ、更新頻度が低いページに関しては注意が必要だけど、調査によるとウィキペディアは一般的に信頼できるもので、伝統的な百科事典や教科書と同じくらいの正確性があることが多いんだ。

ウィキペディアの特筆すべき点は、コンテンツがすべてボランティアの編集者、つまり「ウィキペディアン」と呼ばれる人たちによって作成・管理されていること。英語版だけで約130,000人のアクティブな貢献者がいるんだ。でも、このモデルは巨大なオンラインコミュニティを管理する上での課題にも弱いんだよ。編集合戦みたいな対立が起こることもあって、記事の質や誠実性に影響が出ることがあるんだ。

有害なコメントとその影響

この記事は、有害なコメントがウィキペディアのボランティア編集者にどう影響するかに焦点を当てるよ。このテーマはあまり探求されてこなかったけど、すごく大事なんだ。有害なコメントは、編集者が貢献をやめたり、プロジェクトから完全に去ったりする原因になって、ウィキペディアの成功を脅かすんだ。

オンラインプラットフォームにおける有害さは広く研究されてきたけど、多くの研究が有害なコメントの検出や測定に集中している中、これらのコメントがユーザーにどう影響するかにはあまり焦点が当たっていないんだ。ウィキペディアは他のソーシャルメディアプラットフォームとは違って、個人攻撃に対して厳しいルールがあるけど、有害な言葉が発生することはあるんだ。以前の研究によれば、ハラスメントを受けたユーザーの約20%はしばらくの間貢献をやめるし、少数は完全に去ることもあるんだ。

ウィキペディアにおける有害なコメントの分析

有害なコメントがウィキペディアに与える影響を理解するために、英語、ドイツ語、フランス語、スペイン語、イタリア語、ロシア語の6つの最も活発な言語版のユーザー トーク ページから、5,700万のコメントを調査したよ。ユーザー トーク ページは、編集者がより個人的にトピックを議論したり、記事のトークページから会話を続けるためのスペースなんだ。有害なコメントは主にこれらのトークページで見つかるんだ。

私たちの分析では、有害なコメントを受けた後、多くのユーザーが活動を減らすことが明らかになったよ。正確に1件の有害なコメントを受けた50人のランダムに選ばれたユーザーの活動レベルを調査したんだけど、影響を受けなかったユーザーもいる一方で、有害なコメントの後に貢献が明らかに減少したユーザーも多かったんだ。

有害なコメントの影響を測る

有害なコメントの影響を定量化するために、有害なコメントを受ける前と後のアクティブな日の数を比較したよ。有害なコメントを受けたユーザーと、そうでないユーザーをマッチングさせて、一般的な活動トレンドを考慮したんだ。私たちの発見によると、有害なコメントは6つの言語版全体で活動の統計的に有意な減少を引き起こすことがわかったんだ。

有害なコメントの後数日間、ユーザーはその前の日々に比べてアクティブさが減少したんだ。この減少は一般的な活動の低下によるものではなく、有害なコメントを受けなかったユーザーには似たようなパターンは見られなかったんだよ。

編集者への長期的な影響

有害なコメントは短期的な活動の低下だけじゃなくて、編集者がウィキペディアを去る可能性も高めるんだ。私たちの研究では、有害なコメントを受けた後の離脱の確率がかなり高くなることがわかったよ。これは、編集者がどれだけ貢献していたかに関わらず、その可能性が高くなるということ。つまり、有害なコメントは新しい貢献者をも遠ざけることがあるんだ。

特に新しい編集者にとって、離脱のリスクは高いんだ。例えば、初めての貢献の後にユーザーが去る確率は、貢献が増えるにつれて劇的に減少するんだけど、有害なコメントに早く遭遇した場合は、プラットフォームを放棄する可能性が高くなるんだよ。

ウィキペディアでの有害さの影響モデル

有害なコメントの潜在的な影響をさらに分析するために、非有害な環境と非常に有害な環境を比較するモデルを作成したんだ。このモデルでは、新しいユーザーがどんどん参加する環境と、限られた数の新しいユーザーしか参加しない環境を含むさまざまなシナリオを考慮したよ。

私たちの発見は、非有害な環境では新しいユーザーのかなりの部分が長期的な貢献者となり、プロジェクトを支える助けになることを示唆しているんだ。だけど、有害な環境では、貢献者の数がすぐに減ってしまう。新しいユーザーの流れが途切れると、プロジェクトは活動の減少を経験して、最終的には消滅の危機に直面するかもしれないんだ。

支援的なコミュニティの必要性

有害な言葉は、すべてのデジタルプラットフォームが直面する深刻な問題だけど、ウィキペディアにとってはボランティアの努力に依存している分、リスクが大きいんだ。オープンで包括的な環境を維持するためには、トークページでの有害さに対処することが重要だよ。編集者同士が厳しい意見の対立を繰り広げると、参加や多様性を妨げる雰囲気が生まれてしまうんだ。

それでも、一部の編集者は有害なコメントを無害だと思ったり、単に熱心な参加だと思ったりしているんだ。ハラスメント防止策を実施する試みは、コンテンツの作成を妨げるものとして拒否されることが多かったんだけど、大規模な分析によると、有害な言葉の影響は無視できないことがわかるんだ。有害な言葉に対処することは、編集者の生産性や関与を維持するために重要なんだよ。

ウィキペディアのグローバルな知識における役割

ウィキペディアは、情報へのグローバルなアクセスにおいて重要な役割を果たしていて、何百万もの人々に無料で偏りのない知識を提供することを目指しているんだ。その中立的な情報源としての評判は、多くのユーザーにとって信頼できる選択肢になっているんだ。ただ、私たちの研究では、プラットフォーム内の有害さが存在するだけでなく、その影響も大きいことが示されたよ。

この発見は、ウィキペディアが有害な言葉の問題を真剣に受け止め、プラットフォームの継続的な成功を確保する必要があることを強調しているんだ。協力的で支援的な環境が、ボランティアの編集者の集団的な努力を維持するためには欠かせないんだよ。

結論

要するに、有害なコメントはウィキペディアのボランティア編集者に重大な影響を及ぼすんだ。参加の減少を引き起こしたり、潜在的な新しい貢献者を遠ざけたりすることがある。これらの問題は解決することが重要で、ウィキペディアは信頼できる情報源であり続けるために、活気ある編集者のコミュニティに依存しているんだ。

ウィキペディアが進化し続ける中で、有害な言葉から保護するための対策がますます重要になっているよ。すべての貢献者にとって、安全で歓迎されるスペースを確保することで、プラットフォームの知識源としての評判を維持できるんだ。

私たちの分析からの発見は、ウィキペディアや同様の協力プラットフォームが有害な言葉の深刻な影響を認識し、すべてのユーザーのためにより健康的なコミュニティを育むように呼びかけるものなんだ。

オリジナルソース

タイトル: Toxic comments reduce the activity of volunteer editors on Wikipedia

概要: Wikipedia is one of the most successful collaborative projects in history. It is the largest encyclopedia ever created, with millions of users worldwide relying on it as the first source of information as well as for fact-checking and in-depth research. As Wikipedia relies solely on the efforts of its volunteer-editors, its success might be particularly affected by toxic speech. In this paper, we analyze all 57 million comments made on user talk pages of 8.5 million editors across the six most active language editions of Wikipedia to study the potential impact of toxicity on editors' behaviour. We find that toxic comments consistently reduce the activity of editors, leading to an estimated loss of 0.5-2 active days per user in the short term. This amounts to multiple human-years of lost productivity when considering the number of active contributors to Wikipedia. The effects of toxic comments are even greater in the long term, as they significantly increase the risk of editors leaving the project altogether. Using an agent-based model, we demonstrate that toxicity attacks on Wikipedia have the potential to impede the progress of the entire project. Our results underscore the importance of mitigating toxic speech on collaborative platforms such as Wikipedia to ensure their continued success.

著者: Ivan Smirnov, Camelia Oprea, Markus Strohmaier

最終更新: 2023-04-26 00:00:00

言語: English

ソースURL: https://arxiv.org/abs/2304.13568

ソースPDF: https://arxiv.org/pdf/2304.13568

ライセンス: https://creativecommons.org/licenses/by/4.0/

変更点: この要約はAIの助けを借りて作成されており、不正確な場合があります。正確な情報については、ここにリンクされている元のソース文書を参照してください。

オープンアクセスの相互運用性を利用させていただいた arxiv に感謝します。

著者たちからもっと読む

類似の記事