Simple Science

La science de pointe expliquée simplement

# Informatique# Interaction homme-machine

Défis de la mise à jour des révisions signalées de Wikipedia

Examiner les difficultés de changer le système de modération du contenu de Wikipedia.

― 7 min lire


Refonte du système deRefonte du système demodération de WikipediaSignalées.jour de l'approche des RévisionsExamen des problèmes liés à la mise à
Table des matières

La Modération de contenu est essentielle pour les plateformes en ligne afin de respecter les règles légales et les besoins de la communauté. À mesure que les attentes de la communauté changent, les pratiques de modération doivent aussi évoluer. Cependant, changer les systèmes de modération existants peut être difficile, surtout quand ces systèmes dépendent des membres de la communauté pour gérer le contenu. Les changements peuvent augmenter la charge de travail pour les modérateurs et modifier la manière dont les contributeurs sont récompensés.

Cet article examine les défis rencontrés lorsqu'on essaie de modifier un système de modération sur Wikipédia connu sous le nom de Révisions Signalées. On a recueilli des informations à partir de diverses discussions et interviews pour comprendre ce qui rendait ce changement difficile. Même si les Révisions Signalées paraissaient prometteuses au départ, elles sont entrées en conflit avec les normes sociales existantes auxquelles les utilisateurs étaient habitués.

Le Besoin de Modération

La plupart des plateformes en ligne ont une forme de modération de contenu. Cela aide à créer un environnement sûr pour les utilisateurs et à maintenir la réputation de la plateforme. Au fil des ans, les pratiques de modération doivent s'adapter à de nouvelles lois et attentes de la communauté.

La modération est une tâche complexe, nécessitant souvent un équilibre entre la liberté d'expression et le maintien de la qualité. L'étude de la modération nous aide à comprendre comment les communautés travaillent ensemble pour gérer le contenu et établir des règles de comportement.

Étude de Cas : Révisions Signalées

Les Révisions Signalées ont été introduites sur Wikipédia pour prévenir le vandalisme. L'objectif était d'améliorer la qualité du contenu en exigeant que les modifications des utilisateurs non fiables soient approuvées avant d'apparaître sur le site. Au départ, ça a bien marché et a été adopté par de nombreux wikis. Cependant, avec le temps, les utilisateurs ont soulevé des préoccupations sur son impact sur le fonctionnement de la communauté.

De nombreux membres de la communauté ont estimé que la mise en place des Révisions Signalées créait une hiérarchie qui allait à l'encontre des principes fondateurs de Wikipédia sur l'édition ouverte. La friction entre le nouveau système et les normes communautaires existantes a rendu difficile le maintien du soutien pour ce système.

Défis dans la Modération Communautaire

Après avoir examiné les discussions passées et réalisé des interviews, on a identifié trois catégories principales de défis : les défis communautaires, les défis liés à la plateforme et aux politiques, et les Défis techniques.

Défis Communautaires

Un des principaux problèmes était le conflit entre les Révisions Signalées et les normes sociales établies de Wikipédia. La plateforme a toujours mis l'accent sur le fait de permettre à n'importe qui de contribuer. En introduisant différentes classes d'utilisateurs basées sur les privilèges d'édition, le système a créé une nouvelle structure sociale que beaucoup d'utilisateurs ont résisté à.

Les utilisateurs ont exprimé des préoccupations selon lesquelles la nouvelle hiérarchie pourrait entraîner des déséquilibres de pouvoir. Il y avait des craintes que ceux ayant des droits de réviseur abusent de leur position, menant à une culture de contrôle. Bien que certains pensent qu'une supervision accrue garantirait des contributions de meilleure qualité, beaucoup estimaient que cela découragerait les nouveaux utilisateurs de rejoindre à cause des barrières créées.

Pour compliquer encore les choses, de nombreux utilisateurs avaient des opinions divergentes sur les types de modifications qui devaient être signalées. Atteindre un consensus sur les directives d'utilisation des Révisions Signalées était difficile. Sans règles claires, les modérateurs avaient du mal à prendre des décisions cohérentes sur les modifications à approuver.

Défis de la Plateforme et des Politiques

Le manque de soutien actif de la part de la Wikimedia Foundation (WMF) a créé un autre ensemble de défis. Bien que la WMF ait développé les Révisions Signalées, elle a laissé aux éditions linguistiques individuelles le soin de décider comment mettre en œuvre et maintenir le système. Cette approche à distance a entraîné un manque de soutien technique nécessaire.

Les communautés ont souvent trouvé difficile de mettre à jour ou de résoudre les problèmes avec le système sans le soutien approprié. De plus, le processus pour demander des changements pouvait être lent et lourd, entraînant des retards dans le traitement des préoccupations des utilisateurs.

Défis Techniques

D'un point de vue technique, les Révisions Signalées exigeaient des modérateurs qu'ils examinent un grand volume de modifications. Ce système est chronophage et entraîne souvent des arriérés de contenu non examiné. À mesure que le nombre de modifications en attente grandissait, la charge de travail pour les modérateurs augmentait, ce qui pouvait entraîner un burnout.

Les communautés étaient également confrontées au défi de s'assurer que les outils de modération fonctionnaient bien en conjonction avec d'autres outils existants. Pour des plateformes comme Wikipédia, où de nombreux outils ont été développés par des bénévoles, avoir plusieurs systèmes de modération qui se chevauchent pouvait mener à de la confusion et à une inefficacité.

Leçons Apprises

L'expérience des Révisions Signalées offre plusieurs leçons pour les communautés en ligne qui cherchent à mettre à jour leurs pratiques de modération.

  1. Engagement avec les Utilisateurs : Impliquer activement les membres de la communauté dans le processus décisionnel peut aider à bâtir du soutien pour les nouveaux systèmes. Une bonne communication garantit que les utilisateurs comprennent les avantages et les limitations de tout nouvel outil.

  2. Flexibilité : Les systèmes devraient être adaptables aux besoins de la communauté. Les plateformes peuvent bénéficier de permettre à des sous-communautés d'adapter les outils de modération pour répondre à leurs besoins spécifiques.

  3. Clarté dans les Directives : Des directives claires et concises sur la manière d'utiliser les outils de modération peuvent aider à prévenir les conflits et à garantir la cohérence dans l'application des normes de modération.

  4. Surveillance et Retours : Rassembler des données sur l'efficacité des systèmes de modération peut fournir des informations précieuses. Ces informations peuvent guider les ajustements et les améliorations futures.

  5. Équilibre du Contrôle : Trouver le bon équilibre entre supervision et ouverture est crucial. Assurer que tous les utilisateurs se sentent capables de contribuer peut aider à prévenir la résistance aux nouvelles pratiques de modération.

Conclusion

Changer les systèmes de modération de contenu pose divers défis, particulièrement dans des environnements communautaires comme Wikipédia. L'étude de cas des Révisions Signalées illustre les complexités liées à la mise en œuvre de nouvelles idées tout en restant sensible aux normes et valeurs communautaires établies.

En apprenant des expériences passées et en comprenant les défis, les plateformes en ligne peuvent développer de meilleures stratégies pour modérer le contenu qui répondent à la fois aux besoins de la communauté et aux objectifs de l'organisation. Les futures efforts de modération devraient se concentrer sur l'implication, la flexibilité et la clarté pour créer des systèmes qui fonctionnent pour tous les participants.

Source originale

Titre: Challenges in Restructuring Community-based Moderation

Résumé: Content moderation practices and technologies need to change over time as requirements and community expectations shift. However, attempts to restructure existing moderation practices can be difficult, especially for platforms that rely on their communities to conduct moderation activities, because changes can transform the workflow and workload of moderators and contributors' reward systems. Through the study of extensive archival discussions around a prepublication moderation technology on Wikipedia named Flagged Revisions, complemented by seven semi-structured interviews, we identify various challenges in restructuring community-based moderation practices. We learn that while a new system might sound good in theory and perform well in terms of quantitative metrics, it may conflict with existing social norms. Our findings also highlight how the intricate relationship between platforms and self-governed communities can hinder the ability to assess the performance of any new system and introduce considerable costs related to maintaining, overhauling, or scrapping any piece of infrastructure.

Auteurs: Chau Tran, Kejsi Take, Kaylea Champion, Benjamin Mako Hill, Rachel Greenstadt

Dernière mise à jour: 2024-02-27 00:00:00

Langue: English

Source URL: https://arxiv.org/abs/2402.17880

Source PDF: https://arxiv.org/pdf/2402.17880

Licence: https://creativecommons.org/licenses/by-sa/4.0/

Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.

Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.

Plus d'auteurs

Articles similaires