L'impact de la transparence sur l'engagement des utilisateurs
Une étude révèle comment les explications de suppression augmentent la participation des utilisateurs sur les réseaux sociaux.
― 7 min lire
Table des matières
Alors que les réseaux sociaux continuent de grandir, la manière dont on gère ces plateformes change. Les designers et les chercheurs cherchent de meilleures façons de gérer ces espaces numériques. Certaines nouvelles idées impliquent de suivre des lois basées sur les droits, comme les droits de l'homme et les droits civils. L'objectif est de créer des systèmes justes et responsables pour la Modération de contenu, qui est le processus de contrôle de ce qui peut être posté en ligne.
Une approche qui a attiré l'attention est les Principes de Santa Clara. Ces principes ont été créés par un groupe de défenseurs des droits humains et d'experts. Ils se concentrent sur comment les plateformes de médias sociaux peuvent être plus transparentes concernant leurs règles et plus responsables de leurs actions liées à la modération. Quand les utilisateurs comprennent pourquoi leur contenu est supprimé et comment les décisions de modération sont prises, cela peut améliorer leur expérience.
Des études récentes montrent qu'être clair sur pourquoi un contenu est supprimé peut aider les utilisateurs à sentir que le processus est juste. Par exemple, informer les utilisateurs si leur post a été retiré et donner des raisons pour cela peut conduire à un meilleur comportement de leur part dans les futurs posts. Cela soulève une question intéressante : partager ces raisons peut-il aussi affecter les utilisateurs qui n'ont pas enfreint de règles mais qui ont vu le post de quelqu'un d'autre être supprimé ? C'est ce que cette étude vise à examiner.
Questions de recherche
Cette étude vise à découvrir si l'explication donnée pour la suppression d'un post influence le comportement des utilisateurs qui sont simplement Témoins de la suppression, appelés témoins. Plus précisément, nous demandons : les explications de suppression adressées aux utilisateurs dont les posts ont été retirés impactent-elles comment les témoins interagissent ensuite avec la plateforme ?
Collecte de données
Pour répondre à cette question, nous avons collecté une énorme quantité de données de deux communautés Reddit populaires, connues sous le nom de subreddits, r/AskReddit et r/science. Nous avons rassemblé 85,5 millions de posts de décembre 2021 à décembre 2022. Notre objectif était d'analyser comment les utilisateurs interagissaient avec la plateforme après avoir été témoins des explications de suppression.
Nous avons construit un système pour comparer deux groupes d'utilisateurs : ceux qui ont vu une explication de suppression et ceux qui ne l'ont pas fait. En analysant ces groupes, nous avons voulu voir comment les explications affectaient leur comportement de publication.
Résultats
Notre analyse a révélé que le fait d'être témoin d'explications de suppression avait un effet significatif sur l'engagement des témoins. Les utilisateurs qui ont vu ces explications ont montré une augmentation à la fois du nombre de posts qu'ils ont réalisés et de leurs interactions avec les posts d'autres utilisateurs. Cela suggère que lorsque la modération de contenu est transparente, cela peut conduire à une communauté plus active et engagée.
Cependant, bien que nous ayons constaté que le fait d'observer des explications de suppression augmentait le volume des publications, nous n'avons pas vu d'amélioration significative de la qualité des posts faits par les témoins. Cela soulève des questions sur les motivations derrière pourquoi les utilisateurs pourraient toujours choisir de poster du contenu qui pourrait enfreindre les directives de la communauté.
Comprendre la modération de contenu
La modération de contenu est essentielle sur les réseaux sociaux pour maintenir des communautés en ligne saines. Cela implique de retirer du contenu inapproprié, de mettre en sourdine ou de bannir des utilisateurs qui enfreignent les normes communautaires. Les modérateurs de contenu peuvent être des bénévoles de la base d'utilisateurs ou du personnel rémunéré. Récemment, les outils d'intelligence artificielle sont également devenus plus courants dans les tâches de modération.
La Transparence est un aspect crucial d'une bonne modération. Cela signifie être ouvert sur la façon dont les décisions de modération sont prises et partager ces informations avec les utilisateurs. Quand les utilisateurs comprennent les règles et les raisons derrière la modération, ils peuvent sentir que le processus est plus juste, menant à un meilleur comportement.
De nombreuses études indiquent que lorsque les modérateurs fournissent des explications claires sur pourquoi les posts sont supprimés, cela aide les utilisateurs à se sentir respectés et informés. Cela bénéficie non seulement aux utilisateurs qui sont modérés, mais aussi à ceux qui sont témoins et observent le processus de modération.
Le rôle des témoins
Les témoins sont des utilisateurs qui observent des actions de modération se produisant sur d'autres, mais qui ne sont pas directement affectés eux-mêmes. Le comportement de ces témoins est essentiel pour la dynamique de la communauté. Ils apprennent en observant ce qui arrive aux autres et peuvent adapter leurs actions en conséquence.
Des recherches antérieures soulignent que voir des explications pour le contenu retiré peut aider les témoins à mieux comprendre les normes communautaires. En assistant à ces actions de modération, ils peuvent ajuster leur comportement pour s'adapter aux standards de la communauté, même s'ils n'ont pas été modérés personnellement.
Implications pour les gestionnaires de communauté
Les résultats de cette étude ont des implications précieuses pour les gestionnaires de communauté et les administrateurs de plateforme. Investir dans la transparence en fournissant des explications de suppression peut aboutir à une base d'utilisateurs plus engagée. Lorsque les témoins voient des raisons claires derrière les actions de modération, ils sont plus susceptibles de poster davantage et de participer activement aux discussions.
Encourager une culture de l'ouverture peut renforcer les liens communautaires et promouvoir des interactions positives entre les utilisateurs. Les gestionnaires de communauté devraient envisager de rendre les explications visibles aux utilisateurs, car cela pourrait aider à favoriser un environnement plus respectueux et responsable.
Limitations et directions futures
Bien que cette étude fournisse des informations significatives, elle se concentre sur deux subreddits spécifiques. Il est essentiel d'explorer si des résultats similaires seraient trouvés dans d'autres communautés en ligne et plateformes. Cette recherche ouvre la voie à d'autres études pour évaluer comment la transparence dans la modération de contenu affecte le comportement des utilisateurs dans divers contextes.
De plus, les recherches futures pourraient examiner comment différents types d'explications de suppression, comme le ton ou le détail, impactent le comportement des témoins. Comprendre ces nuances pourrait aider à affiner davantage les pratiques de modération.
Il est également important de considérer les défis auxquels les modérateurs font face pour fournir des explications. Les charges de travail, les contraintes de temps et les limitations technologiques peuvent entraver la capacité à communiquer efficacement. Trouver des moyens de rationaliser ce processus pourrait améliorer l'expérience utilisateur globale.
Conclusion
En conclusion, l'étude montre que la transparence dans la modération en ligne influence significativement le comportement des utilisateurs, surtout parmi les témoins. Lorsque les utilisateurs sont témoins d'explications de suppression, ils sont plus susceptibles de s'engager activement avec la plateforme. Encourager une approche éducative de la modération peut mener à une communauté en ligne plus saine où les utilisateurs se sentent informés et motivés à respecter les normes communautaires.
Les effets positifs de la fourniture d'explications suggèrent que les plateformes de réseaux sociaux devraient prioriser la transparence comme un aspect central de leurs stratégies de modération. Ce faisant, elles peuvent favoriser un plus grand engagement des utilisateurs et contribuer à un environnement en ligne plus inclusif et respectueux.
Titre: Bystanders of Online Moderation: Examining the Effects of Witnessing Post-Removal Explanations
Résumé: Prior research on transparency in content moderation has demonstrated the benefits of offering post-removal explanations to sanctioned users. In this paper, we examine whether the influence of such explanations transcends those who are moderated to the bystanders who witness such explanations. We conduct a quasi-experimental study on two popular Reddit communities (r/askreddit and r/science) by collecting their data spanning 13 months-a total of 85.5M posts made by 5.9M users. Our causal-inference analyses show that bystanders significantly increase their posting activity and interactivity levels as compared to their matched control set of users. Our findings suggest that explanations clarify and reinforce the social norms of online spaces, enhance community engagement, and benefit many more members than previously understood. We discuss the theoretical implications and design recommendations of this research, focusing on how investing more efforts in post-removal explanations can help build thriving online communities.
Auteurs: Shagun Jhaver, Himanshu Rathi, Koustuv Saha
Dernière mise à jour: 2024-01-21 00:00:00
Langue: English
Source URL: https://arxiv.org/abs/2309.08361
Source PDF: https://arxiv.org/pdf/2309.08361
Licence: https://creativecommons.org/licenses/by-nc-sa/4.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.