Le défi de la modération dans les espaces de santé mentale en ligne
Examiner le rôle de la modération de contenu dans les communautés de santé mentale en ligne.
― 11 min lire
Table des matières
Alors que de plus en plus de gens se connectent via des Plateformes en ligne dans le monde entier, c'est super important de créer des espaces sûrs en modérant le Contenu qu'on y trouve. La Modération de contenu, c'est gérer le matériel que les utilisateurs postent, pour s'assurer que ça respecte certaines règles et que ça n'inclut pas de contenu nuisible ou inapproprié. Ça peut impliquer des systèmes automatisés, des algorithmes, et des modérateurs humains qui bossent ensemble pour faire respecter les règles. Il y a deux types principaux de modération de contenu : la modération au niveau de la plateforme et la modération au niveau de la communauté.
Modération au Niveau de la Plateforme
La modération au niveau de la plateforme se fait à un niveau très large, en se concentrant sur l'ensemble de la plateforme. L'objectif, c'est de réguler le contenu généré par les utilisateurs sur toutes les parties du site. Les modérateurs utilisent des outils automatisés, des algorithmes, et des vérifications humaines pour appliquer des règles cohérentes à tout le monde sur la plateforme. Cette approche est essentielle pour contrôler le contenu nuisible, comme les discussions autour du auto-harm et du suicide.
Modération au Niveau de la Communauté
La modération au niveau de la communauté repose sur la participation active des utilisateurs au sein de groupes ou communautés spécifiques. Les utilisateurs peuvent signaler ou flagger le contenu qu'ils pensent violer les règles de la communauté. Cette approche encourage l'implication des utilisateurs et peut aider à créer un sentiment de responsabilité partagée pour maintenir un environnement sûr. Les deux types de modération peuvent être particulièrement importants pour contrôler des matériaux sensibles ou nuisibles.
Le Rôle des Modérateurs
Les modérateurs sont cruciaux pour gérer les communautés en ligne, surtout celles axées sur la santé mentale. Leurs responsabilités incluent passer en revue le contenu, identifier les utilisateurs qui pourraient poser problème, et faire appliquer les règles de la communauté. Les actions des modérateurs peuvent inclure le blocage de contenu nuisible ou l'interdiction permanente d'utilisateurs qui violent les règles. Ce travail aide à garantir un environnement de qualité pour tous les utilisateurs.
Cependant, les expériences avec la modération peuvent varier énormément d'un utilisateur à l'autre. Par exemple, quand des plateformes comme Facebook et Instagram ont banni des images graphiques de auto-harm, ça a créé des réactions mitigées dans les discussions sur des plateformes comme Twitter. Certains ont ressenti de la colère ou de la tristesse à propos de ces bans, ce qui montre que la modération peut parfois entraîner des réactions émotionnelles inattendues.
Défis de la Modération
Modérer du contenu, surtout dans des environnements axés sur la santé mentale, c'est pas une tâche facile. Les modérateurs doivent jongler entre la protection des utilisateurs contre un contenu potentiellement déclencheur et la possibilité d'avoir des discussions ouvertes qui apportent du Soutien social. L'efficacité des méthodes de modération strictes, comme les bans directs, a été remise en question. Des recherches montrent que les utilisateurs cherchent souvent du contenu nuisible, contournant les systèmes de modération en utilisant différents hashtags ou en postant sans texte.
Même quand les plateformes essaient de repérer et de retirer proactivement le matériel nuisible, ça peut être inefficace. Le contenu refait souvent surface sur la même plateforme ou sur d'autres, rendant difficile le maintien d'espaces sûrs.
Qui Devrait Être Responsable de la Modération ?
Des questions se posent sur qui devrait gérer la modération du contenu. La modération au niveau de la plateforme emploie généralement du personnel payé, parfois avec l'aide de systèmes automatisés. En revanche, la modération au niveau de la communauté dépend de l'implication volontaire des utilisateurs dans des rôles de modérateur. Bien qu'il y ait des avantages à être modérateur, comme le fait de se sentir utile ou validé, il y a aussi des préoccupations concernant l'impact sur la santé mentale de ceux qui modèrent.
Des recherches indiquent que de nombreux modérateurs en ligne rencontrent régulièrement du contenu dérangeant. Être exposé à ce genre de matériel peut engendrer de la détresse psychologique et un trauma secondaire, même si le soutien de collègues peut aider à atténuer ces effets. Certaines plateformes ont commencé à mettre en place des stratégies pour soutenir les modérateurs, y compris une formation sur la gestion du matériel sensible et l'accès à des services de conseil. Cependant, l'efficacité de ces initiatives pour améliorer le bien-être des modérateurs reste incertaine.
Diversité dans les Préférences des Modérateurs
Tous les modérateurs ne veulent pas le même type de soutien. Certains préfèrent le soutien d'experts en santé mentale ou de professionnels formés, tandis que d'autres pensent que des modérateurs pairs avec une expérience vécue peuvent fournir le soutien nécessaire. Cette différence souligne la nécessité de mieux comprendre les besoins et préférences spécifiques des modérateurs dans des espaces de santé mentale.
Nouvelles Régulations et Sécurité en Ligne
Les politiques et régulations jouent un rôle essentiel dans la façon dont les plateformes en ligne gèrent la modération. Par exemple, la loi britannique sur la sécurité en ligne souligne le devoir de protection des utilisateurs et exige des plateformes qu'elles prennent des mesures pour minimiser le contenu nuisible. Cela inclut la suppression de matériel lié à l'auto-harm et au suicide et la mise en place de mécanismes de signalement améliorés pour les utilisateurs.
Malgré l'importance de la modération dans les espaces de santé mentale en ligne, il y a encore peu de recherches examinant les expériences des utilisateurs avec la modération. Les études existantes suggèrent que même si la modération est vitale, les méthodes actuelles peuvent ne pas être efficaces et pourraient même augmenter la vulnérabilité tant pour les utilisateurs que pour les modérateurs. Par exemple, poster avec peu de contexte pour éviter une suppression automatique peut exposer les utilisateurs à un contenu déclencheur.
L'Objectif de l'Étude
Cette étude avait pour but de mieux comprendre les expériences des utilisateurs avec la modération et les modérateurs dans des espaces en ligne axés sur le contenu d'auto-harm et de suicide. À travers des interviews et une analyse qualitative, l'objectif était d'explorer comment la modération impacte les expériences des utilisateurs et d'informer de meilleures pratiques de modération.
Un groupe diversifié de participants a pris part à l'étude, fournissant des perspectives variées basées sur leurs antécédents. Ils ont été interviewés à différentes étapes et ont été invités à tenir des journaux mensuels pour réfléchir à leurs interactions avec le contenu d'auto-harm et de suicide en ligne.
Thèmes Identifiés dans l'Étude
Signalement de Contenu
De nombreux participants ont discuté des facteurs influençant leur décision de signaler du contenu lié à l'auto-harm ou au suicide qu'ils ont rencontré en ligne. Certains ont partagé des expériences de ne pas signaler de contenu nuisible à cause d'un manque de connaissance sur la manière de le faire ou parce qu'ils étaient préoccupés par le contenu lui-même. D'autres ont indiqué que leur état mental influençait leur perception du signalement, avec des sentiments conflictuels concernant la liberté d'expression et le besoin de protéger les autres.
Les participants ont noté qu'ils étaient plus susceptibles de signaler du contenu inapproprié général, comme du matériel raciste, mais étaient plus sélectifs en ce qui concerne le contenu d'auto-harm. Certains ont exprimé leur réticence à signaler des publications sans comprendre les circonstances derrière elles, suggérant qu'une conversation avec l'utilisateur pourrait être plus appropriée.
Beaucoup ont convenu que, bien que des préoccupations éthiques entourent les images d'auto-harm, le signalement était justifié à cause de son potentiel influence sur leurs comportements. Le signalement pourrait également servir à sensibiliser sur l'impact de ce genre de contenu sur les autres.
Perceptions de la Modération
Les participants ont partagé leurs expériences quand leur propre contenu a été modéré. Certains ont noté le manque de communication claire de la part des plateformes concernant les décisions de modération, ce qui a mené à de la confusion. Les utilisateurs se sont sentis découragés quand leur contenu a été retiré sans explication, ce qui a entravé leur capacité à s'exprimer ou à documenter leurs expériences.
Alors que certains ont signalé que leur contenu avait été retiré, d'autres ont indiqué que la modération semblait incohérente et variait d'une plateforme à l'autre. Cette incohérence a laissé les utilisateurs dans le flou concernant les conséquences de leurs publications.
Approches et Défis de la Modération
Dans l'ensemble, de nombreux participants ont ressenti que certains aspects du contenu d'auto-harm et de suicide devraient rester en ligne, mais ont estimé que la modération était nécessaire pour créer un environnement de soutien. Ceux engagés dans des groupes de soutien en santé mentale ont apprécié des stratégies de modération claires et efficaces qui priorisent la sécurité des utilisateurs.
Cependant, les participants ont souligné la nécessité d'une plus grande transparence de la part des plateformes concernant leurs processus de modération. Les approches actuelles étaient souvent jugées trop réactives et manquaient de la nuance nécessaire pour fournir un véritable soutien à ceux qui partagent leurs luttes.
Le Rôle des Professionnels vs. Modérateurs avec Expérience Vécue
Les participants ont débattu de la question de savoir si la modération devait être effectuée par des professionnels formés en santé mentale ou par des pairs ayant une expérience vécue de l'auto-harm et des pensées suicidaires. Beaucoup croyaient que les modérateurs avec une expérience vécue pourraient mieux comprendre les besoins et expériences des utilisateurs, offrant ainsi un soutien plus empathique.
Malgré cela, il y avait des inquiétudes concernant le potentiel coût émotionnel des modérateurs ayant une expérience vécue. Les participants ont souligné l'importance d'incorporer des professionnels de la santé mentale dans le processus pour s'assurer que ceux qui modèrent reçoivent des ressources et des orientations adéquates.
De nombreux participants ont exprimé le souhait que les modérateurs reçoivent une formation et un soutien continu, reconnaissant les défis uniques qu'ils peuvent rencontrer dans ces environnements. Des vérifications régulières ou des ressources en santé mentale ont été suggérées comme mesures essentielles pour protéger les modérateurs du burn-out.
Conclusion et Recommandations
Les résultats de cette étude offrent des aperçus précieux sur les défis rencontrés par les utilisateurs et les modérateurs dans les espaces de santé mentale en ligne. Il est clair que les utilisateurs apprécient la modération mais trouvent souvent que les approches actuelles manquent de cohérence et d'empathie. Les recommandations pour l'amélioration incluent :
Reconnaître les Défis des Utilisateurs : Les plateformes devraient comprendre les difficultés auxquelles les utilisateurs font face pour s'auto-modérer, surtout en ce qui concerne le contenu nuisible. Se fier uniquement aux signalements des utilisateurs est insuffisant.
Intégrer du Soutien : Les communautés devraient envisager d'avoir des professionnels de santé mentale pour soutenir les modérateurs, garantissant que les modérateurs pairs reçoivent la formation et la supervision nécessaires.
Bien-Être Continu : Les plateformes ont la responsabilité de s'assurer que les modérateurs sont conscients de leur santé mentale et d'encourager des vérifications régulières.
Approches de Modération Équilibrées : Une approche réfléchie de la modération devrait prioriser la sécurité des utilisateurs tout en reconnaissant les besoins émotionnels et d'expression des personnes publiant du contenu. Une communication claire sur les pratiques de modération est essentielle.
Dialogue Ouvert : Les plateformes devraient favoriser un dialogue ouvert avec les utilisateurs, les informant sur les processus de modération et maintenant une transparence autour des règles.
Ces recommandations peuvent guider les décideurs et les leaders de l'industrie dans leurs efforts pour créer des espaces en ligne plus sûrs pour les utilisateurs engagés avec du contenu de santé mentale. De futures recherches devraient continuer à examiner les expériences des utilisateurs et les pratiques des modérateurs pour développer des stratégies de modération plus efficaces et responsables.
Titre: Experiences of moderation, moderators, and moderating by online users who engage with self-harm and suicide content.
Résumé: Online mental health spaces require effective content moderation for safety. Whilst policies acknowledge the need for proactive practices and moderator support, expectations and experiences of internet users engaging with self-harm and suicide content online remain unclear. Therefore, this study aimed to explore participant accounts of moderation, moderators and moderating when engaging online with self-harm/suicide (SH/S) related content. Participants in the DELVE study were interviewed about their experiences with SH/S content online. N=14 participants were recruited to interview at baseline, with n=8 completing the 3-month follow-up, and n=7 the 6 month follow-up. Participants were also asked to complete daily diaries of their online use between interviews. Thematic analysis, with deductive coding informed by interview questions, was used to explore perspectives on moderation, moderators and moderating from interview transcripts and diary entries. Three key themes were identified: content reporting behaviour, exploring factors influencing decisions to report SH/S content; perceptions of having content blocked, exploring participant experiences and speculative accounts of SH/S content moderation; and content moderation and moderators, examining participant views on moderation approaches, their own experiences of moderating, and insights for future moderation improvements. This study revealed challenges in moderating SH/S content online, and highlighted inadequacies associated with current procedures. Participants struggled to self-moderate online SH/S spaces, showing the need for proactive platform-level strategies. Additionally, whilst the lived experience of moderators was valued by participants, associated risks emphasised the need for supportive measures. Policymakers and industry leaders should prioritise transparent and consistent moderation practice. Author SummaryIn todays digital world, ensuring the safety of online mental health spaces is vital. Yet, theres still a lot we dont understand about how people experience moderation, moderators, and moderating in self-harm and suicide online spaces. Our study set out to change that by talking to 14 individuals who engage with this content online. Through interviews and diaries, we learned more about their experiences with platform and online community moderation. Our findings showed some important things. Firstly, individuals with declining mental health struggled to use tools that might keep them safe, like reporting content. This emphasised the need for effective moderation in online mental health spaces, to prevent harm. Secondly, unclear communication and inconsistent moderation practices lead to confusion and frustration amongst users who reported content, or had their own content moderated. Improving transparency and consistency will enhance user experiences of moderation online. Lastly, users encouraged the involvement of mental health professionals into online moderating teams, suggesting platforms and online communities should provide training and supervision from professionals to their moderation staff. These findings support our recommendations for ongoing changes to moderation procedures across online platforms.
Auteurs: Zoë Haime, L. Kennedy, L. Grace, L. Biddle
Dernière mise à jour: 2024-02-17 00:00:00
Langue: English
Source URL: https://www.medrxiv.org/content/10.1101/2024.02.15.24302878
Source PDF: https://www.medrxiv.org/content/10.1101/2024.02.15.24302878.full.pdf
Licence: https://creativecommons.org/licenses/by/4.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à medrxiv pour l'utilisation de son interopérabilité en libre accès.