Die Herausforderung der Moderation in Online-Räumen für psychische Gesundheit
Untersuchung der Rolle von Content-Moderation in Online-Gemeinschaften für psychische Gesundheit.
― 9 min Lesedauer
Inhaltsverzeichnis
Je mehr Leute weltweit über Online-Plattformen miteinander verbunden sind, desto wichtiger ist es, sichere Räume zu schaffen, indem die Inhalte, die dort zu finden sind, moderiert werden. Inhaltsmoderation ist eine Methode, um das Material, das Nutzer posten, zu verwalten, sodass es bestimmten Richtlinien entspricht und keine schädlichen oder unangemessenen Inhalte enthält. Das kann automatisierte Systeme, Algorithmen und menschliche Moderatoren umfassen, die zusammenarbeiten, um Regeln und Standards aufrechtzuerhalten. Es gibt zwei Hauptarten der Inhaltsmoderation: Plattformebene und Gemeinschaftsebene.
Plattform-Ebene Moderation
Die Plattform-Ebene Moderation geschieht auf der breitesten Ebene und konzentriert sich auf die gesamte Plattform. Sie zielt darauf ab, nutzergenerierte Inhalte in allen Bereichen der Seite zu regulieren. Moderatoren nutzen automatisierte Tools, Algorithmen und menschliche Überprüfungen, um konsequente Regeln für alle auf der Plattform anzuwenden. Dieser Ansatz ist entscheidend, um schädliche Inhalte wie Diskussionen über Selbstverletzung und Selbstmord zu kontrollieren.
Gemeinschafts-Ebene Moderation
Die Gemeinschafts-Ebene Moderation beruht auf der aktiven Teilnahme von Nutzern innerhalb spezifischer Gruppen oder Gemeinschaften. Nutzer können Inhalte melden oder flaggen, von denen sie glauben, dass sie gegen die Richtlinien der Gemeinschaft verstossen. Dieser Ansatz fördert die Benutzerbeteiligung und kann helfen, ein Gefühl von gemeinsamer Verantwortung für die Aufrechterhaltung einer sicheren Umgebung zu schaffen. Beide Arten der Moderation können besonders wichtig sein, um sensible oder schädliche Materialien zu kontrollieren.
Die Rolle der Moderatoren
Moderatoren sind entscheidend für das Management von Online-Gemeinschaften, besonders bei solchen, die sich auf psychische Gesundheit konzentrieren. Ihre Aufgaben umfassen das Überprüfen von Inhalten, das Identifizieren von Nutzern, die Probleme verursachen könnten, und die Durchsetzung von Gemeinschaftsregeln. Massnahmen, die von Moderatoren ergriffen werden, können das Blockieren schädlicher Inhalte oder das dauerhafte Sperren von Nutzern umfassen, die gegen Richtlinien verstossen. Diese Arbeit hilft, eine qualitativ hochwertige Umgebung für alle Nutzer sicherzustellen.
Allerdings können die Erfahrungen mit Moderation bei den Nutzern stark variieren. Zum Beispiel, als Plattformen wie Facebook und Instagram grafische Bilder von Selbstverletzungen verboten, gab es gemischte Reaktionen in Diskussionen auf Plattformen wie Twitter. Einige Leute fühlten sich wütend oder traurig über die Verbote, was darauf hinweist, dass Moderation manchmal ungewollte emotionale Reaktionen hervorrufen kann.
Herausforderungen in der Moderation
Inhalte zu moderieren, besonders in Umgebungen, die sich auf psychische Gesundheit konzentrieren, ist keine einfache Aufgabe. Moderatoren müssen den Schutz der Nutzer vor potenziell auslösenden Inhalten und gleichzeitig die Möglichkeit offener Diskussionen, die sozialen Support bieten, in Einklang bringen. Die Effektivität strenger Moderationsmethoden, wie beispielsweise vollständige Verbote, wurde in Frage gestellt. Forschungen zeigen, dass Nutzer oft schädliche Inhalte suchen und Moderationssysteme umgehen, indem sie unterschiedliche Hashtags verwenden oder ohne Text posten.
Selbst wenn Plattformen versuchen, proaktiv schädliches Material zu finden und zu entfernen, kann das ineffektiv sein. Inhalte tauchen oft auf der gleichen Plattform oder auf anderen wieder auf, was es schwierig macht, Räume sicher zu halten.
Wer sollte für die Moderation verantwortlich sein?
Es stellt sich die Frage, wer die Inhaltsmoderation übernehmen sollte. Die Plattform-Ebene Moderation beschäftigt typischerweise bezahlte Mitarbeiter, manchmal unterstützt von automatisierten Systemen. Im Gegensatz dazu hängt die Gemeinschafts-Ebene Moderation von Nutzern ab, die freiwillig Moderatoren-Rollen übernehmen. Während es Vorteile gibt, Moderator zu sein, wie das Gefühl einer sinnvollen Aufgabe oder Bestätigung, gibt es auch Bedenken hinsichtlich der Auswirkungen auf die psychische Gesundheit derjenigen, die moderieren.
Forschung zeigt, dass viele Online-Moderatoren regelmässig belastende Inhalte begegnen. Der Kontakt mit solchem Material kann zu psychischen Belastungen und sekundärem Trauma führen, obwohl Unterstützung von Kollegen helfen kann, diese Effekte zu mildern. Einige Plattformen haben begonnen, Strategien zur Unterstützung von Moderatoren umzusetzen, darunter Schulungen zum Umgang mit sensiblen Materialien und Zugang zu Beratungsdiensten. Die Effektivität dieser Initiativen zur Verbesserung des Wohlbefindens der Moderatoren ist jedoch noch ungewiss.
Vielfalt in den Präferenzen der Moderatoren
Nicht alle Moderatoren wollen die gleiche Unterstützung. Einige bevorzugen die Unterstützung von Fachleuten für psychische Gesundheit oder ausgebildeten Fachkräften, während andere glauben, dass Peer-Moderatoren mit eigener Erfahrung die notwendige Unterstützung bieten können. Dieser Unterschied hebt die Notwendigkeit hervor, ein besseres Verständnis für die spezifischen Bedürfnisse und Vorlieben der Moderatoren in psychischen Gesundheitsräumen zu entwickeln.
Neue Regelungen und Online-Sicherheit
Richtlinien und Regelungen spielen eine entscheidende Rolle dabei, wie Online-Plattformen die Moderation handhaben. Zum Beispiel betont das Online-Sicherheitsgesetz des Vereinigten Königreichs die Fürsorgepflicht für Nutzer und fordert von Plattformen, Schritte zur Minimierung schädlicher Inhalte zu unternehmen. Dazu gehört das Entfernen von Selbstverletzungs- und selbstmordbezogenen Materialien sowie bessere Melde-Mechanismen für Nutzer.
Trotz der Wichtigkeit von Moderation in Online-Räumen für psychische Gesundheit gibt es noch begrenzte Forschung zu den Erfahrungen der Nutzer mit Moderation. Vorhandene Studien legen nahe, dass, während Moderation entscheidend ist, die aktuellen Methoden möglicherweise nicht effektiv sind und sogar die Verwundbarkeit sowohl für Nutzer als auch für Moderatoren erhöhen könnten. Zum Beispiel kann das Posten mit minimalem Kontext, um eine automatische Entfernung zu vermeiden, Nutzer schädlichem Inhalt aussetzen.
Ziel der Studie
Diese Studie wollte ein tieferes Verständnis für die Erfahrungen der Nutzer mit Moderation und Moderatoren in Online-Räumen, die sich auf Selbstverletzungs- und Selbstmordinhalte konzentrieren, gewinnen. Durch Interviews und qualitative Analysen war das Ziel, zu erforschen, wie Moderation die Nutzererfahrungen beeinflusst und bessere Moderationspraktiken zu informieren.
Eine vielfältige Gruppe von Teilnehmern nahm an der Studie teil und gab unterschiedliche Einblicke basierend auf ihrem Hintergrund. Sie wurden in verschiedenen Phasen interviewt und gebeten, monatliche Tagebücher zu führen, um über ihre Interaktionen mit Selbstverletzungs- und Selbstmordinhalten online nachzudenken.
Identifizierte Themen in der Studie
Inhalte melden
Viele Teilnehmer sprachen über die Faktoren, die ihre Entscheidung beeinflussten, Selbstverletzungs- oder selbstmordbezogene Inhalte zu melden, auf die sie online gestossen sind. Einige teilten Erfahrungen, bei denen sie keine schädlichen Inhalte meldeten, weil sie nicht wussten, wie man sie meldet oder weil sie mit dem Inhalt selbst beschäftigt waren. Andere gaben an, dass ihr psychischer Zustand beeinflusste, wie sie das Melden betrachteten, mit widersprüchlichen Gefühlen über Meinungsfreiheit und dem Bedürfnis, andere zu schützen.
Teilnehmer merkten an, dass sie eher allgemeine unangemessene Inhalte, wie rassistische Materialien, melden würden, aber bei Selbstverletzungsinhalten selektiv waren. Einige äusserten Bedenken, Beiträge zu melden, ohne die Umstände dahinter zu verstehen, und schlugen vor, dass ein Gespräch mit dem Nutzer angemessener sein könnte.
Viele stimmten zu, dass, während ethische Bedenken bezüglich Selbstverletzungsbilder bestehen, das Melden gerechtfertigt sei aufgrund des potenziellen Einflusses auf ihr Verhalten. Das Melden könnte auch eine Möglichkeit sein, das Bewusstsein über die Auswirkungen solcher Inhalte auf andere zu schärfen.
Wahrnehmungen der Moderation
Teilnehmer teilten ihre Erfahrungen, als ihre eigenen Inhalte moderiert wurden. Einige merkten die fehlende klare Kommunikation von Plattformen in Bezug auf Moderationsentscheidungen an, was zu Verwirrung führte. Nutzer fühlten sich entmutigt, als ihre Inhalte ohne Erklärung entfernt wurden, was ihre Fähigkeit hinderte, sich auszudrücken oder ihre Erfahrungen zu dokumentieren.
Während einige berichteten, dass ihre Inhalte entfernt wurden, gaben andere an, dass Moderation inkonsistent schien und von Plattform zu Plattform variierte. Diese Inkonsistenz liess Nutzer unsicher über die Konsequenzen ihrer Beiträge fühlen.
Moderationsansätze und Herausforderungen
Insgesamt hatten viele Teilnehmer das Gefühl, dass einige Aspekte von Selbstverletzungs- und Selbstmordinhalten online bleiben sollten, aber moderiert werden müssten, um eine unterstützende Umgebung zu schaffen. Diejenigen, die in Gruppen zur Unterstützung der psychischen Gesundheit aktiv waren, schätzten klare und effektive Moderationsstrategien, die die Sicherheit der Nutzer priorisierten.
Allerdings hoben die Teilnehmer auch die Notwendigkeit von mehr Transparenz seitens der Plattformen bezüglich ihrer Moderationsprozesse hervor. Aktuelle Ansätze wurden oft als zu reaktiv wahrgenommen und fehlten die Nuance, um echten Support für diejenigen zu bieten, die ihre Kämpfe teilen.
Die Rolle von Fachleuten vs. Moderatoren mit eigener Erfahrung
Teilnehmer diskutierten, ob die Moderation von ausgebildeten Fachleuten im Bereich psychische Gesundheit oder von Gleichaltrigen mit eigenen Erfahrungen in Selbstverletzung und suizidalen Gedanken durchgeführt werden sollte. Viele glaubten, dass Moderatoren mit eigener Erfahrung die Bedürfnisse und Erfahrungen der Nutzer besser verstehen könnten und so empathischere Unterstützung bieten könnten.
Dennoch gab es Bedenken über die potenziellen emotionalen Auswirkungen auf Moderatoren mit eigener Erfahrung. Teilnehmer betonten die Wichtigkeit, Fachleute für psychische Gesundheit in den Prozess einzubeziehen, um sicherzustellen, dass die Moderatoren die notwendigen Ressourcen und Anleitungen erhalten.
Viele Teilnehmer äusserten den Wunsch, dass Moderatoren Schulungen und kontinuierliche Unterstützung erhalten, da sie die einzigartigen Herausforderungen, denen sie in diesen Umgebungen gegenüberstehen, kennen. Regelmässige Check-ins oder Ressourcen für psychische Gesundheit wurden als essentielle Massnahmen vorgeschlagen, um Moderatoren vor Burnout zu schützen.
Fazit und Empfehlungen
Die Ergebnisse dieser Studie bieten wertvolle Einblicke in die Herausforderungen, mit denen sowohl Nutzer als auch Moderatoren in Online-Räumen für psychische Gesundheit konfrontiert sind. Es ist klar, dass Nutzer Moderation schätzen, aber oft die aktuellen Ansätze als inkonsistent und empathielos empfinden. Empfehlungen zur Verbesserung umfassen:
Erkennung der Herausforderungen der Nutzer: Plattformen sollten die Schwierigkeiten verstehen, mit denen Nutzer beim Selbst-Melden konfrontiert sind, besonders wenn es um schädliche Inhalte geht. Die alleinige Abhängigkeit von Nutzerberichten reicht nicht aus.
Integration von Unterstützung: Gemeinschaften sollten in Betracht ziehen, Fachleute für psychische Gesundheit einzubeziehen, um Moderatoren zu unterstützen und sicherzustellen, dass Peer-Moderatoren notwendige Schulungen und Supervision erhalten.
Fortlaufendes Wohlbefinden: Plattformen haben die Verantwortung sicherzustellen, dass Moderatoren sich ihrer psychischen Gesundheit bewusst sind und regelmässige Check-ins fördern.
Ausgewogene Moderationsansätze: Ein durchdachter Ansatz zur Moderation sollte die Sicherheit der Nutzer priorisieren und gleichzeitig die emotionalen und ausdrucksvollen Bedürfnisse der Einzelnen, die Inhalte posten, anerkennen. Klare Kommunikation über Moderationspraktiken ist entscheidend.
Offener Dialog: Plattformen sollten einen offenen Dialog mit Nutzern fördern, sie über Moderationsprozesse informieren und Transparenz über Richtlinien wahren.
Diese Empfehlungen können Entscheidungsträger und Branchenführer dabei unterstützen, sicherere Online-Räume für Nutzer zu schaffen, die sich mit Inhalten zur psychischen Gesundheit beschäftigen. Zukünftige Forschung sollte weiterhin die Erfahrungen der Nutzer und die Praktiken der Moderatoren untersuchen, um effektivere und verantwortungsvolle Moderationsstrategien zu entwickeln.
Titel: Experiences of moderation, moderators, and moderating by online users who engage with self-harm and suicide content.
Zusammenfassung: Online mental health spaces require effective content moderation for safety. Whilst policies acknowledge the need for proactive practices and moderator support, expectations and experiences of internet users engaging with self-harm and suicide content online remain unclear. Therefore, this study aimed to explore participant accounts of moderation, moderators and moderating when engaging online with self-harm/suicide (SH/S) related content. Participants in the DELVE study were interviewed about their experiences with SH/S content online. N=14 participants were recruited to interview at baseline, with n=8 completing the 3-month follow-up, and n=7 the 6 month follow-up. Participants were also asked to complete daily diaries of their online use between interviews. Thematic analysis, with deductive coding informed by interview questions, was used to explore perspectives on moderation, moderators and moderating from interview transcripts and diary entries. Three key themes were identified: content reporting behaviour, exploring factors influencing decisions to report SH/S content; perceptions of having content blocked, exploring participant experiences and speculative accounts of SH/S content moderation; and content moderation and moderators, examining participant views on moderation approaches, their own experiences of moderating, and insights for future moderation improvements. This study revealed challenges in moderating SH/S content online, and highlighted inadequacies associated with current procedures. Participants struggled to self-moderate online SH/S spaces, showing the need for proactive platform-level strategies. Additionally, whilst the lived experience of moderators was valued by participants, associated risks emphasised the need for supportive measures. Policymakers and industry leaders should prioritise transparent and consistent moderation practice. Author SummaryIn todays digital world, ensuring the safety of online mental health spaces is vital. Yet, theres still a lot we dont understand about how people experience moderation, moderators, and moderating in self-harm and suicide online spaces. Our study set out to change that by talking to 14 individuals who engage with this content online. Through interviews and diaries, we learned more about their experiences with platform and online community moderation. Our findings showed some important things. Firstly, individuals with declining mental health struggled to use tools that might keep them safe, like reporting content. This emphasised the need for effective moderation in online mental health spaces, to prevent harm. Secondly, unclear communication and inconsistent moderation practices lead to confusion and frustration amongst users who reported content, or had their own content moderated. Improving transparency and consistency will enhance user experiences of moderation online. Lastly, users encouraged the involvement of mental health professionals into online moderating teams, suggesting platforms and online communities should provide training and supervision from professionals to their moderation staff. These findings support our recommendations for ongoing changes to moderation procedures across online platforms.
Autoren: Zoë Haime, L. Kennedy, L. Grace, L. Biddle
Letzte Aktualisierung: 2024-02-17 00:00:00
Sprache: English
Quell-URL: https://www.medrxiv.org/content/10.1101/2024.02.15.24302878
Quell-PDF: https://www.medrxiv.org/content/10.1101/2024.02.15.24302878.full.pdf
Lizenz: https://creativecommons.org/licenses/by/4.0/
Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.
Vielen Dank an medrxiv für die Nutzung seiner Open-Access-Interoperabilität.