Simple Science

Hochmoderne Wissenschaft einfach erklärt

# Computerwissenschaften# Mensch-Computer-Interaktion

Herausforderungen beim Aktualisieren der markierten Revisionen von Wikipedia

Untersuchung der Schwierigkeiten bei der Veränderung des Inhaltsmoderationssystems von Wikipedia.

― 5 min Lesedauer


Überarbeitung desÜberarbeitung desModerationssystems vonWikipediamarkierte Überarbeitungen.Aktualisierung des Ansatzes fürÜberprüfung der Probleme bei der
Inhaltsverzeichnis

Inhaltsmoderation ist super wichtig für Online-Plattformen, um gesetzliche Vorschriften und die Bedürfnisse der Community zu erfüllen. Wenn sich die Erwartungen der Community ändern, müssen sich auch die Moderationspraktiken weiterentwickeln. Allerdings kann es schwierig sein, bestehende Moderationssysteme zu ändern, besonders wenn diese Systeme auf die Unterstützung von Community-Mitgliedern angewiesen sind, um Inhalte zu verwalten. Veränderungen können die Arbeitslast für Moderatoren erhöhen und beeinflussen, wie Mitwirkende belohnt werden.

Dieses Papier betrachtet die Herausforderungen, die bei dem Versuch auftreten, ein Moderationssystem auf Wikipedia zu ändern, das als Flagged Revisions bekannt ist. Wir haben Informationen aus verschiedenen Diskussionen und Interviews gesammelt, um zu verstehen, was diese Änderung so schwierig machte. Obwohl Flagged Revisions anfangs vielversprechend aussah, kam es in Konflikt mit den bestehenden sozialen Normen, an die die Nutzer gewöhnt waren.

Der Bedarf an Moderation

Die meisten Online-Plattformen haben irgendeine Form von Inhaltsmoderation. Das hilft, eine sichere Umgebung für die Nutzer zu schaffen und den Ruf der Plattform zu wahren. Im Laufe der Jahre müssen sich die Moderationspraktiken an neue Gesetze und Erwartungen der Community anpassen.

Moderation ist eine komplexe Aufgabe, die oft ein Gleichgewicht zwischen freiem Ausdruck und der Aufrechterhaltung der Qualität erfordert. Die Untersuchung von Moderation hilft uns, zu verstehen, wie Communities zusammenarbeiten, um Inhalte zu verwalten und Verhaltensregeln aufzustellen.

Fallstudie: Flagged Revisions

Flagged Revisions wurde auf Wikipedia eingeführt, um Vandalismus zu verhindern. Es sollte die Inhaltsqualität verbessern, indem Edits von untrusted Nutzern genehmigt werden mussten, bevor sie auf der Seite erscheinen. Zunächst war es erfolgreich und wurde von vielen Wikis übernommen. Doch mit der Zeit äusserten Nutzer Bedenken hinsichtlich der Auswirkungen auf die Funktionsweise der Community.

Viele Community-Mitglieder hatten das Gefühl, dass die Einführung von Flagged Revisions eine Hierarchie geschaffen hat, die den Gründungprinzipien von Wikipedia offenem Editieren widerspricht. Die Reibung zwischen dem neuen System und den bestehenden Community-Standards machte es schwierig, Unterstützung für das System aufrechtzuerhalten.

Herausforderungen in der Community-Moderation

Nach der Untersuchung früherer Diskussionen und Interviews haben wir drei Hauptkategorien von Herausforderungen identifiziert: Community-Herausforderungen, Plattform- und Politik-Herausforderungen sowie Technische Herausforderungen.

Community-Herausforderungen

Eines der Hauptprobleme war der Konflikt zwischen Flagged Revisions und den etablierten sozialen Normen von Wikipedia. Die Plattform hat immer darauf geachtet, dass jeder beitragen kann. Durch die Einführung verschiedener Nutzerklassen basierend auf Bearbeitungsrechten entstand eine neue soziale Struktur, gegen die viele Nutzer sich sträubten.

Nutzer äusserten Bedenken, dass die neue Hierarchie zu Machtungleichgewichten führen könnte. Es gab Ängste, dass diejenigen mit Reviewer-Rechten ihre Position missbrauchen könnten, was zu einer Kultur des Gatekeepings führen würde. Während einige glaubten, dass die erhöhte Aufsicht höhere Qualitätsbeiträge sicherstellen würde, hatten viele das Gefühl, dass es neue Nutzer abschrecken würde aufgrund der Barrieren, die es schuf.

Zusätzlich war es kompliziert, da viele Nutzer unterschiedliche Meinungen darüber hatten, welche Arten von Edits markiert werden sollten. Einen Konsens über Richtlinien zur Nutzung von Flagged Revisions zu erreichen, war schwierig. Ohne klare Regeln hatten Moderatoren Schwierigkeiten, konsistente Entscheidungen darüber zu treffen, welche Edits genehmigt werden sollten.

Plattform- und Politik-Herausforderungen

Der Mangel an aktiver Unterstützung von der Wikimedia Foundation (WMF) schuf eine weitere Reihe von Herausforderungen. Während die WMF Flagged Revisions entwickelte, überliess sie es den einzelnen Sprachversionen, zu entscheiden, wie das System implementiert und aufrechterhalten wird. Dieser hands-off Ansatz führte zu einem Mangel an notwendiger technischer Unterstützung.

Communities fanden es oft schwierig, das System ohne die richtige Unterstützung zu aktualisieren oder Probleme zu beheben. Zudem war der Prozess, um Änderungen zu beantragen, oft langsam und mühsam, was zu Verzögerungen bei der Bearbeitung von Bedenken unter den Nutzern führte.

Technische Herausforderungen

Technisch gesehen erforderte Flagged Revisions, dass Moderatoren eine grosse Menge an Edits überprüfen. Dieses System ist zeitaufwändig und führt oft zu Rückständen nicht überprüfter Inhalte. Mit der wachsenden Anzahl ausstehender Edits stieg die Arbeitslast für Moderatoren, was zu einem Burnout führen könnte.

Communities standen auch vor der Herausforderung, sicherzustellen, dass die Moderationstools gut mit anderen bestehenden Tools zusammenarbeiteten. Für Plattformen wie Wikipedia, wo viele Tools von Freiwilligen entwickelt wurden, könnte das Vorhandensein mehrerer überlappender Moderationssysteme zu Verwirrung und Ineffizienz führen.

Lektionen, die gelernt wurden

Die Erfahrungen mit Flagged Revisions bieten mehrere Lektionen für Online-Communities, die ihre Moderationspraktiken aktualisieren möchten.

  1. Einbindung der Nutzer: Die aktive Einbindung der Community-Mitglieder in den Entscheidungsprozess kann helfen, Unterstützung für neue Systeme aufzubauen. Eine ordentliche Kommunikation stellt sicher, dass die Nutzer die Vorteile und Grenzen eines neuen Tools verstehen.

  2. Flexibilität: Systeme sollten anpassbar an die Bedürfnisse der Community sein. Plattformen könnten davon profitieren, subcommunities zu erlauben, Moderationstools nach ihren spezifischen Bedürfnissen anzupassen.

  3. Klarheit in den Richtlinien: Klare und prägnante Richtlinien zur Nutzung von Moderationstools können helfen, Konflikte zu vermeiden und Konsistenz bei der Anwendung von Moderationsstandards sicherzustellen.

  4. Überwachung und Feedback: Daten zur Effektivität von Moderationssystemen zu sammeln, kann wertvolle Einblicke bieten. Diese Informationen können zukünftige Anpassungen und Verbesserungen leiten.

  5. Balance der Kontrolle: Das Finden des richtigen Gleichgewichts zwischen Aufsicht und Offenheit ist entscheidend. Sicherzustellen, dass alle Nutzer das Gefühl haben, sie können beitragen, könnte helfen, Widerstand gegen neue Moderationspraktiken zu verhindern.

Fazit

Die Veränderung von Inhaltsmoderationssystemen stellt verschiedene Herausforderungen dar, besonders in community-getriebenen Umgebungen wie Wikipedia. Die Fallstudie zu Flagged Revisions verdeutlicht die Komplexität, neue Ideen zu implementieren, während man sensibel für die etablierten Normen und Werte der Community bleibt.

Indem sie aus früheren Erfahrungen lernen und die Herausforderungen verstehen, können Online-Plattformen bessere Strategien zur Moderation von Inhalten entwickeln, die sowohl den Bedürfnissen der Community als auch den Zielen der Organisation gerecht werden. Zukünftige Moderationsbemühungen sollten sich auf Einbindung, Flexibilität und Klarheit konzentrieren, um Systeme zu schaffen, die für alle Beteiligten funktionieren.

Originalquelle

Titel: Challenges in Restructuring Community-based Moderation

Zusammenfassung: Content moderation practices and technologies need to change over time as requirements and community expectations shift. However, attempts to restructure existing moderation practices can be difficult, especially for platforms that rely on their communities to conduct moderation activities, because changes can transform the workflow and workload of moderators and contributors' reward systems. Through the study of extensive archival discussions around a prepublication moderation technology on Wikipedia named Flagged Revisions, complemented by seven semi-structured interviews, we identify various challenges in restructuring community-based moderation practices. We learn that while a new system might sound good in theory and perform well in terms of quantitative metrics, it may conflict with existing social norms. Our findings also highlight how the intricate relationship between platforms and self-governed communities can hinder the ability to assess the performance of any new system and introduce considerable costs related to maintaining, overhauling, or scrapping any piece of infrastructure.

Autoren: Chau Tran, Kejsi Take, Kaylea Champion, Benjamin Mako Hill, Rachel Greenstadt

Letzte Aktualisierung: 2024-02-27 00:00:00

Sprache: English

Quell-URL: https://arxiv.org/abs/2402.17880

Quell-PDF: https://arxiv.org/pdf/2402.17880

Lizenz: https://creativecommons.org/licenses/by-sa/4.0/

Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.

Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.

Mehr von den Autoren

Ähnliche Artikel