L'impatto del design del sistema di segnalazione sulle percezioni di equità degli utenti
Esaminando come i meccanismi di segnalazione influenzano la fiducia degli utenti e le percezioni di equità.
― 7 leggere min
Le piattaforme di social media sono diventate fondamentali per la comunicazione e l'interazione nella comunità. Tuttavia, queste piattaforme affrontano anche sfide riguardo a contenuti inappropriati come discorsi d'odio, disinformazione e molestie. Per affrontare questi problemi, molte piattaforme hanno implementato sistemi di segnalazione che permettono agli utenti di riportare contenuti che trovano preoccupanti. Usando questi sistemi, gli utenti possono influenzare direttamente le decisioni di moderazione e contribuire a mantenere gli standard della comunità.
Questo documento discute come il design dei sistemi di segnalazione influisce sulle percezioni di equità degli utenti nel processo di moderazione dei contenuti. Abbiamo condotto un ampio esperimento di sondaggio per esplorare come diversi elementi di design influenzano le esperienze degli utenti con la segnalazione. Il nostro obiettivo è fornire spunti che possano aiutare le piattaforme a migliorare i loro meccanismi di segnalazione e rafforzare la fiducia tra utenti e piattaforme.
Meccanismi di Segnalazione sui Social Media
Segnalare è un processo attraverso il quale gli utenti possono riportare post o account che credono violino le regole della piattaforma. Questo meccanismo permette agli utenti di partecipare agli sforzi di moderazione dei contenuti. Una volta che una segnalazione è effettuata, i moderatori esaminano il contenuto segnalato e decidono sull'azione appropriata. Le azioni possono includere la rimozione del contenuto, la riduzione della sua visibilità o l'imposizione di altre sanzioni.
La segnalazione è cruciale per le piattaforme di social media in quanto aiuta a gestire il volume enorme di contenuti pubblicati ogni giorno. Tuttavia, l'efficacia di questi sistemi dipende fortemente da come sono progettati e da come gli utenti li percepiscono. La motivazione degli utenti a segnalare contenuti e le loro esperienze durante il processo di segnalazione possono plasmare significativamente la loro opinione sull'equità e la responsabilità della piattaforma.
Panoramica dello Studio
Il nostro studio mirava a valutare come le varie scelte di design dei sistemi di segnalazione influenzano le percezioni di equità degli utenti, specialmente in termini di coerenza, trasparenza e voce. Abbiamo condotto un sondaggio online con un gruppo diversificato di partecipanti. Assegnando casualmente agli utenti diversi scenari di segnalazione, abbiamo valutato come componenti come schemi di classificazione, linee guida per la pubblicazione, Caselle di testo e tipi di moderatori influenzano le percezioni di equità.
Componenti Chiave dei Meccanismi di Segnalazione
Ci siamo concentrati su quattro componenti chiave nella nostra analisi:
Schemi di Classificazione: Queste sono categorie che definiscono diversi tipi di violazioni delle regole. Gli utenti selezionano la categoria appropriata quando segnalano un post.
Linee Guida per la Pubblicazione: Queste forniscono agli utenti informazioni su cosa costituisce contenuto inappropriato. Linee guida chiare possono aiutare gli utenti a prendere decisioni informate quando segnalano.
Caselle di Testo: Queste permettono agli utenti di fornire spiegazioni aggiuntive per le loro segnalazioni. Uno spazio aperto consente agli utenti di esprimere le proprie preoccupazioni con parole loro.
Tipo di Moderatore: Questo si riferisce a se la revisione della segnalazione è condotta da un moderatore umano o da un sistema automatizzato. Gli utenti possono percepire queste due opzioni in modo diverso, a seconda dell'identità del moderatore.
Percezioni degli Utenti sull'Equità
Per valutare le percezioni di equità degli utenti, ci siamo concentrati su tre attributi principali:
Coerenza: Questo si riferisce a quanto uniformemente vengono applicate le decisioni di moderazione in diversi casi. Gli utenti si aspettano che tutte le segnalazioni vengano trattate con gli stessi criteri, indipendentemente da chi le invia.
Trasparenza: La trasparenza implica fornire informazioni chiare su come vengono prese le decisioni di moderazione. Gli utenti vogliono capire le regole e i processi dietro la segnalazione.
Voce: La voce riflette quanto bene gli utenti possono esprimere le proprie opinioni e fornire feedback durante il processo di segnalazione. Un meccanismo che permette agli utenti di condividere i propri pensieri aumenta il loro senso di coinvolgimento e giustizia.
Metodologia
Abbiamo condotto un sondaggio che ha coinvolto oltre 2.900 partecipanti ai quali è stato chiesto di segnalare post inappropriati usando vari scenari di segnalazione. I partecipanti hanno valutato le loro esperienze in base agli attributi di equità sopra citati dopo essere stati assegnati a uno dei diversi design di segnalazione.
Risultati Chiave
Il Ruolo degli Schemi di Classificazione
I partecipanti che hanno incontrato schemi di classificazione semplici hanno percepito un livello più alto di coerenza rispetto a quelli con opzioni più dettagliate. Questo suggerisce che gli utenti potrebbero sentirsi sopraffatti da troppe opzioni, portando a confusione su come categorizzare le loro preoccupazioni.
In termini di trasparenza, il tipo di schema di classificazione utilizzato non ha avuto un impatto significativo sulle percezioni degli utenti. Tuttavia, è emerso che gli utenti apprezzavano avere alcune categorie disponibili, poiché ciò dava loro una comprensione più chiara del processo di segnalazione.
Le percezioni di voce sono migliorate quando i partecipanti hanno potuto scegliere da uno schema di classificazione semplice, indicando che meno opzioni possono fornire agli utenti un migliore senso di agenzia.
Importanza delle Linee Guida per la Pubblicazione
I nostri risultati hanno evidenziato che linee guida di pubblicazione chiare aumentavano le percezioni di trasparenza degli utenti. I partecipanti che avevano accesso a linee guida di pubblicazione hanno riferito di sentirsi più informati sui processi di moderazione. Tuttavia, avere linee guida di pubblicazione non ha avuto un impatto significativo sulle Voci degli utenti nel processo di segnalazione.
Impatto delle Caselle di Testo
L'inclusione di una casella di testo per consentire agli utenti di esprimere le loro ragioni per la segnalazione non ha avuto un impatto negativo sulle percezioni di coerenza o trasparenza. Invece, ha migliorato significativamente la voce percepita dagli utenti, permettendo ai partecipanti di articolare le proprie obiezioni in modo più completo. Gli utenti hanno espresso il desiderio di questa funzione, poiché consentiva loro di fornire contesto che poteva aiutare i moderatori a comprendere meglio il ragionamento dietro le loro segnalazioni.
Influenza del Tipo di Moderatore
Curiosamente, sapere se un moderatore umano o automatizzato avrebbe esaminato una segnalazione non ha cambiato significativamente le percezioni degli utenti riguardo a coerenza, trasparenza o voce. Anche se alcuni partecipanti hanno espresso preferenze per i moderatori umani, le differenze complessive erano minime. Questo suggerisce che gli utenti potrebbero dare priorità agli aspetti strutturali del processo di segnalazione piuttosto che alle identità specifiche di coloro che gestiscono le revisioni.
Raccomandazioni per il Miglioramento
Sulla base dei nostri risultati, proponiamo diverse raccomandazioni per migliorare i sistemi di segnalazione:
Semplificare gli Schemi di Classificazione: Le piattaforme dovrebbero considerare di utilizzare sistemi di classificazione semplici che permettano agli utenti di selezionare la categoria più rilevante senza sopraffarli con troppe opzioni.
Integrare Linee Guida Chiare per la Pubblicazione: Dovrebbero essere fornite linee guida chiare, possibilmente con esempi, per aiutare gli utenti a capire le regole riguardanti contenuti inappropriati.
Incorporare Caselle di Testo Aperte: Consentire agli utenti di esprimere le proprie preoccupazioni specifiche tramite caselle di testo può aumentare il loro senso di voce e coinvolgimento nel processo di moderazione.
Garantire Trasparenza Sui Processi di Revisione: Le piattaforme dovrebbero comunicare come vengono gestite le segnalazioni e i criteri utilizzati nella moderazione per favorire la fiducia.
Considerare Modelli di Moderazione Ibridi: Coinvolgere sia revisori umani che automatizzati potrebbe aiutare a bilanciare l'efficienza con la comprensione sfumata che i moderatori umani possono portare.
Conclusione
I sistemi di segnalazione sono essenziali per mantenere gli standard della comunità sulle piattaforme di social media. Il design di questi sistemi influenza significativamente le percezioni di equità degli utenti. Concentrandosi sulle esigenze e percezioni degli utenti, le piattaforme possono creare meccanismi di segnalazione più robusti che migliorano la trasparenza, la coerenza e la voce degli utenti nel processo di moderazione.
La ricerca futura dovrebbe continuare a esplorare come diversi elementi di design possano essere ottimizzati per migliorare le esperienze degli utenti. Dare risalto alle prospettive degli utenti sarà fondamentale per affrontare le sfide continue della moderazione dei contenuti in un panorama online in continua evoluzione.
Titolo: Incorporating Procedural Fairness in Flag Submissions on Social Media Platforms
Estratto: Flagging mechanisms on social media platforms allow users to report inappropriate posts/accounts for review by content moderators. These reports are pivotal to platforms' efforts toward regulating norm violations. This paper examines how platforms' design choices in implementing flagging mechanisms influence flaggers' perceptions of content moderation. We conducted a survey experiment asking US respondents (N=2,936) to flag inappropriate posts using one of 54 randomly assigned flagging implementations. After flagging, participants rated their fairness perceptions of the flag submission process along the dimensions of consistency, transparency, and voice (agency). We found that participants perceived greater transparency when flagging interfaces included community guidelines and greater voice when they incorporated a text box for open-ended feedback. Our qualitative analysis highlights user needs for improved accessibility, educational support for reporting, and protections against false flags. We offer design recommendations for building fairer flagging systems without exacerbating the cognitive burden of submitting flags.
Autori: Yunhee Shim, Shagun Jhaver
Ultimo aggiornamento: 2024-12-19 00:00:00
Lingua: English
URL di origine: https://arxiv.org/abs/2409.08498
Fonte PDF: https://arxiv.org/pdf/2409.08498
Licenza: https://creativecommons.org/licenses/by/4.0/
Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.
Si ringrazia arxiv per l'utilizzo della sua interoperabilità ad accesso aperto.