Misurare il sessismo nelle comunità online
Un nuovo metodo quantifica il sessismo e la tossicità nelle discussioni digitali.
― 6 leggere min
Indice
Le discussioni online mostrano spesso forti divisioni tra diversi punti di vista, soprattutto riguardo al genere. Molte persone partecipano a Comunità dove le conversazioni possono facilmente diventare tossiche o sessiste. È importante avere un modo chiaro per misurare quanto sessismo esista in questi gruppi. Questo è cruciale per chi gestisce queste comunità e per i ricercatori che studiano il comportamento online.
Per affrontare questo problema, è stato sviluppato un nuovo metodo per misurare il sessismo nelle comunità online. Questo metodo osserva quanto spesso viene usato un linguaggio negativo contro uomini e donne. Esaminando i commenti in vari gruppi, può fornire spunti su come si comporta ogni comunità e quali atteggiamenti sono presenti.
La Necessità di Misurazione
I social media sono diventati un campo di battaglia per le discussioni sui ruoli di genere. Ci sono comunità che promuovono visioni tradizionali su mascolinità e femminilità, mentre altre sfidano queste idee. Il linguaggio usato in queste discussioni rivela spesso pregiudizi e sentimenti negativi verso determinati gruppi.
Sebbene alcuni studi abbiano riconosciuto la presenza di sessismo nelle comunità, molti non forniscono una misura chiara di quanto sia grave. Ad esempio, potrebbero affermare che un gruppo è sessista ma non indicare quanto sia più sessista rispetto a un altro gruppo.
Per colmare questa lacuna, è stato creato un metodo scalabile che quantifica il sessismo nelle discussioni online. Questo metodo può essere applicato a varie comunità per fornire una comprensione più sfumata del problema.
Come Funziona il Metodo
Il metodo combina due approcci: uno che richiede una certa supervisione e uno che non lo fa. La parte supervisionata coinvolge l'addestramento di un modello per identificare commenti tossici. La parte non supervisionata identifica se questi commenti mirano a uomini o donne.
L'approccio consiste nell'esaminare il linguaggio usato nelle discussioni online, prestando particolare attenzione agli aggettivi che descrivono le identità maschili e femminili. Valuta tre fattori importanti:
Tossicità Contestuale: Misura quanto un termine è tossico in base al suo contesto all'interno della conversazione di una comunità. Ad esempio, una parola che sembra neutra in generale può avere implicazioni negative in certe discussioni.
Frequenza: Determina quanto spesso una parola è usata in una comunità. Un uso frequente di una parola tossica può indicare un problema più grande.
Pregiudizio di genere: Identifica se la parola è di parte verso un genere particolare. Questo aiuta a differenziare tra negatività generale verso un gruppo e attacchi specifici contro singoli individui.
Analizzando questi tre aspetti, il metodo può generare un punteggio che indica il livello di sessismo in una comunità.
Applicare il Metodo a Comuni Reali
Il metodo è stato testato in varie comunità online, in particolare su Reddit, che ha gruppi diversi che discutono di genere. Alcuni di questi gruppi, come r/TheRedPill e r/MGTOW, sono noti per promuovere visioni centrate sugli uomini e sono stati etichettati come misogini. Altri, come r/FemaleDatingStrategy, si concentrano sulle prospettive femminili ma sono stati criticati per oggettivare gli uomini.
Dopo aver analizzato il linguaggio usato in queste comunità, i risultati hanno mostrato schemi coerenti. Il framework ha identificato con successo i vari livelli di sessismo tra i diversi gruppi.
Scoperte da Diverse Comunità
r/TheRedPill e r/MGTOW: Queste comunità hanno ottenuto punteggi elevati di tossicità verso le donne. Le loro discussioni includevano spesso stereotipi negativi e suggerimenti dannosi riguardo al comportamento femminile.
r/FemaleDatingStrategy: Questa comunità mostrava tossicità indirizzata sia verso uomini che verso donne, riflettendo una dinamica complessa dove le donne potrebbero difendere i loro interessi pur usando un linguaggio dispregiativo sugli uomini.
r/IncelTear: Questa comunità, che critica i commenti misogini, mostrava comunque alta tossicità verso singoli uomini, indicando che il sarcasmo può mascherare una negatività sottostante.
Comunità Femministe: I gruppi focalizzati sul femminismo mostravano meno tossicità in generale, ma contenevano comunque discussioni che criticavano i ruoli maschili tradizionali.
Queste osservazioni hanno messo in evidenza come diverse comunità possano impegnarsi in comportamenti tossici basati sulle loro convinzioni e atteggiamenti fondamentali.
Importanza di Distinguere i Target
Una caratteristica significativa del metodo è la sua capacità di distinguere tra tossicità generale verso le identità di genere e attacchi specifici verso individui. Questa chiarezza aiuta a evitare di caratterizzare erroneamente comunità che potrebbero discutere certi individui in modo intenso senza avere visioni negative generali verso un genere.
Ad esempio, una comunità potrebbe essere molto critica nei confronti di un particolare politico uomo senza essere intrinsecamente anti-uomo. Comprendere questa differenza è essenziale per affrontare accuratamente il linguaggio usato in queste discussioni.
Confronto con Altri Metodi
I metodi esistenti per misurare la tossicità spesso si basano pesantemente su elenchi predefiniti di parole e frasi tossiche. Questo può portare a imprecisioni poiché alcune parole potrebbero essere neutre in contesti diversi ma viste come offensive in altri.
Il nuovo metodo, però, si basa su una combinazione di apprendimento supervisionato e non supervisionato, rendendolo più adattabile a vari contesti. Non richiede tanta annotazione manuale dei dati come gli approcci precedenti, il che lo rende più efficiente e scalabile.
Inoltre, a differenza dei metodi totalmente supervisionati che possono essere rigidi e meno generalizzabili, questo nuovo modello può valutare dinamicamente la tossicità in base al linguaggio e al contesto unico di ciascuna comunità. Questo consente una misurazione più precisa del sessismo.
Implicazioni Più Ampie
Questo metodo di misurazione del sessismo non è limitato solo alle discussioni di genere. Può essere applicato ad altre forme di polarizzazione nel discorso online. Ad esempio, potrebbe aiutare ad analizzare discussioni politiche semplicemente cambiando le parole chiave utilizzate nello studio.
Comprendendo come il linguaggio rifletta i pregiudizi, i ricercatori possono ottenere spunti su dinamiche sociali più ampie, compreso come i diversi gruppi comunicano e come queste comunicazioni possono evolvere in opinioni più estreme.
Direzioni Future
Ci sono diverse potenziali strade per la ricerca futura. Un'area importante è espandere il focus oltre il genere per includere altre identità, come razza e orientamento sessuale. Questo richiederebbe di adattare il metodo per tenere conto dei pregiudizi e del linguaggio unici associati a questi altri gruppi.
Un'altra direzione potrebbe essere quella di affinare ulteriormente il modello per distinguere tra diversi tipi di tossicità, come sarcasmo rispetto a vera aggressività. Questo potrebbe portare a comprensioni ancora più sfumate delle dinamiche comunitarie.
Conclusione
In generale, il metodo sviluppato fornisce uno strumento prezioso per misurare il sessismo e la tossicità nelle comunità online. Permette una valutazione più chiara di come il linguaggio rifletta atteggiamenti verso il genere, offrendo spunti che erano precedentemente difficili da quantificare.
Comprendendo queste dinamiche, i moderatori e i responsabili politici possono affrontare meglio i comportamenti tossici negli spazi online, portando potenzialmente a discussioni più sane. Questo metodo apre la strada a future ricerche sulle complessità della comunicazione online e sui fattori sociopolitici che la influenzano.
Titolo: A Holistic Indicator of Polarization to Measure Online Sexism
Estratto: The online trend of the manosphere and feminist discourse on social networks requires a holistic measure of the level of sexism in an online community. This indicator is important for policymakers and moderators of online communities (e.g., subreddits) and computational social scientists, either to revise moderation strategies based on the degree of sexism or to match and compare the temporal sexism across different platforms and communities with real-time events and infer social scientific insights. In this paper, we build a model that can provide a comparable holistic indicator of toxicity targeted toward male and female identity and male and female individuals. Despite previous supervised NLP methods that require annotation of toxic comments at the target level (e.g. annotating comments that are specifically toxic toward women) to detect targeted toxic comments, our indicator uses supervised NLP to detect the presence of toxicity and unsupervised word embedding association test to detect the target automatically. We apply our model to gender discourse communities (e.g., r/TheRedPill, r/MGTOW, r/FemaleDatingStrategy) to detect the level of toxicity toward genders (i.e., sexism). Our results show that our framework accurately and consistently (93% correlation) measures the level of sexism in a community. We finally discuss how our framework can be generalized in the future to measure qualities other than toxicity (e.g. sentiment, humor) toward general-purpose targets and turn into an indicator of different sorts of polarizations.
Autori: Vahid Ghafouri, Jose Such, Guillermo Suarez-Tangil
Ultimo aggiornamento: 2024-06-29 00:00:00
Lingua: English
URL di origine: https://arxiv.org/abs/2404.02205
Fonte PDF: https://arxiv.org/pdf/2404.02205
Licenza: https://creativecommons.org/licenses/by/4.0/
Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.
Si ringrazia arxiv per l'utilizzo della sua interoperabilità ad accesso aperto.
Link di riferimento
- https://sites.google.com/view/iberlef2021/
- https://nlp.uned.es/exist2021/
- https://sites.google.com/site/offensevalsharedtask/offenseval2019
- https://alt.qcri.org/semeval2019/
- https://www.overleaf.com/project/63d6e142e31b5a34680e4aa7main
- https://weaponizedword.org/
- https://arxiv.org/abs/2308.05596
- https://arxiv.org/pdf/2010.14448.pdf
- https://amiibereval2018.wordpress.com/
- https://www.kaggle.com/c/jigsaw-toxic-comment-classification-challenge
- https://www.kaggle.com/c/jigsaw-multilingual-toxic-comment-classification/rules
- https://www.kaggle.com/code/kerneler/starter-sexist-workplace-statements-a8e79cab-c/input
- https://huggingface.co/unitary/toxic-bert
- https://anonymous.4open.science/r/Polarization-Indicator-6243