Bias culturale nei dataset di discorsi d'odio: sfide e soluzioni
Esamina il bias culturale nei dataset di discorsi d’odio e il suo impatto sui sistemi di rilevamento.
― 7 leggere min
Indice
- Il Problema del Pregiudizio Culturale
- Analizzare i Dataset di Linguaggio d'Odio
- Lingua e Geografia: Fattori Chiave
- Misurare il Pregiudizio Culturale
- Rappresentanza Geografica nei Dataset di Linguaggio d'Odio
- Perché Contano la Rappresentanza?
- Decisioni di Campionamento nella Creazione del Dataset
- Origine degli Annotatori e Disallineamento Culturale
- Raccomandazioni per Futuri Dataset
- Conclusione
- Fonte originale
- Link di riferimento
L'odio sui social media può fare davvero male e è stato collegato a vari problemi sociali, come violenza e disordini. Questa faccenda è complicata dalle differenze culturali su come viene percepito il linguaggio d'odio. Anche se ci sono alcuni dataset di discorsi d'odio per aiutare a rilevare contenuti dannosi, spesso mostrano pregiudizi legati a Lingua e geografia. Questo articolo parla dell'importanza di capire il Pregiudizio culturale nei dataset di discorsi d'odio e esplora come renderli più rappresentativi delle diverse culture e geografie.
Il Problema del Pregiudizio Culturale
La definizione e la comprensione del linguaggio d'odio variano molto tra le culture. Alcune parole o frasi possono essere considerate neutre in una cultura ma derogatorie in un'altra. Per esempio, il termine "Paki" viene usato in modo informale in Pakistan, mentre nel Regno Unito è visto come un insulto. Poiché la maggior parte dei dataset di linguaggio d'odio sono stati creati con un focus su lingue specifiche, in particolare l'inglese, potrebbero non rappresentare i contesti culturali diversi di quelle lingue. Questo può portare a una cattiva comprensione del linguaggio d'odio e a misure inadeguate per combatterlo.
Analizzare i Dataset di Linguaggio d'Odio
Per capire meglio il pregiudizio culturale, è essenziale valutare i dataset di linguaggio d'odio esistenti. Molti dataset sono stati creati principalmente per i parlanti di inglese, portando a un notevole divario di rappresentanza per i parlanti di altre lingue. Anche se gli sforzi per creare dataset in altre lingue stanno aumentando, i dataset in inglese continuano a dominare il campo. Questo squilibrio può portare a una mancanza di comprensione di come si manifesta il linguaggio d'odio in diverse impostazioni culturali.
L'analisi di dataset in lingue come l'arabo, il francese, il tedesco e lo spagnolo mostra lacune nella loro rappresentazione. Per esempio, i dataset potrebbero concentrarsi pesantemente su paesi specifici, come gli Stati Uniti per l'inglese o la Spagna per lo spagnolo. Questa sovra-representazione può portare a una visione distorta del linguaggio d'odio che non riflette la diversità dei parlanti in vari paesi.
Lingua e Geografia: Fattori Chiave
Quando si esamina il pregiudizio culturale nei dataset di linguaggio d'odio, due fattori importanti entrano in gioco: lingua e geografia. La lingua può fungere da indicativa per l'identità culturale, soprattutto quando è unica per un particolare gruppo. Tuttavia, lingue come l'inglese, l'arabo e lo spagnolo sono parlate da persone provenienti da molte culture diverse. Questa diversità linguistica rende cruciale considerare i fattori geografici quando si valutano i dataset.
Analizzando i dati geografici dei post sui social media, i ricercatori possono ottenere informazioni sui background culturali degli autori. Ad esempio, twittare in inglese non significa necessariamente che l'autore provenga da un paese anglofono. Questa distinzione è importante per capire i diversi contesti in cui può verificarsi il linguaggio d'odio.
Misurare il Pregiudizio Culturale
Per valutare il pregiudizio culturale nei dataset di linguaggio d'odio, i ricercatori hanno analizzato dataset in otto lingue ampiamente parlate: arabo, inglese, francese, tedesco, indonesiano, portoghese, spagnolo e turco. Lo studio mirava a identificare pregiudizi sia a livello linguistico che geografico.
I risultati hanno mostrato che i dataset in inglese costituivano una grande parte delle risorse disponibili, ma questa dominanza è diminuita. Altre lingue, come l'arabo, hanno iniziato a ottenere maggiore rappresentanza negli ultimi anni. Tuttavia, anche in questi dataset in espansione, gli autori provengono spesso da paesi specifici, il che può distorcere la rappresentazione di diverse regioni.
Rappresentanza Geografica nei Dataset di Linguaggio d'Odio
Una scoperta significativa dall'analisi è stata che i dataset spesso sovra-rappresentavano paesi specifici. Per esempio, la maggior parte dei dataset in lingua inglese includeva autori principalmente provenienti dagli Stati Uniti e dal Regno Unito, trascurando i parlanti di inglese provenienti da paesi come India o Nigeria.
Nel caso dei dataset in arabo, gli autori provenivano spesso principalmente dalla Giordania, portando a una rappresentazione ristretta dei parlanti arabi. Allo stesso modo, i dataset spagnoli tendevano a concentrarsi pesantemente sugli autori provenienti dalla Spagna, il che tralasciava molti contesti culturali in altri paesi di lingua spagnola come Cile o Messico.
Perché Contano la Rappresentanza?
La mancanza di rappresentanza nei dataset di linguaggio d'odio ha implicazioni nel mondo reale. Quando i dataset sono distorti verso alcuni paesi, i modelli addestrati su questi dataset potrebbero non riconoscere efficacemente il linguaggio d'odio in contesti culturali meno rappresentati. Questo può portare a un tasso più elevato di falsi negativi, lasciando le comunità vulnerabili senza protezione adeguata contro il linguaggio d'odio.
Inoltre, il contesto culturale è cruciale per una rilevazione accurata del linguaggio d'odio. Parole o frasi che possono essere dannose in una cultura potrebbero essere inoffensive in un'altra. Se un modello addestrato su dati provenienti da paesi sovra-rappresentati viene applicato a un contesto culturale diverso, potrebbe fraintendere l'intento dietro un'affermazione, portando a una censura non necessaria o a non riuscire a catturare il vero linguaggio d'odio.
Decisioni di Campionamento nella Creazione del Dataset
Un problema notevole nella creazione di dataset di linguaggio d'odio è rappresentato dalle decisioni di campionamento fatte dai ricercatori. Queste decisioni possono portare a un focus deliberato o involontario su specifiche geografie o contesti culturali. Per esempio, se i creatori del dataset scelgono parole chiave o frasi specifiche per un certo paese, questa scelta può influenzare pesantemente la diversità del dataset.
C'è una chiara differenza negli approcci adottati dai ricercatori nella creazione di dataset per diverse lingue. Per lingue come l'arabo e lo spagnolo, c'è tendenzialmente più intenzione dietro il campionamento geografico, mentre per i dataset in inglese, il campionamento geografico è spesso meno considerato, portando a un mismatch tra i dati e la popolazione più ampia dei parlanti inglesi.
Origine degli Annotatori e Disallineamento Culturale
Un altro fattore che contribuisce al pregiudizio culturale nei dataset di linguaggio d'odio è l'origine degli annotatori. Quando le persone che annotano i dataset provengono da background culturali diversi da quelli dei dati che annotano, c'è il rischio di fraintendimenti. Questo è particolarmente importante per le lingue con differenze dialettali significative, come l'arabo, dove una mancanza di comprensione delle variazioni regionali può portare a errori nell'annotazione.
Nei dataset esaminati, c'era una notevole mancanza di informazioni riguardo le origini degli annotatori, in particolare nei dataset in inglese. La maggior parte dei dataset in inglese non forniva informazioni su dove provenivano i loro annotatori. Questa oscurità può nascondere un possibile disallineamento culturale tra i dati annotati e le prospettive di chi li annota.
Raccomandazioni per Futuri Dataset
Basandosi sui risultati riguardanti il pregiudizio culturale nei dataset di linguaggio d'odio esistenti, si possono fare diverse raccomandazioni per la creazione di futuri dataset:
Includere il Contesto Geografico: Quando si raccoglie dati, i ricercatori dovrebbero considerare l'origine geografica dei post. Questo aiuterà a capire il contesto culturale in cui si verifica il discorso. Usare parole chiave specifiche per la posizione o restringere il focus a paesi specifici potrebbe aiutare a creare dataset più accurati.
Pool di Annotatori Diversi: Assicurarsi che gli annotatori provengano da background culturali simili ai dati che annotano può migliorare l'accuratezza delle annotazioni. Questo permetterà una migliore comprensione delle sfumature culturali e delle variazioni linguistiche.
Disponibilità dei Dati: Mantenere l'accessibilità rispettando la privacy degli utenti è essenziale. Dovrebbero essere resi disponibili più dataset per la ricerca, per garantire che una vasta gamma di prospettive e voci sia inclusa.
Trasparenza nei Metodi: I creatori di dataset dovrebbero essere trasparenti riguardo ai loro metodi di campionamento, focus geografico e background dei loro annotatori. Questo aiuterà a capire i contesti dietro i dataset e a migliorare la ricerca futura.
Conclusione
La valutazione del pregiudizio culturale nei dataset di linguaggio d'odio rivela sfide significative che influenzano l'efficacia dei sistemi di rilevazione del linguaggio d'odio. Riconoscendo e affrontando questi pregiudizi, ricercatori e sviluppatori possono creare dataset più accurati e rappresentativi. Questo, a sua volta, può portare a strumenti migliori per rilevare e combattere il linguaggio d'odio in diversi contesti culturali.
I risultati sottolineano la necessità di un approccio più sfumato alla rilevazione del linguaggio d'odio che consideri sia la lingua che la geografia. Promuovendo una migliore comprensione dei vari contesti culturali in cui si verifica il linguaggio d'odio, è possibile sviluppare strategie più efficaci per affrontare questa pressing questione sociale.
Titolo: From Languages to Geographies: Towards Evaluating Cultural Bias in Hate Speech Datasets
Estratto: Perceptions of hate can vary greatly across cultural contexts. Hate speech (HS) datasets, however, have traditionally been developed by language. This hides potential cultural biases, as one language may be spoken in different countries home to different cultures. In this work, we evaluate cultural bias in HS datasets by leveraging two interrelated cultural proxies: language and geography. We conduct a systematic survey of HS datasets in eight languages and confirm past findings on their English-language bias, but also show that this bias has been steadily decreasing in the past few years. For three geographically-widespread languages -- English, Arabic and Spanish -- we then leverage geographical metadata from tweets to approximate geo-cultural contexts by pairing language and country information. We find that HS datasets for these languages exhibit a strong geo-cultural bias, largely overrepresenting a handful of countries (e.g., US and UK for English) relative to their prominence in both the broader social media population and the general population speaking these languages. Based on these findings, we formulate recommendations for the creation of future HS datasets.
Autori: Manuel Tonneau, Diyi Liu, Samuel Fraiberger, Ralph Schroeder, Scott A. Hale, Paul Röttger
Ultimo aggiornamento: 2024-04-27 00:00:00
Lingua: English
URL di origine: https://arxiv.org/abs/2404.17874
Fonte PDF: https://arxiv.org/pdf/2404.17874
Licenza: https://creativecommons.org/licenses/by/4.0/
Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.
Si ringrazia arxiv per l'utilizzo della sua interoperabilità ad accesso aperto.
Link di riferimento
- https://www.latex-project.org/help/documentation/encguide.pdf
- https://github.com/manueltonneau/hs-survey-cultural-bias
- https://datareportal.com/essential-twitter-stats
- https://hatespeechdata.com/
- https://developer.twitter.com/en/docs/tutorials/advanced-filtering-for-geo-data
- https://datareportal.com/social-media-users
- https://worldpopulationreview.com/country-rankings/reddit-users-by-country
- https://en.wikipedia.org/wiki/List_of_countries_by_English-speaking_population
- https://cvc.cervantes.es/lengua/espanol_lengua_viva/pdf/espanol_lengua_viva_2022.pdf
- https://www.worlddata.info/languages/arabic.php