Affrontare l'odio online in Indonesia
Un nuovo dataset mira a migliorare il rilevamento dell'incitamento all'odio in Indonesia.
― 9 leggere min
Indice
- La necessità di migliori sistemi di rilevamento
- Introduzione di IndoToxic2024
- L'impatto del discorso d'odio
- Sfide nello sviluppo di sistemi di rilevamento
- Soggettività nell'Annotazione del discorso d'odio
- Il processo di creazione di IndoToxic2024
- Linee guida per l'annotazione
- Analisi del dataset
- Soggettività nell'annotazione: uno sguardo più da vicino
- La metrica di affidabilità inter-coder
- Risultati di modellazione e valutazione delle prestazioni
- Il ruolo delle informazioni tematiche
- Direzioni future e raccomandazioni
- Conclusione
- Fonte originale
- Link di riferimento
Il discorso d'odio è un problema majeur nella società di oggi, soprattutto online. Può danneggiare le relazioni tra diversi gruppi di persone e portare a gravi problemi sociali. In Indonesia, la quantità di discorso d'odio online è aumentata vertiginosamente, rendendo critico trovare metodi efficaci per rilevarlo e gestirlo. Sfortunatamente, manca dati che identificano chiaramente il discorso d'odio nella lingua indonesiana, in particolare contro gruppi emarginati come i musulmani sciiti, le persone LGBTQ+ e le minoranze etniche. Questa scarsità di dati rende difficile sviluppare sistemi di rilevamento affidabili.
La necessità di migliori sistemi di rilevamento
Negli ultimi due anni, l'Indonesia ha visto un aumento significativo del discorso d'odio online. Questa crescita allarmante indica la necessità di migliori sistemi di rilevamento per identificare e affrontare il discorso d'odio in modo efficace. Tuttavia, creare questi sistemi è difficile perché i dataset disponibili sono spesso obsoleti o non abbastanza dettagliati. I dataset esistenti di solito contengono solo un numero ridotto di testi etichettati, il che limita la possibilità di costruire strumenti di rilevamento affidabili.
Inoltre, il discorso d'odio spesso rimane non segnalato, soprattutto quando colpisce le comunità emarginate. Questo rende ancora più complesso comprendere e classificare tale discorso. I dataset attuali non tengono inoltre conto delle diverse prospettive che le persone hanno su ciò che costituisce il discorso d'odio, complicando ulteriormente gli sforzi di rilevamento.
Introduzione di IndoToxic2024
Per affrontare le lacune nel rilevamento del discorso d'odio, è stato creato un nuovo dataset chiamato IndoToxic2024. Questo dataset contiene 43.692 voci etichettate da un gruppo diversificato di 19 individui. Si concentra specificamente su testi che prendono di mira gruppi vulnerabili in Indonesia, in particolare durante le recenti elezioni presidenziali. L'obiettivo di IndoToxic2024 è consentire lo sviluppo di migliori sistemi di rilevamento per il discorso d'odio e il comportamento Tossico online.
Oltre a identificare il discorso d'odio, il dataset mira ad analizzare come diverse informazioni demografiche possano migliorare i modelli di classificazione. Un modello chiamato IndoBERTweet è stato ottimizzato utilizzando questo dataset, raggiungendo un buon livello di prestazioni. Tuttavia, è stato anche notato che un'eccessiva attenzione alle informazioni demografiche può talvolta danneggiare l'accuratezza del modello.
L'impatto del discorso d'odio
Il discorso d'odio può avere un impatto serio sull'armonia sociale. Non crea solo divisioni tra diversi gruppi, ma può anche portare a un aumento dell'ostilità e del conflitto. Questo è particolarmente vero per le comunità emarginate che sono spesso i principali obiettivi di tale discorso. L'aumento del discorso d'odio online può contribuire alla polarizzazione sociale, mettendo a rischio maggiore i gruppi vulnerabili.
I sistemi di rilevamento automatico del discorso d'odio possono contribuire a ridurre gli effetti negativi del discorso d'odio. Tuttavia, come accennato in precedenza, lo sviluppo di questi sistemi affronta diverse sfide.
Sfide nello sviluppo di sistemi di rilevamento
Una sfida significativa è la mancanza di dati aggiornati. Molti dataset indonesiani contengono solo alcune migliaia di testi etichettati, il che non è sufficiente per creare uno strumento di rilevamento affidabile. A complicare ulteriormente le cose, molti dei dataset esistenti non includono informazioni cruciali sulle persone che hanno etichettato i testi. Queste informazioni demografiche sono importanti poiché gli individui di diversi contesti possono interpretare il discorso d'odio in modo diverso.
Ad esempio, ciò che un gruppo considera discorso d'odio potrebbe essere accettato come normale o addirittura umoristico da un altro. Questa differenza di prospettiva aggiunge complessità al compito di categorizzare accuratamente il discorso d'odio.
Annotazione del discorso d'odio
Soggettività nell'La soggettività gioca un ruolo cruciale nel modo in cui i testi vengono etichettati come discorso d'odio. Diversi individui portano con sé diversi background, esperienze e punti di vista, che possono tutti influenzare come percepiscono un testo. Questa soggettività è particolarmente evidente nei casi in cui il contenuto non è chiaro o contiene significati sottostanti, come il sarcasmo.
Per creare un dataset affidabile, è essenziale avere annotatori diversificati che possano rappresentare vari gruppi demografici. IndoToxic2024 include voci etichettate da individui provenienti da più contesti, il che può aiutare a catturare le diverse prospettive su ciò che costituisce il discorso d'odio.
Il processo di creazione di IndoToxic2024
La raccolta e l'annotazione dei dati per IndoToxic2024 hanno coinvolto diversi passaggi. I testi sono stati raccolti da varie popolari piattaforme di social media in Indonesia, tra cui Facebook, Instagram e Twitter. I ricercatori hanno anche utilizzato articoli incentrati sulla disinformazione per aumentare la diversità del dataset.
Dopo aver raccolto i dati, è stato reclutato un gruppo diversificato di 19 annotatori per etichettare i testi. Ogni annotatore è stato compensato per il proprio lavoro e si è prestata attenzione a garantire che rappresentassero diversi background demografici. Gli annotatori sono stati formati su linee guida specifiche per identificare il discorso d'odio per migliorare la loro coerenza e accuratezza.
Linee guida per l'annotazione
Una parte chiave del processo di annotazione è stata lo sviluppo di linee guida che aiutassero gli annotatori a riconoscere i commenti tossici. La tossicità può manifestarsi in vari modi, tra cui insulti, minacce e contenuti sessualmente espliciti. Gli annotatori sono stati istruiti a considerare sia le forme esplicite che quelle implicite di discorso d'odio.
L'annotazione è stata effettuata in due fasi: una fase di addestramento seguita dalla fase principale di annotazione. Nella fase di addestramento, gli annotatori hanno praticato l'etichettatura dei testi per assicurarsi di aver compreso le linee guida. La fase principale di annotazione ha comportato l'etichettatura di migliaia di testi, che ha portato infine alla creazione del dataset IndoToxic2024.
Analisi del dataset
Il dataset IndoToxic2024 include statistiche dettagliate sui tipi di discorso d'odio etichettati. Su 43.692 testi, 6.894 sono stati identificati come tossici. La maggior parte dei testi tossici è stata classificata come insulti, mentre altri rientrano in varie tipologie di discorso d'odio, come minacce o attacchi all'identità.
L'analisi di come diversi gruppi demografici hanno annotato i testi ha rivelato che le opinioni su ciò che costituisce il discorso d'odio possono variare significativamente tra i generi. Ad esempio, gli annotatori maschi hanno etichettato una percentuale maggiore dei loro testi come tossici rispetto agli annotatori femmina. Questo risultato evidenzia la soggettività coinvolta nell'etichettatura del discorso d'odio e sottolinea l'importanza di includere prospettive diverse nel processo di annotazione.
Soggettività nell'annotazione: uno sguardo più da vicino
La soggettività degli annotatori può influenzare i risultati dei sistemi di rilevamento del discorso d'odio. Uno studio ha mostrato che includere informazioni demografiche può migliorare le previsioni sulla tossicità del discorso d'odio. Tuttavia, ci sono ancora disaccordi tra gli annotatori su cosa costituisce il discorso d'odio, sottolineando che le definizioni possono variare ampiamente.
L'analisi ha anche sottolineato che i testi vengono spesso assegnati casualmente agli annotatori, il che può creare pregiudizi nell'etichettatura se determinati gruppi demografici interpretano i testi in modo diverso. Per valutare questa soggettività, i ricercatori hanno applicato test statistici per vedere se la distribuzione delle etichette di discorso d'odio differisse tra vari gruppi demografici.
La metrica di affidabilità inter-coder
Per misurare quanto costantemente gli annotatori hanno etichettato i testi, è stata utilizzata una metrica di affidabilità inter-coder (ICR). Un punteggio ICR elevato indica che gli annotatori concordano sulle loro valutazioni. Valutare i punteggi ICR all'interno e tra i gruppi demografici aiuta a comprendere come la soggettività influisca sul processo di etichettatura.
In generale, ci si aspettava che i punteggi ICR fossero più elevati all'interno dei gruppi rispetto a quelli tra diversi gruppi. Tuttavia, questa assunzione non è stata sempre supportata dai risultati. Alcuni gruppi hanno mostrato punteggi simili indipendentemente dal fatto che i confronti siano stati effettuati all'interno o tra categorie demografiche, suggerendo che l'identità degli annotatori gioca un ruolo nel modo in cui i testi vengono percepiti.
Risultati di modellazione e valutazione delle prestazioni
L'ottimizzazione di modelli come IndoBERTweet utilizzando il dataset IndoToxic2024 ha permesso ai ricercatori di valutare le prestazioni di questi modelli nel rilevamento del discorso d'odio. Inizialmente, il modello ha avuto buone prestazioni, raggiungendo notevoli livelli di accuratezza. Incorporando informazioni demografiche e analizzando il loro impatto sulle prestazioni, sono state ottenute ulteriori informazioni.
Per alcuni modelli, l'inclusione di informazioni demografiche ha migliorato le prestazioni. Tuttavia, nel caso di IndoBERTweet, un'eccessiva quantità di dati demografici ha portato a una riduzione delle prestazioni. Ciò suggerisce che, sebbene le informazioni demografiche possano fornire un contesto utile, possono anche complicare il processo di apprendimento se non gestite con attenzione.
Il ruolo delle informazioni tematiche
Oltre alle informazioni demografiche, è stata indagata l'importanza del tema dei testi. Fornendo informazioni relative al tema ai modelli, i ricercatori hanno scoperto che le prestazioni complessive sono migliorate. Fornire contesto su cosa discuta il testo ha aiutato i modelli a fare previsioni migliori su se un testo potesse essere considerato discorso d'odio.
Questo miglioramento indica che i modelli traggono vantaggio dall'avere un insieme più ricco di informazioni con cui lavorare, consentendo loro di prendere decisioni più sfumate nella classificazione del discorso d'odio.
Direzioni future e raccomandazioni
Nonostante le conoscenze acquisite dalla creazione e dall'analisi di IndoToxic2024, rimangono diverse importanti sfide. Una delle principali preoccupazioni è il potenziale uso improprio dei dataset di discorso d'odio. Le implicazioni etiche di tali dataset devono essere attentamente considerate, soprattutto poiché potrebbero essere utilizzate per addestrare modelli a generare più discorso d'odio.
Per andare avanti, si incoraggiano i ricercatori a creare ulteriori dataset che si concentrino specificamente sul discorso d'odio che colpisce gruppi vulnerabili. Sviluppare sistemi di rilevamento automatizzato che possano classificare con precisione il discorso d'odio è cruciale per proteggere queste comunità.
Inoltre, un'esplorazione più approfondita di come le informazioni demografiche e tematiche migliorano le prestazioni dei modelli potrebbe portare a interessanti progressi nella tecnologia di rilevamento del discorso d'odio.
Conclusione
La situazione riguardante il discorso d'odio online è un problema urgente che richiede attenzione immediata. IndoToxic2024 rappresenta un passo significativo verso la creazione di sistemi di rilevamento efficaci per identificare e gestire il discorso d'odio in Indonesia. Riconoscendo le complessità delle annotazioni del discorso d'odio, inclusi aspetti come la soggettività, le considerazioni demografiche e le informazioni contestuali, possiamo lavorare per creare spazi online più sicuri per tutti gli individui, in particolare quelli delle comunità emarginate.
Attraverso la continua ricerca e sviluppo, possiamo aiutare a mitigare gli effetti dannosi causati dal discorso d'odio e promuovere una maggiore comprensione e rispetto tra i diversi gruppi di persone.
Titolo: IndoToxic2024: A Demographically-Enriched Dataset of Hate Speech and Toxicity Types for Indonesian Language
Estratto: Hate speech poses a significant threat to social harmony. Over the past two years, Indonesia has seen a ten-fold increase in the online hate speech ratio, underscoring the urgent need for effective detection mechanisms. However, progress is hindered by the limited availability of labeled data for Indonesian texts. The condition is even worse for marginalized minorities, such as Shia, LGBTQ, and other ethnic minorities because hate speech is underreported and less understood by detection tools. Furthermore, the lack of accommodation for subjectivity in current datasets compounds this issue. To address this, we introduce IndoToxic2024, a comprehensive Indonesian hate speech and toxicity classification dataset. Comprising 43,692 entries annotated by 19 diverse individuals, the dataset focuses on texts targeting vulnerable groups in Indonesia, specifically during the hottest political event in the country: the presidential election. We establish baselines for seven binary classification tasks, achieving a macro-F1 score of 0.78 with a BERT model (IndoBERTweet) fine-tuned for hate speech classification. Furthermore, we demonstrate how incorporating demographic information can enhance the zero-shot performance of the large language model, gpt-3.5-turbo. However, we also caution that an overemphasis on demographic information can negatively impact the fine-tuned model performance due to data fragmentation.
Autori: Lucky Susanto, Musa Izzanardi Wijanarko, Prasetia Anugrah Pratama, Traci Hong, Ika Idris, Alham Fikri Aji, Derry Wijaya
Ultimo aggiornamento: 2024-06-27 00:00:00
Lingua: English
URL di origine: https://arxiv.org/abs/2406.19349
Fonte PDF: https://arxiv.org/pdf/2406.19349
Licenza: https://creativecommons.org/licenses/by-nc-sa/4.0/
Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.
Si ringrazia arxiv per l'utilizzo della sua interoperabilità ad accesso aperto.