Affrontare il linguaggio d'odio con tecnologia avanzata
Usare il deep learning per beccare l'odio sui social.
― 4 leggere min
Indice
Nel mondo di oggi, i social media sono una piattaforma importante dove la gente condivide pensieri e sentimenti. Però, questo spazio ha anche un lato oscuro, visto che può essere usato per diffondere discorsi d'odio e idee estremiste. Durante la guerra Russia-Ucraina, entrambe le parti usavano immagini con testo per spargere propaganda e messaggi pieni di odio. Riconoscere i discorsi d'odio e i contenuti dannosi è fondamentale per ridurre gli effetti negativi che questi messaggi possono avere su individui e comunità.
La Necessità di Riconoscimento
Il discorso d'odio può portare a divisioni e violenza tra le persone. Per promuovere pace e unità, dobbiamo trovare modi efficaci per identificare e minimizzare il discorso d'odio. L'uso di tecnologie avanzate, come il deep learning, sta diventando comune per affrontare questa sfida.
Modelli multimodali
Deep Learning eIl deep learning implica l'uso di algoritmi complessi e grandi quantità di dati per addestrare modelli. Questi modelli possono analizzare testo, immagini e video per capire il contesto dei messaggi online. Combinando diversi tipi di dati, come contenuti testuali e visivi, questi modelli riescono a cogliere meglio l'intento e il significato dietro le informazioni condivise online. Imparano da esempi etichettati, permettendo loro di riconoscere schemi e distinguere tra informazioni utili e contenuti dannosi, incluso il discorso d'odio.
Compito Condiviso di Riconoscimento del Discorso d'Odio Multimodale
In una recente competizione focalizzata sul riconoscimento del discorso d'odio usando vari tipi di dati, chiamata Riconoscimento di Eventi di Discorso d'Odio Multimodali, i partecipanti dovevano identificare il discorso d'odio in immagini contenenti testo. C'erano due sfide principali:
- Riconoscimento del Discorso d'Odio: Stabilire se un'immagine con testo contiene o meno discorso d'odio.
- Riconoscimento del Target: Identificare il target del discorso d'odio e classificarlo come "Individuo," "Comunità," o "Organizzazione."
Metodologie per il Riconoscimento
Per affrontare queste sfide, abbiamo proposto nuovi modelli che combinano diverse tecniche.
Sotto-compito A: Riconoscimento del Discorso d'Odio
Per la prima sfida, abbiamo utilizzato una combinazione di modelli di deep learning e modelli tradizionali che analizzano dati testuali. Abbiamo addestrato i nostri modelli usando testi provenienti da immagini e diverse caratteristiche testuali, che includono la struttura del testo. Questo approccio ci ha permesso di utilizzare informazioni sia visive che testuali per migliorare l'accuratezza. Il nostro modello mirava a identificare le istanze di discorso d'odio all'interno delle immagini e del testo associato.
Sotto-compito B: Riconoscimento del Target
Per la seconda sfida, il nostro modello si è concentrato sul riconoscimento dei target specifici del discorso d'odio. Invece di limitarsi alla struttura del testo, abbiamo estratto informazioni chiave, come nomi di persone o organizzazioni, dal testo. Questo processo è chiamato riconoscimento di entità nominate e aiuta a identificare chi o cosa è preso di mira nel discorso d'odio.
Processo di Sviluppo del Modello
Per costruire i nostri modelli, abbiamo seguito un approccio passo dopo passo:
- Strato di Input: Qui abbiamo raccolto testo e altre caratteristiche dalle immagini.
- Strato del Modello: Abbiamo addestrato i nostri modelli usando una varietà di tecniche, assicurandoci di apprendere efficacemente sia dai testi che dalle immagini.
- Strato di Predizione: Infine, i nostri modelli generavano previsioni su se le immagini contenessero discorso d'odio e i target di tale discorso.
Apprendimento Ensemble
Approccio diPer migliorare i nostri modelli, abbiamo combinato più previsioni in un unico processo decisionale. Questo è noto come apprendimento ensemble. Unendo i risultati di diversi modelli, potevamo migliorare l'accuratezza e fare previsioni migliori rispetto all'uso di un singolo modello.
Risultati e Performance
I nostri modelli sono stati valutati rispetto ad altri partecipanti nella competizione. Abbiamo ottenuto risultati eccezionali in entrambe le sfide. Alla fine, i nostri modelli si sono piazzati primi rispetto a 13 altre squadre per il compito di riconoscimento del discorso d'odio e tra 10 squadre per il compito di riconoscimento del target.
Conclusione
L'aumento del discorso d'odio sui social media è un problema urgente che può portare a conseguenze dannose. Il nostro studio ha dimostrato come le tecniche di deep learning multimodale possano combattere efficacemente questo problema. Utilizzando dati testuali e visivi, abbiamo sviluppato modelli che hanno eccelso nel riconoscere il discorso d'odio e identificare i suoi target.
I risultati indicano che l'utilizzo di tecnologie avanzate come il deep learning può migliorare significativamente gli sforzi di riconoscimento del discorso d'odio. Mentre i social media continuano a giocare un ruolo importante nella formazione dell'opinione pubblica, è fondamentale garantire che queste piattaforme rimangano sicure e promuovano comunicazioni positive tra gli utenti.
Titolo: ARC-NLP at Multimodal Hate Speech Event Detection 2023: Multimodal Methods Boosted by Ensemble Learning, Syntactical and Entity Features
Estratto: Text-embedded images can serve as a means of spreading hate speech, propaganda, and extremist beliefs. Throughout the Russia-Ukraine war, both opposing factions heavily relied on text-embedded images as a vehicle for spreading propaganda and hate speech. Ensuring the effective detection of hate speech and propaganda is of utmost importance to mitigate the negative effect of hate speech dissemination. In this paper, we outline our methodologies for two subtasks of Multimodal Hate Speech Event Detection 2023. For the first subtask, hate speech detection, we utilize multimodal deep learning models boosted by ensemble learning and syntactical text attributes. For the second subtask, target detection, we employ multimodal deep learning models boosted by named entity features. Through experimentation, we demonstrate the superior performance of our models compared to all textual, visual, and text-visual baselines employed in multimodal hate speech detection. Furthermore, our models achieve the first place in both subtasks on the final leaderboard of the shared task.
Autori: Umitcan Sahin, Izzet Emre Kucukkaya, Oguzhan Ozcelik, Cagri Toraman
Ultimo aggiornamento: 2023-07-25 00:00:00
Lingua: English
URL di origine: https://arxiv.org/abs/2307.13829
Fonte PDF: https://arxiv.org/pdf/2307.13829
Licenza: https://creativecommons.org/licenses/by-nc-sa/4.0/
Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.
Si ringrazia arxiv per l'utilizzo della sua interoperabilità ad accesso aperto.
Link di riferimento
- https://github.com/therealthapa/case2023
- https://cloud.google.com/vision/docs/ocr
- https://github.com/explosion/spacy-models/releases/tag/en_core_web_lg-3.6.0
- https://huggingface.co/bert-base-cased
- https://huggingface.co/roberta-base
- https://huggingface.co/microsoft/deberta-v3-base
- https://huggingface.co/google/electra-base-discriminator
- https://huggingface.co/microsoft/swin-base-patch4-window7-224-in22k
- https://huggingface.co/timm/coatnet
- https://huggingface.co/timm/davit
- https://huggingface.co/google/vit-base-patch32-224-in21k
- https://codalab.lisn.upsaclay.fr/competitions/13087