Rilevare Teorie del Complotto su Telegram
Uno studio su come individuare le teorie del complotto nei messaggi di Telegram in lingua tedesca.
― 6 leggere min
Indice
- Contesto
- Scopo dello Studio
- Metodologia
- Raccolta dei Dati
- Approcci ai modelli
- Domande di Ricerca
- Risultati e Scoperte
- Risultati del Fine-Tuning
- Risultati del Modello Basato su Prompt
- Confronto degli Approcci
- Implicazioni delle Scoperte
- Importanza del Contesto
- Applicazioni Pratiche
- Monitoraggio dei Canali
- Sfide nel Rilevamento
- Lavoro Futuro
- Considerazioni Etiche
- Conclusione
- Fonte originale
- Link di riferimento
La crescita delle Teorie del complotto (TC) durante la pandemia di COVID-19 mette in evidenza la necessità di modi efficaci per identificarle negli spazi online. Le teorie del complotto possono diffondersi rapidamente e influenzare negativamente le opinioni delle persone. Quindi, questo articolo analizza i metodi per rilevare le teorie del complotto nei messaggi in lingua tedesca su Telegram. Confrontiamo due approcci principali: il fine-tuning di modelli esistenti e l'uso di modelli basati su prompt.
Contesto
Gli spazi online, soprattutto le piattaforme di social media, sono aree chiave dove le teorie del complotto prosperano. Queste teorie spesso promettono risposte semplici in tempi complicati, come durante una pandemia. Possono danneggiare la fiducia pubblica nelle istituzioni e portare a discorsi d'odio e violenza. Molti strumenti di rilevamento esistenti si concentrano sull'inglese e si basano su ricerche per parole chiave, il che può far perdere il quadro generale. Puntiamo a migliorare i metodi di rilevamento per contenuti in lingua tedesca, dato che è stato meno studiato.
Scopo dello Studio
Il nostro obiettivo è creare strumenti migliori per rilevare le teorie del complotto nei messaggi in lingua tedesca su Telegram. Vogliamo vedere se modelli progettati per l'inglese possono essere adattati per il tedesco e se i metodi basati su prompt possono funzionare altrettanto bene dei tradizionali approcci di fine-tuning. Valuteremo anche l'efficacia di questi modelli in diversi tempi e contesti.
Metodologia
Raccolta dei Dati
Abbiamo usato un insieme di dati chiamato TelCovACT, che include circa 3.663 messaggi da canali Telegram in lingua tedesca noti per diffondere teorie del complotto durante la pandemia. Questi messaggi sono stati raccolti senza fare affidamento su parole chiave per filtrare il contenuto. Questo metodo ci consente di catturare un'ampia gamma di narrazioni complottistiche che potrebbero non includere le parole chiave comuni usate per identificare tali messaggi.
Approcci ai modelli
Ci siamo concentrati su due tipi principali di modelli:
Fine-Tuning Supervisionato: Questo implica l'addestramento di modelli di linguaggio esistenti, come BERT, sul nostro insieme di dati raccolto. Abbiamo regolato i parametri e utilizzato un approccio ben strutturato per migliorare le loro prestazioni nel identificare le teorie del complotto.
Modelli Basati su Prompt: Abbiamo anche testato modelli generativi come GPT-3.5, GPT-4 e Llama 2. Questi modelli possono classificare i testi in base a prompt, che richiedono poco o nessun addestramento aggiuntivo. Usano il testo di input per determinare se supporta le teorie del complotto.
Domande di Ricerca
Ci siamo proposti di rispondere a quattro domande principali:
- I modelli fine-tuned possono ottenere risultati simili a quelli dei modelli in lingua inglese?
- Quanto bene si adattano questi modelli ai cambiamenti di contesto e di tempo?
- I modelli basati su prompt possono eguagliare o superare le prestazioni dei modelli fine-tuned?
- Come influenzano le diverse impostazioni di input le prestazioni del modello?
Risultati e Scoperte
Risultati del Fine-Tuning
Il modello TelConGBERT, il nostro modello BERT fine-tuned, ha raggiunto un punteggio F1 macro-medio alto di 0.85. Questo punteggio indica una grande capacità di identificare le teorie del complotto, in particolare quando il modello è stato addestrato su un insieme di dati che non si basava sul filtraggio per parole chiave. Quando abbiamo testato il modello su dati più recenti, ha mantenuto prestazioni da moderate a buone.
Risultati del Modello Basato su Prompt
Tra i modelli basati su prompt, GPT-4 si è distinto come il più efficace, raggiungendo un punteggio F1 di 0.79 in una configurazione zero-shot. Questo indica che poteva identificare efficacemente le teorie del complotto senza addestramento precedente su esempi specifici. Anche GPT-3.5 e Llama 2 hanno prodotto risultati, ma non erano robusti come quelli di GPT-4.
Confronto degli Approcci
Sia i modelli fine-tuned che quelli basati su prompt hanno dimostrato potenzialità. In alcuni casi, hanno raggiunto livelli di accuratezza simili. Tuttavia, c'era un significativo disaccordo nelle previsioni tra i modelli su il 15% dei dati di test, indicando che è necessaria una ulteriore valutazione per migliorare la coerenza.
Implicazioni delle Scoperte
I risultati suggeriscono che entrambi gli approcci hanno valore nel rilevamento delle teorie del complotto. Il fine-tuning di modelli esistenti come TelConGBERT fornisce risultati affidabili, mentre i metodi basati su prompt come GPT-4 mostrano potenzialità per flessibilità e adattabilità. Questa flessibilità è particolarmente cruciale in un panorama informativo in rapida evoluzione, come si è visto durante la pandemia.
Importanza del Contesto
Lo studio illustra come il contesto e la presenza di componenti narrative chiave possono influenzare il rilevamento delle teorie del complotto. Narrazioni complesse con molti elementi sono più facili da classificare per i modelli rispetto a narrazioni frammentate, che tendono a confondere gli sforzi di rilevamento.
Applicazioni Pratiche
I risultati hanno implicazioni pratiche per le organizzazioni che monitorano la comunicazione online. Usare modelli come TelConGBERT potrebbe aiutare a tracciare le teorie del complotto in modo più efficace, contribuendo alla lotta contro la disinformazione. L'analisi di grandi dataset provenienti da vari canali Telegram ha indicato che una parte significativa dei messaggi conteneva teorie del complotto.
Monitoraggio dei Canali
Nella nostra analisi, oltre l'11% dei messaggi provenienti da 215 canali Telegram pubblici sono stati identificati come contenenti teorie del complotto. Questo si traduce in una quantità sostanziale di contenuto potenzialmente dannoso che può influenzare l'opinione pubblica.
Sfide nel Rilevamento
Nonostante i risultati promettenti, ci sono sfide nel rilevamento delle teorie del complotto. La complessità intrinseca di queste narrazioni le rende difficili da classificare. I modelli possono avere difficoltà, soprattutto con informazioni frammentate che mancano di completezza. Questa complessità riflette anche la difficoltà che incontrano gli annotatori umani quando categorizzano questi messaggi.
Lavoro Futuro
Per migliorare questi risultati, le future ricerche possono cercare di ampliare ulteriormente il dataset ed esplorare modelli aggiuntivi. Collaborazioni con organizzazioni che monitorano contenuti dannosi online potrebbero migliorare l’adattabilità di questi modelli a scenari reali. Tecniche di campionamento e annotazioni più raffinate possono anche fornire dati più chiari per l'addestramento.
Considerazioni Etiche
Mentre lavoriamo per migliorare i metodi di rilevamento, è essenziale considerare le implicazioni etiche dell'automazione nella moderazione dei contenuti. Le classificazioni errate possono portare a conseguenze negative, come penalizzare discorsi legittimi o non affrontare contenuti dannosi. È cruciale bilanciare i benefici dell'automazione con la necessità di un rilevamento accurato e responsabile.
Conclusione
Questo studio dimostra il potenziale per un miglior rilevamento delle teorie del complotto nei testi in lingua tedesca usando sia metodi di fine-tuning che basati su prompt. I risultati confermano che modelli di linguaggio sofisticati possono essere applicati efficacemente in questo contesto, fornendo strumenti vitali per gestire la disinformazione. Man mano che continuiamo a perfezionare questi approcci, l'obiettivo dovrebbe rimanere quello di migliorare la loro applicabilità e affidabilità in scenari reali.
La ricerca e lo sviluppo continui in questo campo contribuiranno non solo a una migliore comprensione delle teorie del complotto, ma anche a sviluppare soluzioni che possano affrontare la loro diffusione sulle piattaforme di social media.
Titolo: Detection of Conspiracy Theories Beyond Keyword Bias in German-Language Telegram Using Large Language Models
Estratto: The automated detection of conspiracy theories online typically relies on supervised learning. However, creating respective training data requires expertise, time and mental resilience, given the often harmful content. Moreover, available datasets are predominantly in English and often keyword-based, introducing a token-level bias into the models. Our work addresses the task of detecting conspiracy theories in German Telegram messages. We compare the performance of supervised fine-tuning approaches using BERT-like models with prompt-based approaches using Llama2, GPT-3.5, and GPT-4 which require little or no additional training data. We use a dataset of $\sim\!\! 4,000$ messages collected during the COVID-19 pandemic, without the use of keyword filters. Our findings demonstrate that both approaches can be leveraged effectively: For supervised fine-tuning, we report an F1 score of $\sim\!\! 0.8$ for the positive class, making our model comparable to recent models trained on keyword-focused English corpora. We demonstrate our model's adaptability to intra-domain temporal shifts, achieving F1 scores of $\sim\!\! 0.7$. Among prompting variants, the best model is GPT-4, achieving an F1 score of $\sim\!\! 0.8$ for the positive class in a zero-shot setting and equipped with a custom conspiracy theory definition.
Autori: Milena Pustet, Elisabeth Steffen, Helena Mihaljević
Ultimo aggiornamento: 2024-04-27 00:00:00
Lingua: English
URL di origine: https://arxiv.org/abs/2404.17985
Fonte PDF: https://arxiv.org/pdf/2404.17985
Licenza: https://creativecommons.org/licenses/by-nc-sa/4.0/
Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.
Si ringrazia arxiv per l'utilizzo della sua interoperabilità ad accesso aperto.