Simple Science

Scienza all'avanguardia spiegata semplicemente

# Informatica# Computer e società

Identificare profili fuorvianti su Twitter

Questo studio esamina profili di Twitter dannosi che diffondono informazioni fuorvianti.

― 6 leggere min


Rilevazione dei profiliRilevazione dei profilidannosi su Twittersocial media ingannevoli.Uno studio per identificare account
Indice

I social media sono diventati una grande piattaforma per comunicare, ma hanno anche problemi con contenuti fuorvianti e comportamenti dannosi. Alcuni profili, spesso chiamati "profili in missione", diffondono informazioni ingannevoli e commenti tossici su argomenti specifici. Questo studio si concentra sull'identificare questi profili su Twitter e capire il loro comportamento, specialmente come usano vari temi per nascondere le loro vere intenzioni.

L'Ascesa delle Operazioni di influenza

Negli ultimi anni, ci sono stati molti sforzi per manipolare le discussioni sui social media. Alcuni gruppi sponsorizzano individui o usano account automatizzati per condividere materiale polarizzante o falso. Queste “operazioni di influenza” possono cambiare il modo in cui le persone pensano e si sentono riguardo agli eventi attuali, specialmente durante le elezioni o le crisi. Molti di questi casi coinvolgono gruppi più piccoli che agiscono insieme per sembrare più credibili.

Identificare questi account problematici può essere difficile, poiché spesso partecipano a discussioni quotidiane non correlate alla loro agenda principale. Questo rende complicato individuarli tra gli utenti normali. Abbiamo bisogno di modi migliori per rilevare questi account manipolati senza fare affidamento su conoscenze precedenti su di loro.

Identificare i “Profili in Missione”

Questo studio analizza profili su Twitter che sembrano seguire uno schema di condivisione di contenuti dannosi, che chiamiamo "profili in missione". Studiando migliaia di account e tweet, speriamo di raggruppare questi profili in base alla varietà dei loro argomenti e alla quantità di contenuti tossici che producono.

Utilizzando un grande dataset di account Twitter e i loro tweet, analizziamo i diversi argomenti di cui discutono. Scopriamo che i profili con un'ampia gamma di argomenti tendono a generare tweet tossici legati a politica, salute e notizie. Questo suggerisce che potrebbero essere coinvolti in operazioni di influenza.

Costruire un Classificatore

Per identificare questi profili in missione, sviluppiamo un classificatore, che è uno strumento che aiuta a distinguere tra account normali e quelli che mostrano comportamenti discutibili. Usiamo un modello specifico che raggiunge un'ottima precisione nel rilevare questi profili in base ai loro contenuti e Schemi di attività.

Il classificatore è addestrato sui profili più tematicamente diversi ed è progettato per funzionare anche su nuovi dati non etichettati. Raggiungiamo una precisione perfetta nei nostri test, il che aiuta a trovare più profili in missione nel mondo reale.

Raccolta Dati

Per raccogliere i dati necessari, otteniamo informazioni da numerosi dataset pubblici che si concentrano sul comportamento su Twitter. In totale, raccogliamo 143.000 ID profilo e raccogliamo dati storici sui tweet per ciascuno. Questo ci dà accesso a 293 milioni di tweet nel corso degli anni, permettendoci di analizzare diversi aspetti degli account.

Questi dati includono non solo il contenuto dei tweet, ma anche vari dettagli sui profili, come nomi e conteggi di follower. Questi dati completi ci aiutano a identificare schemi che potrebbero indicare operazioni di influenza.

Comprendere gli Argomenti

Per capire il contenuto condiviso da questi profili, utilizziamo il topic modeling. Questo implica ordinare i tweet in diverse categorie o temi in base al loro contenuto. Identifichiamo diversi temi principali che emergono dai tweet dei profili, tra cui politica, salute e notizie generali.

Categorizzando i tweet, possiamo esaminare come diversi profili condividono contenuti. Alcuni profili potrebbero concentrarsi su temi specifici e produrre contenuti più tossici in queste aree, rivelando la loro potenziale intenzione di manipolare le discussioni.

Diversità Tematica e Tossicità

Una delle scoperte chiave del nostro studio è che la diversità tematica è correlata al livello di tossicità nei tweet di un profilo. I profili che discutono una gamma più ampia di argomenti tendono a produrre contenuti più dannosi. Analizzando la tossicità dei tweet su vari temi, possiamo identificare profili più propensi a far parte di operazioni di influenza.

Calcoliamo una misura di diversità per ogni profilo basata sulla gamma di argomenti di cui discutono. I profili con punteggi di diversità più elevati mostrano spesso schemi di comportamento tossico, indicando un potenziale programma per diffondere disinformazione o contenuti polarizzanti.

Schemi di Attività

Un altro aspetto che osserviamo è quanto spesso questi profili twittano. Esaminando il timing dei loro tweet, possiamo determinare se seguono uno schema regolare o twittano sporadicamente. Profili che twittano all'improvviso potrebbero indicare sforzi coordinati per influenzare le discussioni in momenti specifici, mentre profili più genuini potrebbero twittare in modo più uniforme.

Scopriamo che molti dei profili identificati come in missione mostrano schemi di tweet irregolari, spesso postando in raffiche per creare un'impressione di engagement attivo. Questo può aiutarli ad evitare di essere scoperti, mentre spingono comunque la loro agenda.

Caratteristiche del Profilo

Analizziamo anche i metadati associati a ciascun profilo. Questo include dati come il conteggio dei follower, il numero di account che stanno seguendo e le date di creazione del profilo. Queste caratteristiche possono aiutare a distinguere tra utenti genuini e quelli che potrebbero agire in modo manipolativo.

Profili che mostrano un rapporto follower/seguendo insolitamente alto o che sono stati creati di recente possono indicare un comportamento simile a un bot. Analizziamo queste caratteristiche tra diversi gruppi di profili per capire come si collegano alla presenza di contenuti tossici.

Studio di Caso: Analisi di Gruppo

In questa sezione, analizziamo profili divisi in gruppi basati sulla loro diversità tematica. Ad esempio, alcuni gruppi si concentrano sulla politica, mentre altri possono impegnarsi in discussioni sulla salute o sull'intrattenimento. Cerchiamo di vedere come questi profili comunicano in modo diverso in base ai loro temi principali.

Esaminando i cluster, possiamo capire quali gruppi sono più propensi a produrre contenuti tossici e come i loro comportamenti di post differiscono l'uno dall'altro. Quest'analisi aiuta a raffinare la nostra comprensione di come funzionano i profili in missione su Twitter.

Conclusione

Questo studio fornisce preziose intuizioni su come si diffonde informazione falsa e dannosa sulle piattaforme social. Identificando i profili in missione, possiamo capire meglio le tattiche utilizzate nelle operazioni di influenza e il comportamento di questi profili.

Man mano che i social media continuano a svolgere un ruolo cruciale nel plasmare la percezione pubblica, identificare e comprendere queste tattiche manipolative diventa vitale per combattere la disinformazione. Le nostre scoperte evidenziano l'importanza della diversità dei contenuti e del comportamento tossico nel catturare profili che si nascondono dietro a una facciata di normalità mentre spingono un'agenda.

Creando strumenti di rilevamento efficaci, speriamo di contribuire agli sforzi volti a rendere i social media una piattaforma più sicura e affidabile per gli utenti. Il lavoro futuro coinvolgerà il perfezionamento dei nostri metodi ed esplorare come possono essere adattati per identificare operazioni di influenza simili su varie piattaforme di social media.

Fonte originale

Titolo: On mission Twitter Profiles: A Study of Selective Toxic Behavior

Estratto: The argument for persistent social media influence campaigns, often funded by malicious entities, is gaining traction. These entities utilize instrumented profiles to disseminate divisive content and disinformation, shaping public perception. Despite ample evidence of these instrumented profiles, few identification methods exist to locate them in the wild. To evade detection and appear genuine, small clusters of instrumented profiles engage in unrelated discussions, diverting attention from their true goals. This strategic thematic diversity conceals their selective polarity towards certain topics and fosters public trust. This study aims to characterize profiles potentially used for influence operations, termed 'on-mission profiles,' relying solely on thematic content diversity within unlabeled data. Distinguishing this work is its focus on content volume and toxicity towards specific themes. Longitudinal data from 138K Twitter or X, profiles and 293M tweets enables profiling based on theme diversity. High thematic diversity groups predominantly produce toxic content concerning specific themes, like politics, health, and news classifying them as 'on-mission' profiles. Using the identified ``on-mission" profiles, we design a classifier for unseen, unlabeled data. Employing a linear SVM model, we train and test it on an 80/20% split of the most diverse profiles. The classifier achieves a flawless 100% accuracy, facilitating the discovery of previously unknown ``on-mission" profiles in the wild.

Autori: Hina Qayyum, Muhammad Ikram, Benjamin Zi Hao Zhao, an D. Wood, Nicolas Kourtellis, Mohamed Ali Kaafar

Ultimo aggiornamento: 2024-01-25 00:00:00

Lingua: English

URL di origine: https://arxiv.org/abs/2401.14252

Fonte PDF: https://arxiv.org/pdf/2401.14252

Licenza: https://creativecommons.org/licenses/by-nc-sa/4.0/

Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.

Si ringrazia arxiv per l'utilizzo della sua interoperabilità ad accesso aperto.

Altro dagli autori

Articoli simili