Simple Science

Scienza all'avanguardia spiegata semplicemente

# Informatica# Crittografia e sicurezza

La minaccia in evoluzione del phishing basato su logo

Gli attacchi di phishing con loghi manipolati sono un bel rischio per gli utenti.

― 7 leggere min


Logo Phishing: Un RischioLogo Phishing: Un RischioCrescenterilevamento.mettono alla prova i sistemi diLoghi manipolati ingannano gli utenti e
Indice

Gli attacchi di Phishing sono una preoccupazione crescente nel nostro mondo digitale. Questi attacchi cercano di ingannare gli utenti per fargli rivelare informazioni personali spacciandosi per entità affidabili. La tecnologia recente ha reso più facile identificare i siti di phishing utilizzando metodi avanzati come il deep learning. Una delle ultime tendenze coinvolge il controllo dei Loghi di marchi popolari sulle pagine web. Questo metodo cerca loghi per vedere se un sito sta cercando di impersonare un marchio legittimo. Se un sito ha un logo ma un indirizzo web diverso, è probabile che stia cercando di ingannare i visitatori.

Nonostante i progressi nella rilevazione dei siti di phishing, gli attaccanti trovano sempre nuovi metodi per eludere questi sistemi. Questo articolo si concentra sulla sfida di rilevare siti di phishing che usano loghi. Esploreremo come gli attaccanti possano creare loghi fuorvianti che possono ingannare sia i sistemi di rilevazione che gli utenti reali.

Rilevazione del phishing basata sui loghi

I siti di phishing spesso imitano marchi legittimi per ingannare gli utenti. Un sistema di rilevazione del phishing basato sui loghi funziona esaminando le pagine web per loghi noti. Se un logo corrisponde a un marchio famoso ma l'indirizzo web è diverso, il sito viene contrassegnato come malevolo.

Per rilevare questi tentativi di phishing, i sistemi usano varie tecniche, incluso il machine learning. Queste tecniche esaminano fattori come indirizzi web, contenuto della pagina ed elementi visivi. Questo articolo enfatizzerà l'approccio visivo, che utilizza il deep learning per analizzare i loghi.

Il deep learning utilizza modelli complessi per classificare le immagini basate su dati di addestramento. Questi modelli apprendono a riconoscere i loghi guardando molti esempi. Col tempo, diventano più bravi a individuare i loghi e possono persino rilevare siti di phishing mai visti prima.

Necessità di una rilevazione robusta

Nonostante l'efficacia dei sistemi di rilevazione basati sui loghi, gli attaccanti stanno diventando più astuti. Possono modificare i loghi in modi sottili che li fanno apparire diversi pur mantenendo un aspetto simile. Questa tattica sfida i sistemi di rilevazione, poiché potrebbero non riconoscere questi loghi alterati.

La sfida non riguarda solo la tecnologia; riguarda anche gli utenti umani. Se un logo di phishing appare abbastanza simile a uno legittimo, anche un utente esperto potrebbe essere ingannato. Di conseguenza, è fondamentale migliorare la robustezza di questi sistemi di rilevazione contro tali attacchi astuti.

La strategia dell'attacco

Questo articolo discute una nuova forma di attacco che coinvolge la manipolazione dei loghi per eludere i sistemi di rilevazione. L'obiettivo di questo attacco è creare loghi alterati che sembrano simili agli originali mentre riducono le possibilità di essere riconosciuti come tentativi di phishing dai sistemi di rilevazione.

Gli attaccanti possono raccogliere loghi da varie fonti, inclusi database pubblici. Usando questi loghi, possono introdurre piccoli cambiamenti che rendono il logo più difficile da identificare correttamente per il sistema di rilevazione. L'attenzione non è sul cambiare l'intero logo, ma su fare modifiche sottili che passano inosservate.

Il processo di creazione di loghi avversariali

Per creare questi loghi avversariali, gli attaccanti usano un metodo chiamato perturbazioni generative avversariali. Questo processo implica addestrare un modello a generare questi loghi alterati. Sebbene il sistema di rilevazione possa essere abile nel riconoscere loghi noti, fatica con quelli appena generati.

L'attaccante addestra un modello separato per produrre piccole modifiche ai loghi. Le modifiche sono progettate in modo tale da rimanere visivamente simili agli originali pur evitando la rilevazione da parte dei sistemi di identificazione dei loghi.

L'attaccante fa questo impostando un obiettivo in cui i loghi alterati dovrebbero essere classificati con bassa fiducia dal sistema di rilevazione. In sostanza, l'attaccante sta cercando di ingannare il modello di rilevazione dei loghi facendogli credere che il logo non appartenga a nessun marchio noto.

Valutazione dell'efficacia dell'attacco

Per testare l'efficacia di questi attacchi, vengono condotti vari esperimenti. L'efficacia dei loghi avversariali creati viene misurata in base a quante volte riescono a eludere la rilevazione dai modelli di identificazione dei loghi.

I risultati mostrano che questi loghi alterati possono bypassare con successo i sistemi di rilevazione. In alcuni casi, fino al 95% dei loghi creati dagli attaccanti non sono stati riconosciuti come tentativi di phishing. Questo alto tasso di successo sottolinea la necessità di sistemi di rilevazione più robusti.

Inoltre, sono stati condotti studi sugli utenti per vedere se le persone reali potessero individuare le differenze tra loghi originali e alterati. I risultati erano preoccupanti. La maggior parte degli utenti non riusciva a distinguere tra i due, indicando che gli attaccanti potevano ingannare efficacemente anche l'occhio umano.

Sviluppo di modelli di rilevazione robusti

Data l'efficacia degli attacchi, il passo successivo è migliorare i modelli di rilevazione. Un approccio potrebbe essere quello di integrare l'addestramento avversariale nei modelli. Questo metodo implica addestrare il sistema di rilevazione su loghi originali e alterati affinché possa imparare a identificare le manipolazioni.

Esponendo il modello a vari loghi avversariali durante l'addestramento, diventa meglio equipaggiato per contrastare questi attacchi sofisticati. Tuttavia, gli attaccanti possono anche adattarsi creando loghi ancora più avanzati che rendono difficile per il modello riconoscerli.

Questo continuo scambio tra attaccanti e difensori riflette una sfida continua nella cybersecurity. Mentre i difensori lavorano per migliorare i metodi di rilevazione, gli attaccanti trovano nuovi modi per eluderli.

Condurre studi sugli utenti

Per ottenere informazioni su come questi attacchi influenzano gli utenti reali, sono stati condotti due tipi di studi sugli utenti. L'obiettivo era vedere se gli utenti potessero identificare la differenza tra loghi originali e versioni alterate.

Nel primo studio, a un piccolo gruppo di studenti universitari è stato chiesto di valutare coppie di loghi. Dovevano valutare quanto fossero simili i loghi, concentrandosi su coppie originali e alterate. Lo studio mirava a catturare le reazioni di un demografico specifico.

Nel secondo studio, è stato incluso un gruppo più ampio e diversificato di partecipanti. Questo gruppo era più variegato per background e età, fornendo prospettive più ampie sulla percezione umana riguardo i loghi.

I risultati di entrambi gli studi indicavano che una percentuale significativa di partecipanti non riusciva a vedere le differenze tra i loghi originali e quelli alterati. Questa scoperta evidenzia il potenziale per tentativi di phishing riusciti utilizzando loghi manipolati.

Contromisure contro i loghi avversariali

Data la minaccia rappresentata dai loghi avversariali, sviluppare contromisure è essenziale. Una soluzione potrebbe comportare l'uso dell'addestramento avversariale per migliorare la robustezza dei modelli di rilevazione.

L'addestramento avversariale si concentra sull'integrazione di loghi alterati nel processo di addestramento. Imparando da questi loghi, il modello può migliorare la sua capacità di identificare futuri tentativi di phishing. Questo approccio proattivo cerca di rafforzare le difese contro strategie di attacco in evoluzione.

Tuttavia, c'è sempre il rischio che un attaccante possa adattare i propri metodi per creare loghi ancora più efficaci che possano ingannare questi modelli robusti. Pertanto, la ricerca e lo sviluppo continui sono fondamentali per rimanere sempre un passo avanti nella battaglia contro il phishing.

Conclusione

Gli attacchi di phishing continuano a essere un serio problema nel nostro panorama digitale. L'aumento dei sistemi di rilevazione del phishing basati sui loghi ha fornito un ulteriore livello di difesa. Tuttavia, come mostrato in questo articolo, gli attaccanti trovano continuamente modi per eludere queste misure.

Lo sviluppo di loghi avversariali rappresenta una sfida significativa. Questi loghi possono eludere la rilevazione e manipolare la percezione umana, rendendo fondamentale potenziare i metodi di rilevazione esistenti.

Con l'evoluzione della tecnologia, la corsa agli armamenti tra attaccanti e difensori si intensifica. Sono necessari sforzi continui per innovare e adattarsi per garantire che gli utenti siano protetti da tentativi di phishing che minacciano le loro informazioni personali.

Fonte originale

Titolo: Attacking logo-based phishing website detectors with adversarial perturbations

Estratto: Recent times have witnessed the rise of anti-phishing schemes powered by deep learning (DL). In particular, logo-based phishing detectors rely on DL models from Computer Vision to identify logos of well-known brands on webpages, to detect malicious webpages that imitate a given brand. For instance, Siamese networks have demonstrated notable performance for these tasks, enabling the corresponding anti-phishing solutions to detect even "zero-day" phishing webpages. In this work, we take the next step of studying the robustness of logo-based phishing detectors against adversarial ML attacks. We propose a novel attack exploiting generative adversarial perturbations to craft "adversarial logos" that evade phishing detectors. We evaluate our attacks through: (i) experiments on datasets containing real logos, to evaluate the robustness of state-of-the-art phishing detectors; and (ii) user studies to gauge whether our adversarial logos can deceive human eyes. The results show that our proposed attack is capable of crafting perturbed logos subtle enough to evade various DL models-achieving an evasion rate of up to 95%. Moreover, users are not able to spot significant differences between generated adversarial logos and original ones.

Autori: Jehyun Lee, Zhe Xin, Melanie Ng Pei See, Kanav Sabharwal, Giovanni Apruzzese, Dinil Mon Divakaran

Ultimo aggiornamento: 2023-09-12 00:00:00

Lingua: English

URL di origine: https://arxiv.org/abs/2308.09392

Fonte PDF: https://arxiv.org/pdf/2308.09392

Licenza: https://creativecommons.org/licenses/by-nc-sa/4.0/

Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.

Si ringrazia arxiv per l'utilizzo della sua interoperabilità ad accesso aperto.

Altro dagli autori

Articoli simili