Attacchi avversari sul software antivirus: Un'analisi approfondita
I ricercatori svelano come il malware può ingannare gli antivirus con attacchi furbi.
― 8 leggere min
Indice
L'apprendimento automatico è uno strumento utile per trovare e fermare il Malware, che è software dannoso che può danneggiare computer o rubare informazioni. Tuttavia, i ricercatori hanno scoperto che i sistemi di apprendimento automatico possono anche essere ingannati da attacchi progettati appositamente chiamati Attacchi Avversariali. Questo articolo parla di come i campioni di software dannoso vengono creati per ingannare questi sistemi di apprendimento automatico, concentrandosi su un tipo specifico di software dannoso noto come file eseguibili portabili di Windows (PE).
In questo articolo, esploriamo diversi modi per creare malware che possa ingannare i software antivirus. Vari metodi, come l'uso di gradienti, algoritmi evolutivi e apprendimento per rinforzo, sono utilizzati per creare questi campioni ingannevoli. Questi campioni vengono poi testati contro software antivirus popolari per vedere quanto siano efficaci. I risultati mostrano che apportare cambiamenti intelligenti a malware conosciuti può portare i sistemi antivirus a contrassegnare erroneamente questi file come sicuri. Interessante notare che questi campioni alterati possono funzionare anche contro diversi sistemi antivirus. Combinare vari metodi può produrre nuove versioni di malware che riescono a sfuggire alla rilevazione. Tra tutti i metodi testati, il generatore di malware Gym si distingue per le migliori prestazioni, ottenendo risultati rapidi e un alto tasso di successo nell'ingannare i software antivirus.
La Minaccia Crescente del Malware
Con la continua crescita della tecnologia, i computer e internet giocano un ruolo sempre più grande nelle nostre vite. Sfortunatamente, con questa crescita arriva un aumento degli attacchi informatici. Il malware, che si riferisce a diverse forme di software dannoso come virus, trojan e ransomware, è una delle più grandi minacce alla sicurezza informatica oggi. Per mantenerci al sicuro, catturare il malware presto è cruciale. Ma è una sfida costante dato che nuove versioni di software malevoli vengono create ogni giorno.
Le aziende antivirus di solito si affidano a metodi basati su firme per rilevare il malware. Questi metodi cercano schemi specifici nei file che corrispondono a malware conosciuto. Quando un file viene controllato, l'antivirus scansiona queste firme. Se trova una corrispondenza, contrassegna il file come dannoso. Anche se i metodi basati su firme possono essere rapidi ed efficaci per il malware già conosciuto, hanno una debolezza. I creatori di malware possono modificare il loro codice, cambiando la sua firma e sfuggendo alla rilevazione. Inoltre, alcuni software dannosi si nascondono usando tecniche che rendono più difficile trovarli.
L'apprendimento automatico è diventato comune in molti ambiti, incluso il rilevamento del malware. A differenza dei metodi tradizionali basati su firme, l'apprendimento automatico può catturare malware nuovi o camuffati. Tuttavia, questi sistemi possono essere difficili da interpretare, il che significa che può essere poco chiaro perché un file venga classificato come dannoso o sicuro. Questa mancanza di chiarezza può comportare rischi che gli attaccanti potrebbero sfruttare.
I modelli di apprendimento automatico possono essere vulnerabili ad attacchi avversariali. Questi attacchi comportano la creazione di input che ingannano il modello facendolo fare previsioni sbagliate. L'apprendimento automatico avversariale è il campo che si concentra su questi tipi di attacchi e su come difendersi da essi.
La continua battaglia tra i creatori di malware e chi cerca di fermarli porta a nuove e migliori tecniche di rilevamento. Ogni metodo ha i suoi pro e contro, rendendo difficile creare rilevatori di malware efficaci. La ricerca continua è cruciale per rimanere un passo avanti in questa lotta.
Panoramica dello Studio
Questo documento confronta diversi lavori che si concentrano sull'uso di tecniche di apprendimento automatico avversariali per il rilevamento del malware. In particolare:
- Applica tecniche avversariali esistenti ad alcuni sistemi di rilevamento del malware.
- Combina queste tecniche per creare generatori avversariali avanzati in grado di bypassare i migliori prodotti antivirus.
- Valuta l'efficacia di generatori singoli e combinati.
Metodi Utilizzati per Creare Esempi Avversariali
Questa sezione descrive i diversi modi per creare esempi avversariali.
Metodi Basati su Gradiente
Le tecniche basate su gradiente sono un modo comune per creare esempi avversariali. Questi metodi calcolano come le modifiche a un input influenzano le previsioni del modello. Modificando l'input in un modo che aumenta la perdita (l'errore), possono creare una versione dell'input che il modello classifica erroneamente. Esempi popolari di metodi basati su gradiente includono il Fast Gradient Sign Method e il Jacobian-based Saliency Map Approach.
In questi metodi, un piccolo aggiustamento (chiamato perturbazione) viene aggiunto all'input in base alla direzione che causa il maggior errore. Questo aggiustamento è calcolato in modo da aumentare la funzione di perdita, ingannando il sistema facendolo classificare erroneamente l'input modificato.
Reti Neurali Avversariali (GAN)
Le Reti Neurali Avversariali, o GAN, sono state introdotte per creare esempi realistici che possono ingannare i sistemi. Una GAN è composta da due reti: un generatore che crea nuovi esempi e un discriminatore che distingue gli esempi reali da quelli falsi. Entrambe le reti migliorano competendo tra di loro. Il generatore cerca di creare dati che sembrano reali mentre il discriminatore impara a diventare migliore nel riconoscere le falsificazioni. Nel tempo, il generatore produce campioni sempre più convincenti.
Apprendimento per Rinforzo
L'apprendimento per rinforzo (RL) è un altro metodo di apprendimento automatico. In RL, un agente impara interagendo con un ambiente e riceve ricompense o pene in base alle sue azioni. L'obiettivo dell'agente è massimizzare la ricompensa totale compiendo le migliori azioni. Questo metodo aiuta a creare esempi avversariali permettendo all'agente di scegliere tra varie modifiche che possono essere apportate ai campioni di malware mantenendo intatte le loro funzioni dannose.
Algoritmi Evolutivi
Gli algoritmi evolutivi (EA) imitano l'evoluzione naturale per cercare la migliore soluzione a un problema. Usano una popolazione di soluzioni potenziali e le affinano nel corso di diverse generazioni. I metodi all'interno di questa categoria includono algoritmi genetici che combinano ripetutamente e modificano le soluzioni candidate fino a raggiungere una risposta finale che evade meglio la rilevazione.
Attacchi Selezionati per Sperimentazione
In questa sezione, dettagliamo gli attacchi usati per generare software malevolo.
Attacchi Basati su Gradiente
Gli attacchi Partial DOS e Full DOS modificano parti dell'intestazione DOS nei file PE. L'intestazione DOS include dati importanti sul file, e cambiare specifici byte può confondere il software antivirus.
Attacchi GAMMA
Gli attacchi di padding GAMMA e di iniezione di sezione GAMMA iniettano contenuti benigni nei file di malware. Questi attacchi trattano l'inserimento come un problema di ottimizzazione, bilanciando la necessità di ridurre la probabilità di rilevamento mentre si minimizza la dimensione del contenuto aggiunto.
Attacco Gym-malware
L'attacco Gym-malware si basa sull'apprendimento per rinforzo. Qui, l'agente apporta modifiche ai file di malware monitorando il suo successo nell'evitare la rilevazione da parte del software antivirus. L'agente riceve feedback dopo ogni tentativo, permettendogli di affinare le sue azioni nel tempo.
Impostazione degli Esperimenti
Gli esperimenti sono stati condotti utilizzando un potente server progettato per compiti di apprendimento automatico e testando il malware generato contro vari programmi antivirus.
Dataset
Due dataset sono stati utilizzati negli esperimenti. Il primo conteneva file eseguibili innocui presi da un sistema appena impostato, mentre il secondo conteneva eseguibili dannosi provenienti da repository di malware.
Impostazioni degli Attacchi
Un totale di cinque diverse strategie di attacco avversariale è stato confrontato, inclusi Partial DOS, Full DOS, padding GAMMA, iniezione di sezione GAMMA e Gym-malware.
Metriche di Valutazione
Sono state utilizzate varie metriche per valutare gli attacchi, con un focus sul tasso di evasione: quanto spesso il malware modificato è passato inosservato dai software antivirus. Altre metriche includevano miglioramenti assoluti e relativi nei tassi di evasione per combinazioni di metodi di attacco.
Risultati degli Esperimenti
I risultati degli esperimenti forniscono indicazioni sull'efficacia dei diversi metodi.
Tempo di Generazione dei Campioni
Il generatore Gym-malware ha impiegato meno tempo a produrre campioni, con una media di meno di sei secondi. D'altra parte, attacchi come Full DOS hanno richiesto molto più tempo per creare campioni efficaci.
Modifiche alla Dimensione del Campione
Alcuni metodi hanno portato a un aumento significativo della dimensione del file, mentre altri, come l'attacco Gym-malware, sono riusciti a diminuire le dimensioni. Mantenere la dimensione del file ridotta è cruciale per evitare la rilevazione, dato che file più grandi sono più sospetti.
Bypassare i Prodotti Antivirus
L'attacco Gym-malware ha ottenuto i tassi di successo più elevati nell'evitare la rilevazione tra i software antivirus studiati. Questo metodo è riuscito a bypassare molti prodotti commerciali, raggiungendo tassi tra il 19% e il 67%.
Combinazione di Tecniche
Quando si testavano più metodi insieme, il generatore Gym-malware ha superato altre combinazioni, spesso ottenendo migliori tassi di evasione se usato più di una volta.
Conclusione
Questo studio evidenzia l'efficacia dell'uso di tecniche di apprendimento automatico avversariali nella generazione di campioni di malware che possono eludere la rilevazione. Il generatore Gym-malware si è dimostrato lo strumento più efficiente per questo scopo, producendo campioni rapidamente e ottenendo alti tassi di evasione contro i prodotti antivirus commerciali.
Man mano che la tecnologia continua ad avanzare, è essenziale continuare a sviluppare metodi per rilevare e contrastare efficacemente queste nuove minacce. La ricerca continua è necessaria per rimanere un passo avanti rispetto agli attaccanti e proteggere i sistemi informatici e le informazioni personali dal malware. I lavori futuri potrebbero concentrarsi sul miglioramento dei tempi di generazione e sull'esplorazione della combinazione di più di due generatori per migliorare l'efficacia nell'evitare la rilevazione.
Titolo: A Comparison of Adversarial Learning Techniques for Malware Detection
Estratto: Machine learning has proven to be a useful tool for automated malware detection, but machine learning models have also been shown to be vulnerable to adversarial attacks. This article addresses the problem of generating adversarial malware samples, specifically malicious Windows Portable Executable files. We summarize and compare work that has focused on adversarial machine learning for malware detection. We use gradient-based, evolutionary algorithm-based, and reinforcement-based methods to generate adversarial samples, and then test the generated samples against selected antivirus products. We compare the selected methods in terms of accuracy and practical applicability. The results show that applying optimized modifications to previously detected malware can lead to incorrect classification of the file as benign. It is also known that generated malware samples can be successfully used against detection models other than those used to generate them and that using combinations of generators can create new samples that evade detection. Experiments show that the Gym-malware generator, which uses a reinforcement learning approach, has the greatest practical potential. This generator achieved an average sample generation time of 5.73 seconds and the highest average evasion rate of 44.11%. Using the Gym-malware generator in combination with itself improved the evasion rate to 58.35%.
Autori: Pavla Louthánová, Matouš Kozák, Martin Jureček, Mark Stamp
Ultimo aggiornamento: 2023-08-19 00:00:00
Lingua: English
URL di origine: https://arxiv.org/abs/2308.09958
Fonte PDF: https://arxiv.org/pdf/2308.09958
Licenza: https://creativecommons.org/licenses/by/4.0/
Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.
Si ringrazia arxiv per l'utilizzo della sua interoperabilità ad accesso aperto.