Affrontare i Troiani Hardware nella Sicurezza dei Circuiti Integrati
Investigare le vulnerabilità del machine learning nella rilevazione dei Trojan hardware nei circuiti integrati.
― 10 leggere min
Indice
- La Necessità di IC Sicuri
- Metodi di Rilevazione Esistenti
- Sfide della Ricerca
- L'Ostacolo: Creare HT Evasivi
- Contromisure e Attacchi Adattivi
- Contributi Chiave della Nostra Ricerca
- Il Modello di Minaccia
- Generazione di Tracce di Potenza Avversarie
- Progettazione del Circuito HTO
- Setup Sperimentale
- Risultati e Discussione
- Patch Avversarie Non Sincronizzate
- Analisi Spettrale come Difesa
- Addestramento Avversario come Contromisura
- Attacchi Adattivi e il Loro Impatto
- Conclusione
- Fonte originale
- Link di riferimento
Il mondo dei Circuiti Integrati (IC) sta crescendo rapidamente, con molte aziende che corrono per produrre i propri prodotti velocemente e a basso costo. Tuttavia, questa velocità può portare a seri rischi per la sicurezza. Uno di questi rischi è la presenza di Trojan hardware (HT), che sono cambiamenti malevoli apportati a un circuito che consentono a qualcuno di controllarne o modificarne il funzionamento.
Un nuovo approccio per affrontare questo problema è usare il Machine Learning (ML) per analizzare i dati dei canali laterali. L'analisi dei canali laterali si concentra sulle informazioni che vengono "leakate" durante il normale funzionamento di un dispositivo, come il consumo energetico. Questo metodo è non invasivo, il che significa che non richiede accesso al circuito stesso, rendendolo uno strumento utile per rilevare HT senza bisogno di un design di riferimento, noto come "chip d'oro".
Tuttavia, dobbiamo chiederci quanto sia davvero affidabile questa rilevazione basata sul ML. Il nostro lavoro introduce un metodo che consente agli HT di passare inosservati creando rumore nel circuito. Invece di simulare semplicemente rumore per ingannare il modello ML, ci concentriamo sull'aggiungere rumore direttamente all'interno del circuito insieme all'HT. Descriviamo metodi sia per i Circuiti Integrati Specifici per Applicazione (ASIC) che per le Matrici Logiche Programmabili (FPGA) e valutiamo il nostro approccio utilizzando benchmark. Abbiamo scoperto che un singolo transistor può generare tracce di potenza avversarie che riescono a eludere efficacemente la rilevazione.
La Necessità di IC Sicuri
Man mano che la tecnologia evolve, la domanda di design e produzione rapidi ed economici di circuiti integrati ha portato molte aziende a esternalizzare la loro produzione. Questa catena di approvvigionamento globalizzata apre la porta a varie minacce per la sicurezza, tra cui HT, contraffazione e ingegneria inversa. Il ciclo di vita della produzione di un IC include tipicamente tre fasi principali: progettazione, fabbricazione e testing. In qualsiasi di queste fasi, ci sono possibilità che un Avversario possa iniettare un HT.
Ad esempio, un progettista malintenzionato potrebbe alterare l'hardware durante la fase di progettazione, o un impianto di produzione non affidabile potrebbe manomettere l'hardware durante la produzione. Se questi HT rimangono non rilevati, possono avere conseguenze significative. Ad esempio, ci sono stati rapporti di dispositivi contraffatti che superano i sistemi di sicurezza, portando a rischi notevoli nei sistemi critici.
Metodi di Rilevazione Esistenti
I ricercatori hanno lavorato a vari metodi per rilevare gli HT. Questi metodi rientrano in due ampie categorie: tecniche distruttive e non distruttive. I metodi distruttivi comportano la scomposizione del chip per studiare i suoi strati. Sebbene siano accurati, questi metodi sono costosi e richiedono tempo, rendendoli impraticabili per l'uso regolare. I metodi non distruttivi si concentrano su come funziona il chip durante il funzionamento. Questi includono tecniche come il Test Logico, la Rilevazione Ottica e la Rilevazione Basata su ML.
La rilevazione basata su ML è particolarmente allettante perché può identificare gli HT senza bisogno di un chip d'oro, rendendola sia efficiente che non invasiva. Tuttavia, vogliamo indagare quanto sia sicuro questo approccio contro possibili attacchi.
Sfide della Ricerca
Sappiamo che i modelli ML possono essere ingannati da rumore avversario, ma creare circuiti che generano questo rumore è una nuova sfida. L'input per un modello ML è una traccia di potenza, e il nostro compito è creare circuiti che producano queste tracce. Affrontiamo tre principali sfide:
Generazione di Circuiti Avversari: Dato un tracciato di potenza avversario, come possiamo creare un circuito che imiti questo tracciato?
Utilizzo delle Risorse: Dobbiamo progettare questi circuiti in modo da utilizzare il minor numero possibile di risorse.
Difese e Soglie: Come possiamo progettare difese contro questi tentativi, e fino a che punto gli attaccanti adattivi possono aggirare queste difese?
L'Ostacolo: Creare HT Evasivi
Proponiamo un metodo chiamato Offuscazione di Trojan Hardware (HTO). Questo metodo sfrutta le debolezze dei modelli ML per creare HT evasivi che non possono essere rilevati. Iniziamo generando una patch avversaria, che è un modello di rumore in grado di ingannare un modello di rilevazione ML. Successivamente, progettiamo circuiti che generano questo specifico rumore per piattaforme ASIC e FPGA. Ottimizzando la nostra generazione di rumore, possiamo rendere l'HT ancora più difficile da rilevare.
I nostri test mostrano che possiamo eludere efficacemente i metodi di rilevazione attuali utilizzando il benchmark TrustHub. Infatti, abbiamo scoperto che un solo transistor può generare abbastanza rumore per passare inosservato nei progetti ASIC. Sulle FPGA, abbiamo implementato due design: uno utilizzando sezioni DSP e l'altro utilizzando oscillatori ad anello.
Contromisure e Attacchi Adattivi
Per valutare il nostro approccio in modo completo, guardiamo anche a contromisure e attacchi adattivi. Una contromisura che indaghiamo è l'analisi nel dominio spettrale, che si concentra sull'analisi della frequenza delle tracce di potenza per migliorare la rilevazione. Tuttavia, gli attaccanti adattivi possono comunque aggirare queste difese progettando HT che rientrano nel budget di rumore spettrale consentito.
Abbiamo anche esaminato l'addestramento avversario (AT), che può fornire un certo livello di protezione contro gli HT evasivi. Tuttavia, questo metodo comporta una significativa perdita di accuratezza, rendendolo potenzialmente inadatto per applicazioni pratiche.
Contributi Chiave della Nostra Ricerca
Il nostro lavoro presenta diversi risultati importanti:
HT Evasivi: Abbiamo sviluppato una metodologia che consente agli HT di eludere la rilevazione basata su ML. Questo comporta la creazione di circuiti configurabili che consumano potenza avversaria per mascherare gli HT.
Ottimizzazione dell'Attacco: Abbiamo dimostrato come ottimizzare la generazione di rumore per ridurre al minimo le risorse necessarie, raggiungendo progetti HTO efficaci usando solo un transistor.
Contromisure: La nostra ricerca esplora anche difese contro gli attacchi HTO e mette in evidenza l'efficacia degli attacchi adattivi.
Il Modello di Minaccia
Nella nostra ricerca, consideriamo un modello di minaccia in cui un attaccante mira a eludere la rilevazione post-silicon degli HT utilizzando il ML. L'attaccante ha la capacità di modificare il design e inserire HT all'interno del circuito, mentre il difensore utilizza un rilevatore di HT basato su ML addestrato su tracce di potenza per identificare attività sospette.
L'attaccante sa che è in uso un modello ML ma non può modificare il suo funzionamento interno. Invece, si concentra sullo sviluppo di rumore avversario per confondere il rilevatore.
Generazione di Tracce di Potenza Avversarie
Creare una traccia di potenza avversaria implica generare un modello di potenza che faccia etichettare erroneamente un IC come benigno dal modello di rilevazione ML. Questo modello deve essere "universale", il che significa che dovrebbe ingannare il modello indipendentemente dal campione specifico utilizzato.
Per generare questo rumore avversario, risolviamo un problema di ottimizzazione che minimizza la differenza tra la traccia di potenza originale e la patch avversaria. Abbiamo dimostrato che con le giuste restrizioni, possiamo creare rumore che tiene la rilevazione nascosta sotto varie circostanze.
Progettazione del Circuito HTO
Mentre generare una patch avversaria è una cosa, dobbiamo anche creare circuiti in grado di replicare questo rumore. Proponiamo una strategia di design per le piattaforme ASIC e FPGA. Per gli ASIC, creiamo una rete di resistori all'interno dei transistor che può essere configurata per produrre il rumore di potenza necessario.
Per le FPGA, esploriamo due design di circuito: uno basato su oscillatori ad anello e l'altro utilizzando componenti DSP. Questi design aiutano a garantire che possiamo consumare le tracce di potenza avversarie in modo efficace su entrambe le piattaforme.
Setup Sperimentale
Abbiamo condotto esperimenti sia su piattaforme ASIC che FPGA per testare i nostri metodi. Per gli ASIC, abbiamo simulato le patch avversarie utilizzando design a basso consumo. Per le FPGA, abbiamo utilizzato configurazioni hardware specifiche per catturare la potenza consumata e misurare l'efficacia delle nostre patch generate.
I risultati mostrano che le differenze tra i rumori generati e quelli simulati sono minime, indicando che i nostri circuiti sono in grado di produrre patch avversarie efficaci.
Risultati e Discussione
I risultati dei nostri esperimenti hanno evidenziato che il nostro HTO può consumare con successo tracce di potenza che emulano gli effetti avversari desiderati. Tuttavia, una limitazione che abbiamo incontrato è l'alta utilizzazione delle risorse richiesta per l'HTO, che può esporlo alla rilevazione da parte di tecniche avanzate.
Abbiamo esaminato metodi di ottimizzazione per ridurre l'uso delle risorse, il che potrebbe portare a design HTO più furtivi. Analizzando la distribuzione dei valori di rumore, abbiamo adattato i nostri metodi di generazione per produrre design più efficienti per i circuiti.
Patch Avversarie Non Sincronizzate
Fino a questo punto, abbiamo assunto che le tracce di potenza potessero essere sincronizzate durante la misurazione. Tuttavia, questo potrebbe non essere sempre il caso, quindi abbiamo allentato questa assunzione. Abbiamo proposto metodi per generare patch che rimangono efficaci anche quando il timing è impreciso.
Questo cambiamento ha portato a nuovi metodi per creare tracce di potenza che siano robuste contro cambiamenti nella sincronizzazione, il che aggiunge alla loro efficacia come metodo di attacco furtivo.
Analisi Spettrale come Difesa
Nella nostra indagine, abbiamo esaminato il potenziale di preprocessing delle tracce di potenza per filtrare segnali indesiderati. Analizzando il dominio spettrale delle tracce di potenza, speravamo di identificare firme uniche che potessero aiutare a distinguere tra attività benigni e malevoli.
Questa analisi spettrale potrebbe aiutare il difensore a filtrare le tracce di potenza raccolte prima di analizzarle con il modello ML. Tuttavia, abbiamo scoperto che le nostre patch avversarie generate spesso includevano componenti di frequenza al di fuori dell'intervallo atteso per i segnali normali, rendendole vulnerabili a tale filtraggio.
Addestramento Avversario come Contromisura
L'addestramento avversario è un altro metodo che abbiamo esplorato per migliorare la sicurezza dei modelli ML. Addestrando i modelli su esempi avversari, possono diventare più robusti contro diverse forme di attacchi. Tuttavia, abbiamo notato che mentre l'AT migliorava la resilienza del modello a livelli di rumore più bassi, diventava meno efficace quando affrontava livelli di rumore più elevati.
Inoltre, implementare l'AT portava spesso a una diminuzione delle prestazioni complessive del modello, indicando un compromesso tra sicurezza e utilità.
Attacchi Adattivi e il Loro Impatto
Gli attacchi adattivi presentano un ulteriore livello di complessità. Questi attacchi mirano a fornire rumore mirato a specifiche gamme di frequenza, il che può migliorare la furtività dell'attacco. Considerando sia vincoli temporali che di frequenza, un attaccante adattivo può creare segnali avversari molto più difficili da rilevare.
La nostra ricerca evidenzia l'importanza di considerare questi metodi di attacco adattivi nello sviluppo di difese efficaci contro gli HT.
Conclusione
Il nostro lavoro illumina le vulnerabilità delle tecniche ML nella sicurezza hardware. Abbiamo sviluppato metodi per creare circuiti che producono tracce di potenza avversarie progettate per ingannare i sistemi di rilevazione. I nostri risultati indicano che anche con risorse minime, è possibile costruire HT efficaci che eludono le tecniche di rilevazione attuali su piattaforme sia ASIC che FPGA.
Man mano che la tecnologia progredisce, è cruciale rimanere un passo avanti rispetto alle potenziali minacce comprendendo come gli avversari possano sfruttare le debolezze nei metodi di rilevazione. La nostra ricerca sottolinea la necessità di una continua valutazione e miglioramento dei sistemi di rilevazione, così come dello sviluppo di nuove contromisure per proteggere contro attacchi in evoluzione.
In conclusione, mentre il nostro lavoro mostra un modo pratico per sfruttare vulnerabilità a scopi malevoli, serve anche come un appello all'azione per ricercatori e professionisti del settore per rafforzare le misure di sicurezza nella progettazione e produzione di IC.
Titolo: Evasive Hardware Trojan through Adversarial Power Trace
Estratto: The globalization of the Integrated Circuit (IC) supply chain, driven by time-to-market and cost considerations, has made ICs vulnerable to hardware Trojans (HTs). Against this threat, a promising approach is to use Machine Learning (ML)-based side-channel analysis, which has the advantage of being a non-intrusive method, along with efficiently detecting HTs under golden chip-free settings. In this paper, we question the trustworthiness of ML-based HT detection via side-channel analysis. We introduce a HT obfuscation (HTO) approach to allow HTs to bypass this detection method. Rather than theoretically misleading the model by simulated adversarial traces, a key aspect of our approach is the design and implementation of adversarial noise as part of the circuitry, alongside the HT. We detail HTO methodologies for ASICs and FPGAs, and evaluate our approach using TrustHub benchmark. Interestingly, we found that HTO can be implemented with only a single transistor for ASIC designs to generate adversarial power traces that can fool the defense with 100% efficiency. We also efficiently implemented our approach on a Spartan 6 Xilinx FPGA using 2 different variants: (i) DSP slices-based, and (ii) ring-oscillator-based design. Additionally, we assess the efficiency of countermeasures like spectral domain analysis, and we show that an adaptive attacker can still design evasive HTOs by constraining the design with a spectral noise budget. In addition, while adversarial training (AT) offers higher protection against evasive HTs, AT models suffer from a considerable utility loss, potentially rendering them unsuitable for such security application. We believe this research represents a significant step in understanding and exploiting ML vulnerabilities in a hardware security context, and we make all resources and designs openly available online: https://dev.d18uu4lqwhbmka.amplifyapp.com
Autori: Behnam Omidi, Khaled N. Khasawneh, Ihsen Alouani
Ultimo aggiornamento: 2024-01-04 00:00:00
Lingua: English
URL di origine: https://arxiv.org/abs/2401.02342
Fonte PDF: https://arxiv.org/pdf/2401.02342
Licenza: https://creativecommons.org/publicdomain/zero/1.0/
Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.
Si ringrazia arxiv per l'utilizzo della sua interoperabilità ad accesso aperto.