Hardware-Trojaner in der Sicherheit von integrierten Schaltungen angehen
Untersuchung von Schwachstellen im maschinellen Lernen bei der Erkennung von Hardware-Trojanern in ICs.
― 10 min Lesedauer
Inhaltsverzeichnis
- Der Bedarf an sicheren ICs
- Bestehende Erkennungsmethoden
- Forschungsherausforderungen
- Die Hürde: Evasive HTs erstellen
- Gegenmassnahmen und adaptive Angriffe
- Wichtige Beiträge unserer Forschung
- Das Bedrohungsmodell
- Generierung feindlicher Stromspuren
- HTO-Schaltungsdesign
- Experimentelles Setup
- Ergebnisse und Diskussion
- Unsynchronisierte feindliche Patches
- Spektralanalyse als Abwehr
- Adversarial Training als Gegenmassnahme
- Adaptive Angriffe und ihre Auswirkungen
- Fazit
- Originalquelle
- Referenz Links
Die Welt der integrierten Schaltungen (ICs) wächst rasant, und viele Unternehmen sind dabei, ihre Produkte schnell und kostengünstig zu produzieren. Aber diese Schnelligkeit kann ernsthafte Sicherheitsrisiken mit sich bringen. Eines dieser Risiken sind Hardware-Trojaner (HTs), also bösartige Änderungen an einer Schaltung, die es jemandem ermöglichen, die Funktion zu kontrollieren oder zu manipulieren.
Ein neuer Ansatz zur Bekämpfung dieses Problems ist die Verwendung von maschinellem Lernen (ML), um Seitenkanal-Daten zu analysieren. Die Seitenkanalanalyse betrachtet Informationen, die während des normalen Betriebs eines Geräts verloren gehen, wie zum Beispiel den Stromverbrauch. Diese Methode ist nicht-invasiv, was bedeutet, dass sie keinen Zugriff auf die Schaltung selbst erfordert, und somit ein nützliches Werkzeug zur Erkennung von HTs ist, ohne ein Referenzdesign, auch bekannt als "goldener Chip", zu benötigen.
Doch wir müssen hinterfragen, wie zuverlässig diese ML-basierte Erkennung wirklich ist. Unsere Arbeit stellt eine Methode vor, die es HTs ermöglicht, unbemerkt zu bleiben, indem sie Rauschen in der Schaltung erzeugt. Anstatt nur Rauschen zu simulieren, um das ML-Modell zu täuschen, konzentrieren wir uns darauf, Rauschen direkt in der Schaltung zusammen mit dem HT hinzuzufügen. Wir beschreiben Methoden sowohl für anwendungsspezifische Integrierte Schaltungen (ASICs) als auch für feldprogrammierbare Gate-Arrays (FPGAs) und bewerten unseren Ansatz anhand von Benchmarks. Wir haben festgestellt, dass ein einzelner Transistor feindliche Stromspuren erzeugen kann, die die Erkennung effektiv umgehen.
Der Bedarf an sicheren ICs
Mit der Weiterentwicklung der Technologie hat die Nachfrage nach schneller und kostengünstiger Gestaltung und Produktion von ICs dazu geführt, dass viele Unternehmen ihre Fertigung auslagern. Diese globalisierte Lieferkette öffnet Türen für verschiedene Sicherheitsbedrohungen, einschliesslich HTs, Fälschungen und Reverse Engineering. Der Produktionslebenszyklus eines ICs umfasst typischerweise drei Hauptphasen: Design, Fertigung und Test. In jeder dieser Phasen besteht die Möglichkeit, dass ein Angreifer einen HT einschleusen kann.
Ein böswilliger Designer könnte beispielsweise die Hardware während der Entwurfsphase ändern, oder ein unzuverlässiges Fertigungsunternehmen könnte die Hardware während der Produktion manipulieren. Wenn diese HTs unentdeckt bleiben, können sie schwerwiegende Folgen haben. Es gibt Berichte über gefälschte Geräte, die Sicherheits Systeme umgehen und so erhebliche Risiken in kritischen Systemen verursachen.
Bestehende Erkennungsmethoden
Forscher arbeiten an verschiedenen Methoden zur Erkennung von HTs. Diese Methoden fallen in zwei breite Kategorien: destruktive und nicht-destruktive Techniken. Destruktive Methoden beinhalten das Zerlegen des Chips, um seine Schichten zu studieren. Obwohl genau, sind diese Methoden kostspielig und zeitaufwendig, was sie für den regelmässigen Einsatz unpraktisch macht. Nicht-destruktive Methoden konzentrieren sich darauf, wie der Chip während des Betriebs funktioniert. Dazu gehören Techniken wie Logik-Tests, optische Erkennung und ML-basierte Erkennung.
Die ML-basierte Erkennung ist besonders ansprechend, da sie HTs identifizieren kann, ohne einen goldenen Chip zu benötigen, was sie sowohl effizient als auch nicht-invasiv macht. Dennoch möchten wir untersuchen, wie sicher dieser Ansatz wirklich gegen potenzielle Angriffe ist.
Forschungsherausforderungen
Während wir wissen, dass ML-Modelle durch feindliches Rauschen getäuscht werden können, ist die Erstellung von Schaltungen, die dieses Rauschen erzeugen, eine neue Herausforderung. Der Eingang für ein ML-Modell ist eine Stromspur, und unser Ziel ist es, Schaltungen zu schaffen, die diese Spuren erzeugen. Wir stehen vor drei Hauptherausforderungen:
Generierung feindlicher Schaltungen: Wie schaffen wir eine Schaltung, die eine feindliche Stromspur imitiert?
Ressourcennutzung: Wir müssen diese Schaltungen so gestalten, dass sie so wenige Ressourcen wie möglich verwenden.
Abwehrmassnahmen und Umgehungen: Wie können wir Abwehrmassnahmen gegen diese Versuche entwerfen, und inwieweit können adaptive Angreifer diese Abwehrmechanismen umgehen?
Die Hürde: Evasive HTs erstellen
Wir schlagen eine Methode vor, die Hardware-Trojaner-Verschleierung (HTO) genannt wird. Diese Methode nutzt die Schwächen von ML-Modellen aus, um evasive HTs zu schaffen, die nicht erkannt werden können. Wir beginnen mit der Erstellung eines feindlichen Musters, das ein Rauschmuster ist, das ein ML-Erkennungsmodell täuschen kann. Anschliessend entwerfen wir Schaltungen, die dieses spezifische Rauschen sowohl für ASIC- als auch für FPGA-Plattformen erzeugen. Durch die Optimierung unserer Rauscherzeugung können wir es dem HT noch schwerer machen, entdeckt zu werden.
Unsere Tests zeigen, dass wir aktuelle Erkennungsmethoden beim TrustHub-Benchmark effektiv umgehen können. Tatsächlich haben wir festgestellt, dass allein ein Transistor genug Rauschen erzeugen kann, um in ASIC-Designs unentdeckt zu bleiben. Bei FPGAs implementierten wir zwei Designs: eines mit DSP-Slices und eines mit Ring-Oszillatoren.
Gegenmassnahmen und adaptive Angriffe
Um unseren Ansatz umfassend zu bewerten, betrachten wir auch Gegenmassnahmen und adaptive Angriffe. Eine Gegenmassnahme, die wir untersuchen, ist die spektrale Analyse, die sich auf die Analyse der Frequenz der Stromspuren konzentriert, um die Erkennung zu verbessern. Adaptive Angreifer können jedoch immer noch um diese Abwehrmassnahmen herum arbeiten, indem sie HTs entwerfen, die innerhalb des erlaubten spektralen Rauschbudgets liegen.
Wir haben auch adversarial training (AT) untersucht, das ein gewisses Mass an Schutz gegen evasive HTs bieten kann. Allerdings kommt diese Methode mit einem signifikanten Verlust an Genauigkeit, was sie potenziell für praktische Anwendungen ungeeignet macht.
Wichtige Beiträge unserer Forschung
Unsere Arbeit präsentiert mehrere wichtige Erkenntnisse:
Evasive HTs: Wir haben eine Methodik entwickelt, die es HTs ermöglicht, die ML-basierte Erkennung zu umgehen. Dazu gehört die Schaffung konfigurierbarer Schaltungen, die feindliche Energie verbrauchen, um HTs zu maskieren.
Angriffsoptimierung: Wir haben gezeigt, wie man die Erzeugung von Rauschen optimieren kann, um die benötigten Ressourcen zu minimieren und effektive HTO-Designs mit nur einem Transistor zu erreichen.
Gegenmassnahmen: Unsere Forschung untersucht auch Abwehrmassnahmen gegen HTO-Angriffe und hebt die Wirksamkeit adaptiver Angriffe hervor.
Das Bedrohungsmodell
In unserer Forschung betrachten wir ein Bedrohungsmodell, bei dem ein Angreifer darauf abzielt, die Erkennung von HTs nach dem Silizium zu umgehen, indem er ML nutzt. Der Angreifer hat die Fähigkeit, das Design zu ändern und HTs in die Schaltung einzufügen, während der Verteidiger einen ML-basierten HT-Detektor verwendet, der auf Stromspuren trainiert wurde, um verdächtige Aktivitäten zu identifizieren.
Der Angreifer weiss, dass ein ML-Modell verwendet wird, kann aber dessen interne Funktionsweise nicht modifizieren. Stattdessen konzentriert er sich darauf, feindliches Rauschen zu entwickeln, um den Detektor zu verwirren.
Generierung feindlicher Stromspuren
Die Erstellung einer feindlichen Stromspur umfasst die Generierung eines Strommusters, das das ML-Erkennungsmodell dazu führt, einen IC fälschlicherweise als harmlos zu kennzeichnen. Dieses Muster muss "universell" sein, was bedeutet, dass es das Modell unabhängig von der verwendeten Probe täuschen sollte.
Um dieses feindliche Rauschen zu erzeugen, lösen wir ein Optimierungsproblem, das die Differenz zwischen der originalen Stromspur und dem feindlichen Patch minimiert. Wir haben gezeigt, dass wir mit den richtigen Einschränkungen Rauschen erzeugen können, das die Erkennung unter verschiedenen Umständen verborgen hält.
HTO-Schaltungsdesign
Während die Generierung eines feindlichen Patches eine Sache ist, müssen wir auch Schaltungen erstellen, die dieses Rauschen replizieren können. Wir schlagen eine Entwurfsstrategie für sowohl ASIC- als auch FPGA-Plattformen vor. Für ASIC erstellen wir ein Netzwerk von Widerständen innerhalb von Transistoren, das konfiguriert werden kann, um das notwendige Stromrauschen zu erzeugen.
Für FPGAs erkunden wir zwei Schaltungsdesigns: eines basierend auf Ring-Oszillatoren und eines unter Verwendung von DSP-Komponenten. Diese Designs helfen sicherzustellen, dass wir die feindlichen Stromspuren effektiv auf beiden Plattformen nutzen können.
Experimentelles Setup
Wir haben Experimente sowohl auf ASIC- als auch auf FPGA-Plattformen durchgeführt, um unsere Methoden zu testen. Für ASICs haben wir die feindlichen Patches mit energiesparenden Designs simuliert. Für FPGAs verwendeten wir spezifische Hardware-Setups, um den verbrauchten Strom zu erfassen und die Effektivität unserer erzeugten Patches zu messen.
Die Ergebnisse zeigen, dass die Unterschiede zwischen den erzeugten Geräuschen und den simulierten minimal sind, was darauf hindeutet, dass unsere Schaltungen in der Lage sind, effektive feindliche Patches zu erzeugen.
Ergebnisse und Diskussion
Die Ergebnisse unserer Experimente haben gezeigt, dass unser HTO erfolgreich Stromspuren konsumieren kann, die die gewünschten feindlichen Effekte emulieren. Allerdings sind wir auf eine Einschränkung gestossen, nämlich den hohen Ressourcenverbrauch, der HTO anfällig für die Erkennung durch fortgeschrittene Techniken machen kann.
Wir haben Optimierungsmethoden zur Reduzierung des Ressourcenverbrauchs untersucht, die zu stealthier HTO-Designs führen könnten. Durch die Analyse der Verteilung der Rauschwerte haben wir unsere Generierungsmethoden angepasst, um effizientere Designs für die Schaltungen zu produzieren.
Unsynchronisierte feindliche Patches
Bis zu diesem Punkt gingen wir davon aus, dass die Stromspuren während der Messung synchronisiert werden konnten. Dies ist jedoch nicht immer der Fall, weshalb wir diese Annahme gelockert haben. Wir haben Methoden vorgeschlagen, um Patches zu erzeugen, die auch dann effektiv bleiben, wenn die Zeit nicht übereinstimmt.
Dieser Wandel führte zu neuen Methoden zur Erstellung von Stromspuren, die robust gegen Änderungen in der Synchronisation sind, was ihre Wirksamkeit als heimliche Angriffs Methode erhöht.
Spektralanalyse als Abwehr
In unserer Untersuchung haben wir das Potenzial für die Vorverarbeitung von Stromspuren untersucht, um unerwünschte Signale herauszufiltern. Durch die Analyse des spektralen Bereichs der Stromspuren hofften wir, einzigartige Signaturen zu identifizieren, die helfen könnten, zwischen harmlosen und bösartigen Aktivitäten zu unterscheiden.
Diese spektrale Analyse könnte dem Verteidiger helfen, gesammelte Stromspuren zu filtern, bevor sie mit dem ML-Modell analysiert werden. Allerdings haben wir festgestellt, dass unsere erzeugten feindlichen Patches oft Frequenzkomponenten ausserhalb des erwarteten Bereichs für normale Signale enthielten, was sie anfällig für eine solche Filterung macht.
Adversarial Training als Gegenmassnahme
Adversarial Training ist eine weitere Methode, die wir untersucht haben, um die Sicherheit von ML-Modellen zu verbessern. Durch das Training von Modellen mit feindlichen Beispielen können sie widerstandsfähiger gegen verschiedene Angriffsformen werden. Allerdings haben wir festgestellt, dass AT zwar die Widerstandsfähigkeit des Modells bei niedrigeren Rauschwerten verbessert, aber bei höheren Rauschwerten weniger effektiv wird.
Darüber hinaus führte die Implementierung von AT häufig zu einem Rückgang der Gesamtleistung des Modells, was auf einen Kompromiss zwischen Sicherheit und Nutzen hinweist.
Adaptive Angriffe und ihre Auswirkungen
Adaptive Angriffe stellen eine zusätzliche Komplexitätsebene dar. Diese Angriffe zielen darauf ab, Rauschen zu erzeugen, das auf spezifische Frequenzbereiche abzielt, was die Heimlichkeit des Angriffs verbessern kann. Indem ein adaptiver Angreifer sowohl zeitliche als auch frequenzielle Einschränkungen berücksichtigt, kann er feindliche Signale erzeugen, die viel schwerer zu erkennen sind.
Unsere Forschung hebt die Bedeutung hervor, diese adaptiven Angriffsmethoden bei der Entwicklung effektiver Abwehrmassnahmen gegen HTs zu berücksichtigen.
Fazit
Unsere Arbeit beleuchtet die Verwundbarkeit von ML-Techniken in der Hardwaresicherheit. Wir haben Methoden entwickelt, um Schaltungen zu erstellen, die feindliche Stromspuren erzeugen, die darauf ausgelegt sind, Erkennungssysteme zu täuschen. Unsere Ergebnisse deuten darauf hin, dass es selbst mit minimalen Ressourcen möglich ist, effektive HTs zu bauen, die aktuelle Erkennungstechniken auf sowohl ASIC- als auch FPGA-Plattformen umgehen.
Mit dem Fortschritt der Technologie ist es wichtig, potenziellen Bedrohungen voraus zu sein, indem wir verstehen, wie Angreifer Schwächen in Erkennungsmethoden ausnutzen können. Unsere Forschung betont die Notwendigkeit einer fortlaufenden Bewertung und Verbesserung von Erkennungssystemen sowie die Entwicklung neuer Gegenmassnahmen, um sich gegen sich entwickelnde Angriffe zu schützen.
Zusammenfassend lässt sich sagen, dass unsere Arbeit einen praktischen Weg aufzeigt, um Schwächen für böswillige Zwecke auszunutzen, und gleichzeitig als Aufforderung für Forscher und Fachleute in der Industrie dient, Sicherheitsmassnahmen bei der Gestaltung und Herstellung von ICs zu stärken.
Titel: Evasive Hardware Trojan through Adversarial Power Trace
Zusammenfassung: The globalization of the Integrated Circuit (IC) supply chain, driven by time-to-market and cost considerations, has made ICs vulnerable to hardware Trojans (HTs). Against this threat, a promising approach is to use Machine Learning (ML)-based side-channel analysis, which has the advantage of being a non-intrusive method, along with efficiently detecting HTs under golden chip-free settings. In this paper, we question the trustworthiness of ML-based HT detection via side-channel analysis. We introduce a HT obfuscation (HTO) approach to allow HTs to bypass this detection method. Rather than theoretically misleading the model by simulated adversarial traces, a key aspect of our approach is the design and implementation of adversarial noise as part of the circuitry, alongside the HT. We detail HTO methodologies for ASICs and FPGAs, and evaluate our approach using TrustHub benchmark. Interestingly, we found that HTO can be implemented with only a single transistor for ASIC designs to generate adversarial power traces that can fool the defense with 100% efficiency. We also efficiently implemented our approach on a Spartan 6 Xilinx FPGA using 2 different variants: (i) DSP slices-based, and (ii) ring-oscillator-based design. Additionally, we assess the efficiency of countermeasures like spectral domain analysis, and we show that an adaptive attacker can still design evasive HTOs by constraining the design with a spectral noise budget. In addition, while adversarial training (AT) offers higher protection against evasive HTs, AT models suffer from a considerable utility loss, potentially rendering them unsuitable for such security application. We believe this research represents a significant step in understanding and exploiting ML vulnerabilities in a hardware security context, and we make all resources and designs openly available online: https://dev.d18uu4lqwhbmka.amplifyapp.com
Autoren: Behnam Omidi, Khaled N. Khasawneh, Ihsen Alouani
Letzte Aktualisierung: 2024-01-04 00:00:00
Sprache: English
Quell-URL: https://arxiv.org/abs/2401.02342
Quell-PDF: https://arxiv.org/pdf/2401.02342
Lizenz: https://creativecommons.org/publicdomain/zero/1.0/
Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.
Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.