Simple Science

La science de pointe expliquée simplement

# Informatique# Apprentissage automatique# Intelligence artificielle# Cryptographie et sécurité# Vision par ordinateur et reconnaissance des formes

Apprentissage Fédéré : Naviguer dans les Risques de Sécurité en Conduite Autonome

L'apprentissage fédéré fait face à de nouvelles attaques par empoisonnement, menaçant la sécurité des technologies de conduite autonome.

― 6 min lire


Menaces pourMenaces pourl'apprentissage fédérédans les voituresautonome.la sécurité des systèmes de conduiteDe nouvelles attaques mettent en danger
Table des matières

L'apprentissage fédéré (FL) est un moyen pour plusieurs parties de collaborer pour entraîner des modèles d'apprentissage automatique sans partager leurs données. C'est super utile dans des domaines comme la conduite autonome, où garder les données privées est important. En utilisant le FL, les entreprises peuvent économiser sur les coûts de stockage, réduire la quantité de données qu'elles doivent envoyer sur Internet et accélérer le processus d'apprentissage.

Cependant, le FL n'est pas sans problèmes. Un gros souci, c'est qu'il peut être vulnérable aux attaques de poisoning. Dans ces attaques, des utilisateurs malveillants essaient de perturber le processus d'apprentissage, rendant le modèle moins efficace ou même dangereux.

Qu'est-ce que les attaques de poisoning ?

Les attaques de poisoning se produisent quand quelqu'un avec de mauvaises intentions manipule ses mises à jour locales avant de les envoyer au serveur central. Ces attaques peuvent être divisées en deux types principaux : les attaques non ciblées et les attaques ciblées.

  • Attaques non ciblées visent à diminuer la performance globale du modèle sans se concentrer sur un résultat spécifique.
  • Attaques ciblées sont conçues pour changer le comportement du modèle d'une certaine manière lorsque certaines conditions sont remplies.

Les deux types d'attaques peuvent avoir un impact significatif sur le fonctionnement des systèmes FL, surtout dans des domaines critiques comme la conduite autonome.

Les risques dans la conduite autonome

Dans le cadre des voitures autonomes, les conséquences de ces attaques peuvent être graves. Un véhicule malveillant pourrait changer son modèle local pour provoquer intentionnellement des accidents ou induire d'autres véhicules en erreur. C'est pourquoi il est crucial que les applications FL en conduite autonome aient de solides défenses contre ces attaques.

Stratégies d'atténuation courantes

Pour se protéger contre les attaques de poisoning, les systèmes FL utilisent souvent des méthodes d'agrégation robustes. Ça veut dire qu'ils essaient de combiner les mises à jour de tous les clients de manière à réduire l'impact de toute mise à jour malveillante. Quelques défenses courantes incluent :

  • Krum : Cette méthode sélectionne la mise à jour la plus similaire aux autres.
  • Multi-Krum : Similaire à Krum, mais prend en compte plus de mises à jour.
  • Moyenne tronquée : Cette approche retire les mises à jour les plus élevées et les plus basses avant de faire la moyenne.
  • Défense contre la perte : Cette stratégie identifie et retire les clients dont les mises à jour augmentent significativement la perte du modèle.

Bien que ces méthodes puissent être utiles, elles ne sont pas infaillibles.

Nouveaux types d'attaques

Des études récentes ont introduit deux nouveaux types d'attaques de poisoning spécifiquement conçues pour les tâches de régression dans la conduite autonome.

Attaque FLStealth

La première s'appelle l'attaque FLStealth. Cette attaque est de type non ciblée, se concentrant sur la dégradation subtile de la performance du modèle global tout en ayant l'air inoffensive. L'attaquant crée un modèle presque identique à un modèle bénin mais entraîné pour causer des dommages quand le moment viendra.

Attaque Off-Track (OTA)

La seconde attaque, connue sous le nom d'attaque Off-Track (OTA), est une attaque backdoor. Ce type d'attaque est conçu pour déclencher une réponse spécifique lorsque certaines conditions sont remplies. Par exemple, si un véhicule reçoit un "déclencheur" spécifique, il pourrait changer sa trajectoire de manière dangereuse.

L'importance de la prédiction de trajectoire des véhicules

Dans les voitures autonomes, prédire où un véhicule va aller est essentiel pour une navigation sûre. Les deux attaques, FLStealth et OTA, peuvent rendre difficile pour le modèle de prédire avec précision les trajectoires des véhicules, posant ainsi un risque sérieux pour la sécurité.

Utilisation du dataset

Pour tester ces attaques, les chercheurs ont utilisé un dataset appelé Zenseact Open Dataset (ZOD). Ce dataset inclut divers scénarios de conduite et est séparé en trois parties : des images pour des tâches générales, des séquences pour l'apprentissage basé sur le temps, et des trajets pour la planification à long terme. Pour les expériences, seules des images filtrées ont été utilisées pour garantir la fiabilité des données.

Comment fonctionne l'apprentissage fédéré

Dans une configuration typique d'apprentissage fédéré impliquant un groupe de clients, chaque client collecte de nouvelles données et entraîne son modèle local. Le serveur central envoie un modèle global et recueille les versions mises à jour de chaque client. Ces modèles sont ensuite moyennés pour former un nouveau modèle global, qui est renvoyé aux clients pour un entraînement supplémentaire.

Expériences et résultats

Les chercheurs ont mené plusieurs expériences pour voir à quel point les attaques étaient efficaces contre diverses stratégies d'atténuation.

Résultats des attaques non ciblées

Dans le cas des attaques non ciblées, l'attaque FLStealth s'est révélée particulièrement efficace pour contourner différentes défenses. L'attaque a maintenu un score de test élevé, indiquant que la performance du modèle global était gravement compromise.

Parmi les défenses testées, les stratégies de défense contre la perte et LossFusion ont montré un certain potentiel, mais elles ont quand même eu du mal face à FLStealth.

Résultats des attaques ciblées

Pour l'OTA, les chercheurs ont observé qu'elle pouvait efficacement amener le modèle à agir incorrectement lorsqu'il était exposé à un déclencheur spécifique. Cela a été clairement démontré dans des tests où le modèle a pu changer sa trajectoire prédite de manière significative lorsque le déclencheur était présent, bien qu'il ait eu une faible perte sans déclencheur.

Conclusion

La recherche met en évidence les vulnérabilités significatives des systèmes d'apprentissage fédéré utilisés pour la conduite autonome. L'introduction des attaques FLStealth et OTA démontre le besoin de meilleures défenses contre de telles menaces. Malgré les stratégies de protection existantes, aucune n'a été trouvée totalement efficace pour contrer ces nouvelles attaques.

À mesure que le domaine continue d'évoluer, il y a un besoin clair de méthodes de détection améliorées et d'exploration de nouvelles stratégies qui peuvent offrir une protection plus robuste contre les attaques de poisoning. Les résultats soulignent l'importance de sécuriser les applications FL, surtout celles qui ont des implications directes pour la sécurité dans des domaines critiques comme la conduite autonome.

Source originale

Titre: Poisoning Attacks on Federated Learning for Autonomous Driving

Résumé: Federated Learning (FL) is a decentralized learning paradigm, enabling parties to collaboratively train models while keeping their data confidential. Within autonomous driving, it brings the potential of reducing data storage costs, reducing bandwidth requirements, and to accelerate the learning. FL is, however, susceptible to poisoning attacks. In this paper, we introduce two novel poisoning attacks on FL tailored to regression tasks within autonomous driving: FLStealth and Off-Track Attack (OTA). FLStealth, an untargeted attack, aims at providing model updates that deteriorate the global model performance while appearing benign. OTA, on the other hand, is a targeted attack with the objective to change the global model's behavior when exposed to a certain trigger. We demonstrate the effectiveness of our attacks by conducting comprehensive experiments pertaining to the task of vehicle trajectory prediction. In particular, we show that, among five different untargeted attacks, FLStealth is the most successful at bypassing the considered defenses employed by the server. For OTA, we demonstrate the inability of common defense strategies to mitigate the attack, highlighting the critical need for new defensive mechanisms against targeted attacks within FL for autonomous driving.

Auteurs: Sonakshi Garg, Hugo Jönsson, Gustav Kalander, Axel Nilsson, Bhhaanu Pirange, Viktor Valadi, Johan Östman

Dernière mise à jour: 2024-05-02 00:00:00

Langue: English

Source URL: https://arxiv.org/abs/2405.01073

Source PDF: https://arxiv.org/pdf/2405.01073

Licence: https://creativecommons.org/licenses/by/4.0/

Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.

Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.

Plus d'auteurs

Articles similaires