Une nouvelle méthode aide à identifier les vulnérabilités cachées dans les modèles biométriques.
― 6 min lire
La science de pointe expliquée simplement
Une nouvelle méthode aide à identifier les vulnérabilités cachées dans les modèles biométriques.
― 6 min lire
Une nouvelle méthode pour retrouver des échantillons backdoor sans avoir besoin de données propres.
― 11 min lire
Une étude révèle de nouvelles techniques pour des attaques par porte dérobée sur des modèles de langage avec un impact minimal.
― 13 min lire
Présentation de TABDet, une nouvelle méthode pour détecter les attaques par porte dérobée dans les tâches de traitement du langage naturel.
― 7 min lire
Des recherches montrent des risques de sécurité importants dans les modèles de chat à cause des attaques par porte dérobée.
― 10 min lire
La recherche met en avant les vulnérabilités des systèmes MNMT face aux attaques par backdoor.
― 9 min lire
Une nouvelle approche pour protéger les modèles linguistiques des déclencheurs de données nuisibles.
― 10 min lire
Explorer les défis de sécurité posés par l'apprentissage auto-supervisé et les attaques par porte dérobée sans étiquette.
― 8 min lire
Analyser les menaces et les défenses dans l'apprentissage fédéré contre les attaques malveillantes.
― 6 min lire
Un aperçu des attaques par porte dérobée ciblées dans les systèmes d'apprentissage fédéré.
― 6 min lire
BadFusion utilise les données de la caméra pour lancer des attaques backdoor sur les systèmes de conduite autonome.
― 8 min lire
Ce papier présente EFRAP, une défense contre les attaques par porte dérobée conditionnées par la quantification dans les modèles d'apprentissage profond.
― 10 min lire
Recherche sur la façon dont des agents nuisibles peuvent corrompre de bons agents dans l'apprentissage par renforcement décentralisé.
― 9 min lire
Une approche économe en ressources pour les attaques par porte dérobée sur des modèles d'apprentissage automatique avancés.
― 7 min lire
Une nouvelle méthode réduit les menaces de porte dérobée dans les réseaux de neurones profonds.
― 9 min lire
Cet article examine les risques de sécurité liés aux attaques backdoor sur l'apprentissage automatique dans les systèmes de graphes.
― 9 min lire
De nouvelles méthodes luttent contre les attaques par backdoor sur les modèles d'apprentissage automatique pour plus de sécurité.
― 8 min lire
On propose une méthode pour créer des triggers de backdoor invisibles dans les modèles de diffusion.
― 9 min lire
Découvrir les risques posés par les attaques par porte dérobée sur les systèmes intelligents.
― 7 min lire
De nouvelles méthodes comme PromptFix aident à sécuriser les modèles de langue contre les menaces cachées.
― 6 min lire
Présentation d'une méthode pour évaluer la résilience des modèles face aux attaques par empoisonnement de données.
― 8 min lire
Explorer les vulnérabilités dans l'apprentissage fédéré personnalisé et les nouvelles méthodes d'attaque par porte dérobée.
― 8 min lire
Une nouvelle méthode cible les changements de rythme pour des attaques de discours discrètes.
― 7 min lire
Cet article explore l'impact du poisoning des données sur l'alignement des modèles de langage.
― 8 min lire
Apprends comment les attaques par backdoor menacent les systèmes d'apprentissage machine et les méthodes pour s'en défendre.
― 8 min lire
Une nouvelle stratégie de défense pour les LLM contre les attaques backdoor.
― 7 min lire
Une nouvelle méthode s'attaque aux menaces cachées dans les grands modèles de langage.
― 8 min lire
Examiner les risques et les défenses contre les attaques par porte dérobée dans les modèles d'IA.
― 9 min lire
Explorer les attaques par backdoor et les méthodes de réduction de graphes dans les GNN.
― 7 min lire
Venomancer est une attaque discrète en backdoor sur les systèmes d'apprentissage fédéré.
― 7 min lire
Une nouvelle méthode de défense pour améliorer la sécurité dans les modèles de diffusion texte-image.
― 6 min lire
Les inquiétudes grandissent concernant les attaques par porte dérobée dans les modèles de langage, affectant la sécurité et la fiabilité.
― 8 min lire
Examiner les vulnérabilités des modèles de langage clinique et leur impact sur la sécurité des patients.
― 10 min lire
De nouvelles méthodes visent à sécuriser les modèles d'apprentissage automatique contre les menaces de porte dérobée.
― 5 min lire
De nouveaux modèles aident les développeurs, mais les attaques par porte dérobée posent de sérieux risques de sécurité.
― 12 min lire
Une nouvelle approche pour renforcer la sécurité dans l'apprentissage fédéré contre les attaques backdoor.
― 6 min lire
Une nouvelle méthode renforce la sécurité des modèles d'apprentissage profond contre les menaces cachées.
― 9 min lire
Une nouvelle méthode vise à sécuriser l'apprentissage semi-supervisé contre les menaces de backdoor.
― 7 min lire
Cet article parle de la protection des GNN contre le poisoning de données et les attaques par porte dérobée.
― 11 min lire
Analyse des techniques efficaces d'attaque par backdoor clean-label en apprentissage automatique.
― 9 min lire