Découvrir les risques posés par les attaques par porte dérobée sur les systèmes intelligents.
― 7 min lire
La science de pointe expliquée simplement
Découvrir les risques posés par les attaques par porte dérobée sur les systèmes intelligents.
― 7 min lire
De nouvelles méthodes comme PromptFix aident à sécuriser les modèles de langue contre les menaces cachées.
― 6 min lire
Présentation d'une méthode pour évaluer la résilience des modèles face aux attaques par empoisonnement de données.
― 8 min lire
Explorer les vulnérabilités dans l'apprentissage fédéré personnalisé et les nouvelles méthodes d'attaque par porte dérobée.
― 8 min lire
Une nouvelle méthode cible les changements de rythme pour des attaques de discours discrètes.
― 7 min lire
Cet article explore l'impact du poisoning des données sur l'alignement des modèles de langage.
― 8 min lire
Apprends comment les attaques par backdoor menacent les systèmes d'apprentissage machine et les méthodes pour s'en défendre.
― 8 min lire
Une nouvelle stratégie de défense pour les LLM contre les attaques backdoor.
― 7 min lire
Une nouvelle méthode s'attaque aux menaces cachées dans les grands modèles de langage.
― 8 min lire
Examiner les risques et les défenses contre les attaques par porte dérobée dans les modèles d'IA.
― 9 min lire
Explorer les attaques par backdoor et les méthodes de réduction de graphes dans les GNN.
― 7 min lire
Venomancer est une attaque discrète en backdoor sur les systèmes d'apprentissage fédéré.
― 7 min lire
Une nouvelle méthode de défense pour améliorer la sécurité dans les modèles de diffusion texte-image.
― 6 min lire
Les inquiétudes grandissent concernant les attaques par porte dérobée dans les modèles de langage, affectant la sécurité et la fiabilité.
― 8 min lire
Examiner les vulnérabilités des modèles de langage clinique et leur impact sur la sécurité des patients.
― 10 min lire
De nouvelles méthodes visent à sécuriser les modèles d'apprentissage automatique contre les menaces de porte dérobée.
― 5 min lire
De nouveaux modèles aident les développeurs, mais les attaques par porte dérobée posent de sérieux risques de sécurité.
― 12 min lire
Une nouvelle approche pour renforcer la sécurité dans l'apprentissage fédéré contre les attaques backdoor.
― 6 min lire
Une nouvelle méthode renforce la sécurité des modèles d'apprentissage profond contre les menaces cachées.
― 9 min lire
Une nouvelle méthode vise à sécuriser l'apprentissage semi-supervisé contre les menaces de backdoor.
― 7 min lire
Cet article parle de la protection des GNN contre le poisoning de données et les attaques par porte dérobée.
― 11 min lire
Analyse des techniques efficaces d'attaque par backdoor clean-label en apprentissage automatique.
― 9 min lire
Examiner les vulnérabilités et les attaques potentielles sur la technologie NeRF.
― 6 min lire
Ce document examine les attaques backdoor et leurs implications sur la sécurité de l'apprentissage automatique.
― 8 min lire
Cette étude examine l'efficacité des attaques par backdoor physique en clean-label dans les réseaux de neurones profonds.
― 7 min lire
Cet article parle d'une méthode pour introduire des portes dérobées dans les réseaux de neurones pendant l'entraînement.
― 7 min lire
Un aperçu des faiblesses des LLM et des stratégies pour les améliorer.
― 11 min lire
Examiner comment les indices émotionnels peuvent détourner la technologie d'identification des locuteurs.
― 8 min lire
Examen des vulnérabilités et des défenses dans les modèles de diffusion pour une génération de contenu sûre.
― 8 min lire
De nouvelles méthodes révèlent des vulnérabilités dans les modèles médicaux grâce à des attaques par porte dérobée.
― 7 min lire
Cette étude examine la vulnérabilité des modèles VSS aux attaques par porte dérobée.
― 6 min lire
Une nouvelle approche améliore l'efficacité des attaques par porte dérobée sur les modèles de NLP.
― 7 min lire
Cet article parle d'une méthode pour manipuler des réseaux neuronaux sans déclencheurs.
― 8 min lire
EmoAttack utilise la conversion vocale émotionnelle pour exploiter les failles des systèmes de parole.
― 7 min lire
Enquêter sur les attaques par porte dérobée et leurs risques pour les systèmes de détection d'objets.
― 8 min lire
NoiseAttack modifie plusieurs classes dans des attaques backdoor en utilisant des motifs de bruit subtils.
― 8 min lire
Apprends comment des déclencheurs cachés peuvent manipuler les modèles de langage et poser des risques sérieux.
― 9 min lire
Examiner comment des points de données importants attirent plus de risques de sécurité dans le machine learning.
― 7 min lire
Une étude révèle des vulnérabilités dans les modèles d'IA à cause des attaques par porte dérobée.
― 7 min lire
Explorer les vulnérabilités des systèmes multi-agents coopératifs face aux attaques par porte dérobée.
― 6 min lire