Cet article examine comment les exemples adverses affectent les systèmes de détection de malware.
― 6 min lire
La science de pointe expliquée simplement
Cet article examine comment les exemples adverses affectent les systèmes de détection de malware.
― 6 min lire
Cette étude examine comment le changement de langue affecte les classificateurs de texte.
― 8 min lire
Examiner la robustesse de SAM face aux attaques adversariales pour une technologie de conduite autonome plus sûre.
― 7 min lire
Présentation de DUCD, une méthode axée sur la confidentialité pour protéger les DNN contre les attaques adverses.
― 10 min lire
Un aperçu de comment l'IA peut oublier des données privées pendant la restauration d'images.
― 7 min lire
La recherche se concentre sur la génération d'exemples adversariaux pour tester les systèmes d'évaluation de crédibilité.
― 8 min lire
Une nouvelle approche pour une visualisation et une compréhension plus claires des modèles d'apprentissage profond.
― 5 min lire
Des recherches montrent des failles dans la détection de voie des véhicules autonomes à cause des ombres négatives.
― 9 min lire
Un regard sur l'évaluation de la fiabilité des explications de l'IA à travers la sensibilité aux attaques.
― 9 min lire
Une nouvelle méthode améliore la compréhension et la fiabilité des réseaux de neurones.
― 7 min lire
Une étude révèle les vulnérabilités des modèles d'ADN face aux attaques adversariales.
― 9 min lire
Examiner les risques et les défenses des modèles de langage multimodaux en IA.
― 8 min lire
Explorer comment l'ironie embrouille les systèmes d'apprentissage automatique.
― 6 min lire
Cet article parle des problèmes de sécurité et de sûreté dans les systèmes d'IA multimodaux.
― 8 min lire
Une nouvelle méthode renforce la sécurité de l'apprentissage profond avec des empreintes neuronales aléatoires.
― 10 min lire
Un regard de plus près sur les revendications d'une nouvelle défense de classification d'images contre les exemples adverses.
― 11 min lire
Explorer l'importance des classes individuelles dans les modèles de classification d'images.
― 7 min lire
Les LLMs ont du mal à détecter les arnaques malignes et doivent s'améliorer.
― 7 min lire
Découvrez comment NODE-AdvGAN trompe l'IA avec des images subtiles.
― 8 min lire
Découvrez comment les exemples adversariaux défient la cybersécurité et les défenses contre eux.
― 6 min lire
L'entraînement adversarial améliore la défense de l'IA contre les attaques trompeuses en utilisant la mesure SDI.
― 7 min lire