Présentation d'un nouveau mécanisme de défense contre les attaques par inférence d'appartenance dans les modèles d'apprentissage automatique.
― 8 min lire
La science de pointe expliquée simplement
Présentation d'un nouveau mécanisme de défense contre les attaques par inférence d'appartenance dans les modèles d'apprentissage automatique.
― 8 min lire
Le poisoning de code augmente les risques d'attaques par inférence de membres sur des données sensibles.
― 8 min lire
Un outil aide les utilisateurs à vérifier si leurs données ont été utilisées dans des modèles d'apprentissage profond.
― 7 min lire