Examiner comment le fine-tuning augmente le risque de révéler des données d'entraînement sensibles.
― 8 min lire
La science de pointe expliquée simplement
Examiner comment le fine-tuning augmente le risque de révéler des données d'entraînement sensibles.
― 8 min lire
Un aperçu des attaques de reconstruction et de leur impact sur la vie privée des données dans l'apprentissage automatique.
― 11 min lire
Une méthode pour une analyse collaborative sans partager de données sensibles sur les patients.
― 9 min lire
Un nouveau système permet un entraînement des CNN plus rapide sur des appareils avec une mémoire limitée.
― 7 min lire
Examiner les défis et solutions dans l'apprentissage machine collaboratif pour une meilleure vie privée et sécurité.
― 7 min lire
Une nouvelle méthode pour améliorer les modèles d'apprentissage automatique affectés par des données de mauvaise qualité.
― 8 min lire
Une nouvelle attaque par cache exploite les politiques de remplacement pour fuites d'infos sensibles.
― 7 min lire
Cet article examine l'effacement machine dans les grands modèles de langage.
― 12 min lire
CoDream permet aux organisations de collaborer en toute sécurité sans partager de données sensibles.
― 7 min lire
Découvrez comment ESFL améliore l'efficacité de l'apprentissage automatique tout en protégeant la vie privée.
― 8 min lire
Nouvelles méthodes pour protéger les données sensibles contre l'accès non autorisé dans l'apprentissage automatique.
― 8 min lire
Adressez les préoccupations en matière de confidentialité dans l'apprentissage automatique avec des techniques efficaces.
― 10 min lire
Explore comment les jeux de données synthétiques améliorent la performance des modèles de machine learning et la sélection des modèles.
― 9 min lire
S'attaquer au défi de la vie privée dans la prise de décision basée sur les données pour la santé.
― 9 min lire
Explorer comment des tailles de lots plus grandes améliorent la confidentialité différentielle en apprentissage automatique.
― 9 min lire
FedReview améliore l'apprentissage fédéré en rejetant les mises à jour de modèles nuisibles.
― 7 min lire
Examiner les défis de la confidentialité différentielle dans les systèmes d'apprentissage en ligne.
― 9 min lire
Explorer les risques de confidentialité et de sécurité liés aux grands modèles de langage.
― 7 min lire
FedUV améliore les performances des modèles en apprentissage fédéré sur des données non-IID.
― 8 min lire
Exploration des méthodes de confidentialité différentielle locale pour une analyse de graphes sécurisée.
― 9 min lire
AerisAI améliore la collaboration en IA tout en protégeant la vie privée des données grâce à des méthodes décentralisées.
― 8 min lire
Explorer des méthodes de confidentialité différentielle dans l'apprentissage par renforcement pour protéger les données sensibles.
― 9 min lire
De nouvelles méthodes sécurisent les données en IA tout en garantissant des calculs efficaces.
― 7 min lire
Cet article présente une méthode pour des clients avec des objectifs variés dans l'apprentissage fédéré de bandits.
― 8 min lire
Discuter de la vie privée et de l'équité dans l'apprentissage automatique à travers la vie privée différentielle et le risque du pire groupe.
― 8 min lire
De nouveaux algorithmes améliorent la confidentialité et la précision dans les scénarios de données rares.
― 8 min lire
Une nouvelle méthode combine l'apprentissage fédéré et le calcul sécurisé pour protéger la vie privée des données de regard.
― 8 min lire
BasedAI utilise le cryptage pour garantir la confidentialité tout en améliorant les performances du modèle de langage.
― 8 min lire
Un aperçu de comment l'analyse de données peut préserver la vie privée des individus.
― 9 min lire
Une méthode pour enlever des compétences indésirables des modèles de langue tout en gardant les fonctions essentielles intactes.
― 8 min lire
Une nouvelle méthode améliore les prévisions de charge énergétique tout en garantissant la confidentialité des données.
― 10 min lire
Asyn2F améliore l'apprentissage fédéré asynchrone pour un meilleur entraînement des modèles et la protection des données.
― 9 min lire
Une nouvelle approche améliore la précision de l'apprentissage automatique tout en garantissant la confidentialité des données.
― 12 min lire
Une nouvelle approche de la représentation des images avec confidentialité différentielle grâce au sous-titrage.
― 9 min lire
Une nouvelle méthode améliore l'efficacité de l'apprentissage fédéré en utilisant des stratégies de mise à jour des clients.
― 7 min lire
Examiner l'unlearning fédéré et ses défis en matière de confidentialité dans l'apprentissage automatique.
― 10 min lire
Des recherches montrent comment les LLM peuvent révéler des données d'entraînement, soulevant des inquiétudes liées à la vie privée.
― 7 min lire
Cet article parle des solutions de confidentialité pour les problèmes de Max Cover et Set Cover.
― 6 min lire
Un aperçu des risques de l'empoisonnement des données dans les systèmes d'apprentissage fédéré.
― 11 min lire
Un nouveau cadre fusionne des gros et des petits modèles pour privilégier la protection des données des utilisateurs.
― 8 min lire