Explorer des méthodes d'apprentissage fédéré pour protéger la vie privée des utilisateurs et améliorer les performances des modèles.
― 9 min lire
La science de pointe expliquée simplement
Explorer des méthodes d'apprentissage fédéré pour protéger la vie privée des utilisateurs et améliorer les performances des modèles.
― 9 min lire
Une nouvelle méthode pose des risques importants pour la vie privée dans l'apprentissage fédéré.
― 9 min lire
LightTR améliore la récupération de trajectoires en utilisant l'apprentissage fédéré tout en protégeant la vie privée des utilisateurs.
― 8 min lire
Mind-Animator reconstruit des vidéos en utilisant l'activité cérébrale mesurée par l'IRMf.
― 8 min lire
Les organisations médiatiques établissent des directives pour une utilisation responsable de l'IA dans le journalisme.
― 6 min lire
Utiliser l'IA générative et MoE pour améliorer la sécurité des communications.
― 8 min lire
Une nouvelle méthode améliore l'efficacité de la sélection des appareils dans l'apprentissage fédéré.
― 8 min lire
Une nouvelle méthode aborde la vie privée et l'équité dans les modèles de régression en utilisant des ajustements innovants.
― 7 min lire
Une nouvelle méthode protège la vie privée tout en permettant aux modèles de langue d'apprendre à partir d'exemples.
― 8 min lire
Un cadre pour un traitement des données plus sûr en apprentissage automatique.
― 9 min lire
Les GNN inductifs font face à des menaces de vie privée à cause des attaques de vol de liens.
― 8 min lire
Une nouvelle méthode pour améliorer la confidentialité des données médicales et la collaboration entre les institutions.
― 6 min lire
Cette étude explore le rôle de l'apprentissage fédéré dans la réponse à des questions visuelles sur des documents.
― 9 min lire
Les MIAs sans ombre révèlent des vulnérabilités dans les systèmes de recommandation pour les utilisateurs.
― 8 min lire
Une nouvelle méthode pour améliorer la disponibilité des clients dans l'apprentissage fédéré.
― 8 min lire
Un nouveau cadre génère des données sur la mobilité humaine tout en protégeant la vie privée des individus.
― 7 min lire
Un nouveau protocole améliore la confidentialité et l'efficacité dans l'apprentissage décentralisé.
― 7 min lire
Un aperçu des risques des attaques d'inférence d'appartenance sur la vie privée des données.
― 9 min lire
Un aperçu de comment les modèles rares améliorent l'efficacité de l'apprentissage fédéré.
― 6 min lire
Nouveau modèle d'IA améliore le diagnostic des problèmes osseux en utilisant des données de rayons X et de rapports.
― 9 min lire
Apprends comment la confidentialité différentielle peut améliorer la sécurité des données dans la régression LLS.
― 8 min lire
Un système qui apprend à partir des données des patients tout en garantissant la protection de la vie privée.
― 9 min lire
Des pros de l'IA partagent leurs opinions sur l'IA fiable et ses défis.
― 8 min lire
Une nouvelle approche combine des protections de la vie privée avec l'apprentissage par bandit contextuel.
― 6 min lire
Une nouvelle méthode pour détecter les comportements suspects des véhicules tout en protégeant la vie privée.
― 9 min lire
Une étude sur l'amélioration de la détection des flux vidéo tout en respectant la vie privée des utilisateurs.
― 9 min lire
Une méthode pour effacer des identités des modèles génératifs tout en gardant la qualité de l'image.
― 6 min lire
De nouvelles méthodes améliorent la précision de l'estimation de la taille des jointures tout en protégeant les données sensibles.
― 7 min lire
Une stratégie pour protéger les connexions sensibles dans les données graphiques tout en libérant des informations utiles.
― 5 min lire
Un aperçu de la confidentialité différentielle et de son application dans l'apprentissage automatique.
― 10 min lire
Une nouvelle méthode améliore l'apprentissage fédéré décentralisé tout en préservant la confidentialité des données.
― 9 min lire
Une nouvelle approche améliore la détection d'intrusions dans les systèmes décentralisés.
― 9 min lire
Améliorer les applis de détection mobile grâce à un nouveau cadre pour gérer les données manquantes.
― 9 min lire
Cette étude examine comment les créateurs réagissent quand leurs œuvres sont utilisées pour la formation de l'IA.
― 8 min lire
Ce papier présente EFRAP, une défense contre les attaques par porte dérobée conditionnées par la quantification dans les modèles d'apprentissage profond.
― 10 min lire
Une nouvelle méthode améliore la capacité des modèles à oublier des infos visuelles précises.
― 10 min lire
Méthodes pour fournir des estimations de population fiables tout en garantissant la confidentialité des répondants.
― 7 min lire
La recherche améliore l'interprétation des ECG tout en garantissant la confidentialité des données des patients.
― 8 min lire
Un nouveau cadre améliore l'apprentissage fédéré et empêche l'oubli dans les modèles d'IA.
― 9 min lire
Une étude révèle l'attaque WordGame, qui profite des faiblesses des mesures de sécurité des LLM.
― 7 min lire