Cet article explore des stratégies pour protéger la vie privée des individus dans le machine learning.
― 10 min lire
La science de pointe expliquée simplement
Cet article explore des stratégies pour protéger la vie privée des individus dans le machine learning.
― 10 min lire
Apprends comment la confidentialité différentielle protège les données individuelles tout en permettant une analyse utile.
― 7 min lire
Une nouvelle approche de l'IA combine des modèles de langage avec des programmes symboliques pour une meilleure interprétabilité.
― 10 min lire
Apprends les meilleures pratiques pour développer des modèles d'IA de manière responsable et efficace.
― 7 min lire
Un aperçu des catégories de risques liés à l'IA et de la nécessité de politiques unifiées.
― 8 min lire
De nouvelles méthodes révèlent des menaces sérieuses pour la vie privée dues au partage de données de localisation.
― 8 min lire
Cet article examine si les grands modèles de langage ont des croyances et des intentions.
― 7 min lire
Discuter de l'équité à long terme dans la technologie et de son impact social.
― 9 min lire
AAggFF introduit des stratégies adaptatives pour un rendement équitable des modèles en apprentissage fédéré.
― 8 min lire
Des outils comme OxonFair aident à garantir l'équité dans la prise de décision de l'IA.
― 8 min lire
Des recherches montrent à quel point il est facile de retirer les fonctionnalités de sécurité des modèles Llama 3.
― 7 min lire
Des recherches montrent comment des ajustements de prompt peuvent améliorer les réponses de l'IA pour différentes cultures.
― 7 min lire
Cet article examine les risques liés aux LLM et propose des moyens d'améliorer la sécurité.
― 6 min lire
Un nouveau cadre vise à détecter et corriger les erreurs dans les résultats des LVLM.
― 9 min lire
Cette étude examine les problèmes de confidentialité et les méthodes de protection pour les classificateurs IA.
― 8 min lire
Cette étude évalue à quel point les modèles d'IA comprennent différentes cultures.
― 5 min lire
Une nouvelle méthode de défense pour améliorer la sécurité dans les modèles de diffusion texte-image.
― 6 min lire
NFARD propose des méthodes innovantes pour protéger les droits d'auteur des modèles d'apprentissage profond.
― 8 min lire
Cette étude se concentre sur la réduction des biais de genre dans les modèles de langage IA en utilisant un langage inclusif.
― 8 min lire
Améliorer la confiance et la conformité dans les modèles de langage grâce à une attribution précise des sources.
― 8 min lire
Cette étude montre que les LLM préfèrent leurs propres productions à celles écrites par des humains.
― 4 min lire
Une étude révèle les galères pour les humains et l'IA à se reconnaître.
― 8 min lire
Examiner comment le langage influence les vues sur le genre à travers les biais dans les modèles d'IA.
― 5 min lire
CEIPA aide à dénicher les vulnérabilités dans les grands modèles de langage pour améliorer leur sécurité.
― 8 min lire
Examen des risques et des mesures de sécurité pour les robots alimentés par des LLM.
― 10 min lire
Examiner l'impact des LLM sur les stéréotypes sociaux et comment améliorer les résultats.
― 7 min lire
Une étude révèle des risques surprenants à partager des données sensibles avec des chatbots.
― 9 min lire
Examiner la confidentialité différentielle et la régression NTK pour protéger les données des utilisateurs dans l'IA.
― 9 min lire
Explorer la confidentialité différentielle pour protéger les infos sensibles dans les applis IA.
― 7 min lire
Honest Computing met l'accent sur la confiance et l'éthique dans la gestion des données.
― 13 min lire
Un cadre qui permet aux propriétaires de données de vérifier l'utilisation non autorisée de leurs données dans le ML.
― 9 min lire
Cette méthode améliore la vie privée tout en augmentant la précision du modèle en IA.
― 8 min lire
Explorer des techniques pour retirer efficacement des données des modèles d'IA.
― 9 min lire
Examen des effets sociaux et environnementaux des modèles de base d'IA.
― 8 min lire
Examiner la vie privée différentielle dans le traitement du langage naturel pour une meilleure protection des données.
― 10 min lire
Examiner comment les outils d'IA peuvent renforcer les biais dans le tri des CV.
― 6 min lire
La méthode CrossWalk améliore l'équité des embeddings de nœuds tout en prenant en compte les informations sensibles.
― 6 min lire
Les explications d'IA trompeuses peuvent influencer les croyances, compliquant la lutte contre les fausses informations.
― 6 min lire
Ce papier examine l'efficacité des méthodes actuelles de vérification de l'oubli machine.
― 8 min lire
Examiner comment les T2I représentent les identités de caste et renforcent les stéréotypes.
― 9 min lire