Améliorer la confiance et la conformité dans les modèles de langage grâce à une attribution précise des sources.
― 8 min lire
La science de pointe expliquée simplement
Améliorer la confiance et la conformité dans les modèles de langage grâce à une attribution précise des sources.
― 8 min lire
Cette étude montre que les LLM préfèrent leurs propres productions à celles écrites par des humains.
― 4 min lire
Une étude révèle les galères pour les humains et l'IA à se reconnaître.
― 8 min lire
Examiner comment le langage influence les vues sur le genre à travers les biais dans les modèles d'IA.
― 5 min lire
CEIPA aide à dénicher les vulnérabilités dans les grands modèles de langage pour améliorer leur sécurité.
― 8 min lire
Examen des risques et des mesures de sécurité pour les robots alimentés par des LLM.
― 10 min lire
Examiner l'impact des LLM sur les stéréotypes sociaux et comment améliorer les résultats.
― 7 min lire
Une étude révèle des risques surprenants à partager des données sensibles avec des chatbots.
― 9 min lire
Examiner la confidentialité différentielle et la régression NTK pour protéger les données des utilisateurs dans l'IA.
― 9 min lire
Explorer la confidentialité différentielle pour protéger les infos sensibles dans les applis IA.
― 7 min lire
Honest Computing met l'accent sur la confiance et l'éthique dans la gestion des données.
― 13 min lire
Un cadre qui permet aux propriétaires de données de vérifier l'utilisation non autorisée de leurs données dans le ML.
― 9 min lire
Cette méthode améliore la vie privée tout en augmentant la précision du modèle en IA.
― 8 min lire
Explorer des techniques pour retirer efficacement des données des modèles d'IA.
― 9 min lire
Examen des effets sociaux et environnementaux des modèles de base d'IA.
― 8 min lire
Examiner la vie privée différentielle dans le traitement du langage naturel pour une meilleure protection des données.
― 10 min lire
Examiner comment les outils d'IA peuvent renforcer les biais dans le tri des CV.
― 6 min lire
La méthode CrossWalk améliore l'équité des embeddings de nœuds tout en prenant en compte les informations sensibles.
― 6 min lire
Les explications d'IA trompeuses peuvent influencer les croyances, compliquant la lutte contre les fausses informations.
― 6 min lire
Ce papier examine l'efficacité des méthodes actuelles de vérification de l'oubli machine.
― 8 min lire
Examiner comment les T2I représentent les identités de caste et renforcent les stéréotypes.
― 9 min lire
Une étude révèle des fuites potentielles d'infos personnelles par les VLMs.
― 8 min lire
Examiner le rôle de l'IA contestable pour l'équité et la responsabilité.
― 8 min lire
Un nouveau cadre améliore l'alignement des modèles de langage avec les préférences des utilisateurs.
― 9 min lire
La recherche explore comment estimer des statistiques tout en respectant les besoins de confidentialité des utilisateurs.
― 1 min lire
Un nouveau jeu de données met en lumière les biais dans les modèles de parole en fonction du genre et de l'âge.
― 10 min lire
Les chatbots IA peuvent créer de faux souvenirs, ce qui soulève des inquiétudes pour les contextes légaux.
― 7 min lire
De nouvelles méthodes améliorent la reconnaissance faciale tout en prenant en compte les préoccupations en matière de vie privée.
― 8 min lire
Une méthode pour améliorer la détection des deepfakes en réduisant les biais de données.
― 6 min lire
Analyser comment les modèles de langage gèrent les biais sociaux dans les opinions.
― 8 min lire
Une nouvelle méthode réduit efficacement les biais dans les modèles d'images et de texte.
― 8 min lire
Une nouvelle méthode améliore la détection des prompts nuisibles dans les modèles de langage.
― 8 min lire
Un aperçu des différences clés entre l'IA explicable et l'IA interprétable.
― 9 min lire
Explorer le désapprentissage certifié et son rôle dans la protection de la vie privée des données.
― 8 min lire
Examiner le biais sociétal dans les modèles de langue chinois et les moteurs de recherche.
― 5 min lire
Une nouvelle approche pour améliorer l'équité et la précision dans la reconnaissance faciale.
― 6 min lire
Examiner comment les identités sociales influencent les biais dans les modèles de langage.
― 7 min lire
Une étude révèle des vulnérabilités dans les modèles d'IA à cause des attaques par porte dérobée.
― 7 min lire
Un nouveau jeu de données vise à mieux comprendre le biais de genre dans l'IA.
― 7 min lire
Examiner comment la responsabilité et l'assurance peuvent atténuer les risques liés à l'IA.
― 6 min lire