Examiner l'importance de la confidentialité à travers le désapprentissage de l'identité dans l'apprentissage automatique.
― 6 min lire
La science de pointe expliquée simplement
Examiner l'importance de la confidentialité à travers le désapprentissage de l'identité dans l'apprentissage automatique.
― 6 min lire
J-CHAT propose un grand jeu de données open-source pour améliorer les systèmes de dialogue parlé.
― 7 min lire
Une nouvelle méthode améliore la sécurité dans la génération d'images à partir de prompts textuels.
― 7 min lire
Une nouvelle méthode améliore la modélisation 3D des humains à partir de photos minimales.
― 9 min lire
La recherche propose un cadre pour réduire les biais dans les textes générés par l'IA.
― 9 min lire
Les ateliers améliorent la compréhension de l'IA responsable pour les pros du secteur.
― 11 min lire
Des recherches montrent comment des invites amicales peuvent tromper les systèmes d'IA.
― 6 min lire
Un ensemble de données solide pour entraîner des systèmes d'IA avancés basés sur le chat.
― 7 min lire
Un cadre pour intégrer les voix des minorités dans les processus d'annotation.
― 11 min lire
Découvrez comment le transfert de style de texte change le style tout en préservant le sens.
― 11 min lire
Une nouvelle méthode améliore l'alignement des modèles d'IA sans nécessiter de réentraînement.
― 10 min lire
PUFFLE propose une solution pour les défis de confidentialité, d'utilité et d'équité dans l'apprentissage automatique.
― 8 min lire
Nouveau modèle crée efficacement des représentations réalistes de têtes humaines en 3D.
― 9 min lire
Cet article parle de comment le raisonnement des LLM améliore les systèmes de recommandation et présente Rec-SAVER.
― 8 min lire
Une méthode pour réduire le biais dans les modèles de langage en les faisant oublier des infos nuisibles.
― 8 min lire
Combiner l'apprentissage automatique avec le raisonnement automatisé pour des explications AI plus claires.
― 7 min lire
Comprendre des techniques pour contourner la sécurité des modèles linguistiques.
― 7 min lire
Explorer l'utilisation des filigranes pour s'attaquer aux problèmes de droits d'auteur dans les modèles de langage.
― 8 min lire
Un nouveau jeu de données synthétiques permet une détection précise des têtes et de la modélisation 3D.
― 14 min lire
Une étude détaillée sur comment les modèles mémorisent du texte et ses implications.
― 8 min lire
Une analyse de comment les sondages impactent la recherche en IA, les valeurs et l'engagement du public.
― 12 min lire
Ce projet vise à identifier et réduire les biais dans les modèles linguistiques à travers les langues européennes.
― 5 min lire
Une plongée profonde dans l'importance d'interpréter les modèles de traitement du langage naturel.
― 5 min lire
Examen des méthodes pour préparer des données dans l'entraînement des modèles.
― 7 min lire
Une nouvelle approche pour évaluer la fiabilité des méthodes qui expliquent la prise de décision de l'IA.
― 10 min lire
Examiner les problèmes de justice dans les algorithmes de détection d'anomalies pour les images faciales.
― 8 min lire
Explorer l'oubli machine et son rôle dans l'amélioration de la sécurité et de la vie privée de l'IA générative.
― 9 min lire
Explorer les biais humains et leur impact sur l'équité de l'IA.
― 9 min lire
De nouvelles méthodes détectent et réagissent à la mémorisation dans le contenu généré par l'IA.
― 11 min lire
Exploration des principes pour des relations éthiques entre les gens et leurs données.
― 7 min lire
De nouvelles méthodes s'attaquent aux problèmes de copie dans les modèles de génération d'images.
― 7 min lire
Examiner les biais et l'équité dans les grands modèles de langage.
― 8 min lire
Explorer le rôle et les défis des LLM dans l'ingénierie des connaissances.
― 9 min lire
Une étude révèle des lacunes dans la représentation des utilisateurs marginalisés de Stable Diffusion.
― 9 min lire
Un nouveau modèle pour un échange de visages réaliste en utilisant des techniques avancées.
― 8 min lire
Un aperçu des risques et des méthodes liés à la sécurité des modèles de langage.
― 7 min lire
Un aperçu des biais et de l'équité dans la technologie de vision par ordinateur.
― 10 min lire
Les grands modèles linguistiques montrent une vulnérabilité accrue aux comportements de données nuisibles.
― 7 min lire
Des méthodes innovantes pour améliorer l'équité dans les grands modèles de langage.
― 9 min lire
Examen des risques du jailbreak à multiples essais dans les modèles de langue italiens.
― 5 min lire