Une étude révèle l'attaque WordGame, qui profite des faiblesses des mesures de sécurité des LLM.
― 7 min lire
La science de pointe expliquée simplement
Une étude révèle l'attaque WordGame, qui profite des faiblesses des mesures de sécurité des LLM.
― 7 min lire
Une nouvelle méthode améliore la compréhension des résultats des modèles de langage.
― 6 min lire
Une nouvelle approche pour renforcer les GNN face au bruit et aux attaques.
― 9 min lire
De nouvelles méthodes comme PromptFix aident à sécuriser les modèles de langue contre les menaces cachées.
― 6 min lire
Une étude sur PlagBench et son rôle dans la détection du plagiat dans les résultats des LLM.
― 6 min lire
FADAS améliore l'apprentissage fédéré en permettant des mises à jour asynchrones des clients tout en préservant la confidentialité des données.
― 6 min lire
Des chercheurs proposent une méthode pour améliorer les modèles médicaux tout en garantissant la confidentialité des données.
― 6 min lire
Un système pour un apprentissage IA sécurisé dans la santé sans partager les données des patients.
― 11 min lire
Une nouvelle méthode permet des attaques par porte dérobée sans données propres ni changements de modèle.
― 8 min lire
Découvre comment la corrélation et la coskewness révèlent des relations cachées dans les données.
― 7 min lire