Une étude révèle des vulnérabilités dans les modèles de langage mis à jour face aux attaques adversariales.
― 7 min lire
La science de pointe expliquée simplement
Une étude révèle des vulnérabilités dans les modèles de langage mis à jour face aux attaques adversariales.
― 7 min lire
Les méthodes d'adaptation en période de test font face à des vulnérabilités dues aux attaques par empoisonnement, ce qui remet en question leur efficacité.
― 9 min lire
Cette étude examine les méthodes de filigrane pour les textes générés par machine et leur efficacité contre les attaques de suppression.
― 11 min lire
Examinez les différentes attaques de jailbreak sur les modèles de langage et leurs défenses.
― 9 min lire
La recherche met en avant des méthodes pour détecter des attaques par porte dérobée lors du fine-tuning des modèles de langage.
― 12 min lire
Découvre comment les attaques par backdoor mettent en danger la sécurité des modèles de langage alimentés par l'IA.
― 8 min lire