Une méthode simple pour protéger les modèles de langage
Cette approche utilise l'auto-évaluation pour se protéger contre les résultats nuisibles dans les modèles de langue.
― 2 min lire
Table des matières
Le doc présente une nouvelle méthode pour protéger les grands modèles de langage (LLMs) des attaques qui essaient de les tromper et de les amener à produire des contenus nuisibles. Cette approche utilise l'Auto-évaluation, où les modèles évaluent leurs propres entrées et sorties sans avoir besoin d'un entraînement supplémentaire. C'est moins cher et plus simple que d'autres méthodes qui demandent d'ajuster les modèles.
L'objectif principal est de réduire le taux de succès des attaques sur les LLMs open source et closed source. L'étude montre que la méthode d'auto-évaluation réduit les taux de succès des attaques plus efficacement que des outils existants comme Llama-Guard2 et divers APIs de modération de contenu.
Les auteurs discutent de la façon dont les LLMs sont entraînés pour éviter les sorties nuisibles, mais certaines attaques arrivent encore à passer au travers de ces Défenses. Leur méthode consiste à introduire un point de contrôle où un autre modèle vérifie la sécurité de l'entrée et de la sortie, ce qui peut repérer les demandes nuisibles et empêcher les réponses non sécurisées.
La recherche inclut des tests sur divers scénarios, comme si l'évaluateur peut lui-même résister aux attaques. Les résultats suggèrent que même si l'évaluateur peut être attaqué, la défense reste efficace, offrant une meilleure protection que les modèles qui n'ont pas cette méthode.
L'étude se concentre spécifiquement sur la façon d'évaluer les instructions nuisibles, en utilisant un ensemble d'exemples nuisibles bien définis pour les tests. Ils examinent aussi comment leur défense fonctionne contre différents types d'attaques, comme celles qui ajoutent du texte non désiré aux entrées.
Dans l'ensemble, les résultats indiquent que l'auto-évaluation est un mécanisme de défense solide et pratique pour protéger les LLMs contre la production de contenus nuisibles, même en cas d'attaques. La technique est reconnue pour sa simplicité et son efficacité, ce qui en fait une contribution précieuse à la sécurité du déploiement des LLMs.
Titre: Self-Evaluation as a Defense Against Adversarial Attacks on LLMs
Résumé: We introduce a defense against adversarial attacks on LLMs utilizing self-evaluation. Our method requires no model fine-tuning, instead using pre-trained models to evaluate the inputs and outputs of a generator model, significantly reducing the cost of implementation in comparison to other, finetuning-based methods. Our method can significantly reduce the attack success rate of attacks on both open and closed-source LLMs, beyond the reductions demonstrated by Llama-Guard2 and commonly used content moderation APIs. We present an analysis of the effectiveness of our method, including attempts to attack the evaluator in various settings, demonstrating that it is also more resilient to attacks than existing methods. Code and data will be made available at https://github.com/Linlt-leon/self-eval.
Auteurs: Hannah Brown, Leon Lin, Kenji Kawaguchi, Michael Shieh
Dernière mise à jour: 2024-08-06 00:00:00
Langue: English
Source URL: https://arxiv.org/abs/2407.03234
Source PDF: https://arxiv.org/pdf/2407.03234
Licence: https://creativecommons.org/licenses/by/4.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.
Liens de référence
- https://pratiman-91.github.io/colormaps/docs/collections/scientific
- https://www.latex-project.org/help/documentation/encguide.pdf
- https://platform.openai.com/docs/guides/moderation
- https://azure.microsoft.com/en-us/products/ai-services/ai-content-safety
- https://perspectiveapi.com/
- https://github.com/Linlt-leon/Adversarial-Alignments
- https://github.com/Linlt-leon/self-eval