Les défis de l'ajustement des modèles de langage
Cet article examine comment l'affinage affecte la précision des modèles de langage et les hallucinations.
― 6 min lire
Table des matières
- Comprendre la mise à jour
- Le rôle des connaissances préexistantes
- Hallucinations dans les LLMs
- L'expérience
- Résultats clés de l'étude
- Apprentissage lent de nouvelles connaissances
- Taux d'hallucination accrus
- Importance du pré-entraînement
- Impact des exemples de mise à jour
- Inquiétudes sur le surajustement
- Implications pratiques
- Filtrage des données de mise à jour
- Nouveau label avec incertitude
- Conclusion
- Source originale
- Liens de référence
Les grands modèles de langage (LLMs) sont des systèmes avancés capables de générer du texte basé sur les informations qu'ils ont apprises. Ces modèles sont entraînés sur d'énormes quantités de données textuelles, ce qui leur enseigne un large éventail de Connaissances. Cependant, ces modèles ne fournissent pas toujours des informations précises, surtout lorsqu'ils sont exposés à de nouveaux faits lors d'un processus de mise à jour. Cet article examine comment la mise à jour des LLMs avec de nouvelles connaissances peut affecter leur Performance et mener à des réponses incorrectes, souvent appelées Hallucinations.
Comprendre la mise à jour
La mise à jour est le processus qui consiste à prendre un modèle pré-entraîné et à l'ajuster en fonction de tâches spécifiques ou d'informations plus récentes. Cela se fait en entraînant le modèle davantage sur de nouveaux exemples. L'idée, c'est que le modèle apprendra à mieux répondre à des questions ou instructions spécifiques qu'il pourrait rencontrer plus tard. Pendant la mise à jour, le modèle peut rencontrer des informations qu'il n'a pas apprises lors de sa phase d'entraînement initiale.
Le rôle des connaissances préexistantes
Quand un LLM est entraîné, il acquiert des connaissances à partir du texte qu'il traite. Ces connaissances sont stockées dans les paramètres du modèle. Les connaissances préexistantes sont essentielles pour le modèle car elles forment la base de ce que le modèle peut générer. Cependant, lorsque de nouvelles données sont introduites lors de la mise à jour, il y a un risque que le modèle confonde ces nouvelles informations avec ce qu'il sait déjà.
Hallucinations dans les LLMs
Les hallucinations se réfèrent aux cas où le modèle génère du contenu qui est factuellement incorrect ou absurde. Cela peut se produire lorsque le modèle essaie d'incorporer de nouvelles informations qu'il a apprises lors de la mise à jour mais n'arrive pas à les relier correctement à ses connaissances existantes. En conséquence, le modèle pourrait fournir des réponses qui ne reposent pas sur la réalité.
L'expérience
Pour enquêter sur comment la mise à jour avec de nouvelles connaissances affecte les hallucinations, une étude contrôlée a été conçue. L'étude se concentrait sur la réponse à des questions à livre fermé (QA). Cela signifie que le modèle devait répondre à des questions sans accès à des données externes, en se basant uniquement sur ce qu'il avait appris lors de l'entraînement.
Les chercheurs ont varié la quantité d'exemples de mise à jour qui contenaient de nouvelles connaissances. Ils ont observé comment cela a impacté l'exactitude des réponses du modèle et sa tendance à halluciner.
Résultats clés de l'étude
Apprentissage lent de nouvelles connaissances
Un des résultats était que les LLMs ont du mal à Apprendre de nouvelles connaissances factuelles pendant la mise à jour. Les nouveaux exemples qui ont été introduits ont été appris beaucoup plus lentement que ceux qui correspondaient aux connaissances préexistantes du modèle. Cet apprentissage lent indique que le modèle ne peut pas intégrer efficacement les nouvelles informations.
Taux d'hallucination accrus
À mesure que le modèle a commencé à apprendre de nouvelles informations, il a aussi montré une tendance accrue à halluciner. Cela signifie que, même si le modèle a techniquement appris de nouveaux faits, il est devenu plus susceptible de générer des informations incorrectes. Cette relation suggère un risque associé à la mise à jour sur de nouvelles données factuelles.
Importance du pré-entraînement
Les résultats soulignent que les LLMs forment principalement leurs connaissances factuelles lors de la phase de pré-entraînement initiale. La mise à jour sert principalement à améliorer la façon dont ils peuvent utiliser les connaissances qu'ils ont déjà, plutôt qu'à élargir de manière significative leurs connaissances factuelles.
Impact des exemples de mise à jour
La composition des exemples de mise à jour était cruciale. Apprendre à partir d'exemples de haute qualité qui correspondaient aux connaissances existantes du modèle a amélioré sa performance, tandis qu'apprendre à partir d'exemples qui introduisaient de nouvelles connaissances entraînait souvent une performance plus faible.
Inquiétudes sur le surajustement
Le surajustement se produit lorsque le modèle devient trop adapté aux données d'entraînement et perd sa capacité de généralisation. Les chercheurs ont découvert que cela était particulièrement vrai lorsque le modèle apprenait à partir des exemples de nouvelles connaissances pendant la mise à jour. Pour atténuer ces effets, des techniques comme l'arrêt précoce, qui consiste à arrêter l'entraînement lorsque la performance commence à décliner, ont montré des promesses pour réduire les risques d'hallucination.
Implications pratiques
L'étude fournit des informations précieuses sur la façon dont la mise à jour affecte les modèles de langage. Une implication pratique est la nécessité de considérer soigneusement les exemples utilisés pour la mise à jour. Éliminer les exemples qui introduisent de nouvelles connaissances factuelles peut aider à améliorer la performance globale tout en réduisant le risque d'hallucinations.
Filtrage des données de mise à jour
Filtrer le jeu de données de mise à jour pour éliminer les exemples de nouvelles connaissances pourrait conduire à une meilleure performance. Cette approche se concentre sur la mise à jour avec des exemples que le modèle est déjà susceptible de comprendre, renforçant ainsi l'utilisation correcte des connaissances existantes.
Nouveau label avec incertitude
Une autre approche intéressante consiste à re-labeller les exemples de mise à jour avec des phrases d'incertitude, comme "je ne sais pas." Cette méthode pourrait aider à réduire les impacts négatifs du surajustement et à améliorer la performance générale du modèle. En guidant le modèle à exprimer de l'incertitude, il y a un potentiel pour maintenir l'exactitude tout en minimisant les chances d'hallucinations.
Conclusion
Dans l'ensemble, la recherche souligne le délicat équilibre entre l'introduction de nouvelles connaissances aux modèles de langage et la garantie qu'ils restent précis. La mise à jour est un outil puissant pour adapter les modèles à des tâches spécifiques, mais elle comporte également des risques significatifs, notamment en ce qui concerne les hallucinations. Les résultats suggèrent que la sélection et la gestion soigneuses des exemples de mise à jour sont essentielles pour améliorer la performance du modèle sans sacrifier l'exactitude. En reconnaissant les limitations de la façon dont les modèles apprennent et appliquent de nouvelles connaissances, les développeurs peuvent prendre des mesures pour s'assurer que les LLMs fournissent des réponses fiables et correctes, menant finalement à de meilleures expériences utilisateurs.
Titre: Does Fine-Tuning LLMs on New Knowledge Encourage Hallucinations?
Résumé: When large language models are aligned via supervised fine-tuning, they may encounter new factual information that was not acquired through pre-training. It is often conjectured that this can teach the model the behavior of hallucinating factually incorrect responses, as the model is trained to generate facts that are not grounded in its pre-existing knowledge. In this work, we study the impact of such exposure to new knowledge on the capability of the fine-tuned model to utilize its pre-existing knowledge. To this end, we design a controlled setup, focused on closed-book QA, where we vary the proportion of the fine-tuning examples that introduce new knowledge. We demonstrate that large language models struggle to acquire new factual knowledge through fine-tuning, as fine-tuning examples that introduce new knowledge are learned significantly slower than those consistent with the model's knowledge. However, we also find that as the examples with new knowledge are eventually learned, they linearly increase the model's tendency to hallucinate. Taken together, our results highlight the risk in introducing new factual knowledge through fine-tuning, and support the view that large language models mostly acquire factual knowledge through pre-training, whereas fine-tuning teaches them to use it more efficiently.
Auteurs: Zorik Gekhman, Gal Yona, Roee Aharoni, Matan Eyal, Amir Feder, Roi Reichart, Jonathan Herzig
Dernière mise à jour: 2024-10-01 00:00:00
Langue: English
Source URL: https://arxiv.org/abs/2405.05904
Source PDF: https://arxiv.org/pdf/2405.05904
Licence: https://creativecommons.org/licenses/by/4.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.
Liens de référence
- https://www.latex-project.org/help/documentation/encguide.pdf
- https://www.wikidata.org/wiki/Property:P276
- https://www.wikidata.org/wiki/Property:P131
- https://www.wikidata.org/wiki/Property:P20
- https://www.wikidata.org/wiki/Property:P19
- https://www.wikidata.org/wiki/Property:P106
- https://www.wikidata.org/wiki/Property:P800
- https://www.wikidata.org/wiki/Property:P413
- https://www.wikidata.org/wiki/Property:P159
- https://www.wikidata.org/wiki/Property:P36