Simple Science

La science de pointe expliquée simplement

# Informatique# Calcul et langage# Intelligence artificielle# Apprentissage automatique

Faire avancer les LLM avec des outils spécialisés

Un cadre améliore les performances des LLM en intégrant des ensembles d'outils adaptés à différentes tâches.

― 7 min lire


LLMs améliorés avec desLLMs améliorés avec desoutilsde résolution de problèmes des LLM.Un nouveau cadre renforce les capacités
Table des matières

Les grands modèles de langage (LLMs) ont changé notre façon d'interagir avec l'intelligence artificielle. Ces modèles peuvent réaliser plein de tâches complexes comme le raisonnement, la planification et la création de contenus créatifs. Cependant, pour améliorer leurs capacités, on les associe souvent à des outils externes pour mieux résoudre des problèmes compliqués.

Le Rôle des Outils dans les LLMs

En utilisant des outils comme les API (interfaces de programmation d'applications), les LLMs peuvent décharger certaines tâches spécifiques. Par exemple, un LLM peut générer des extraits de code qui effectuent des fonctions comme l'encodage d'images ou des calculs complexes. Cependant, beaucoup de méthodes existantes utilisent des API généralisées, ce qui limite la flexibilité nécessaire pour des tâches plus spécifiques.

Un Nouveau Cadre pour la Création et la Récupération d'Outils

Pour surmonter ces limites, on propose un cadre qui met l'accent sur la création et la récupération d'outils adaptés aux LLMs. Ce cadre consiste en un ensemble d'outils spécifiquement conçu pour chaque tâche, permettant aux LLMs d'accéder et d'utiliser ces outils lors de la résolution de problèmes.

Création d'Ensembles d'Outils

La création d'ensembles d'outils implique de rassembler des solutions de code spécialisé en incitant un modèle comme GPT-4. Ces solutions passent par un processus de Validation pour s'assurer qu'elles sont correctes et peuvent être utilisées plus tard. L'objectif est de créer des outils réutilisables qui sont dédupliqués pour la qualité.

Récupération d'Outils au Moment de l'Inférence

Pendant l'inférence, le LLM accède aux outils pertinents de l'ensemble créé. Ce processus de récupération implique d'associer le problème cible avec les fonctions d'outils appropriées. En faisant cela, les LLMs peuvent efficacement s'attaquer aux problèmes sans avoir besoin de les peaufiner pour chaque nouveau domaine qu'ils rencontrent.

Expériences et Résultats

On a mené des expériences sur diverses tâches, comme les interactions vision-langage, le traitement de données tabulaires et le raisonnement mathématique. Les résultats ont montré des améliorations significatives par rapport à des modèles de base solides. Fait intéressant, notre analyse a souligné que les Performances augmentaient systématiquement avec le nombre d'outils disponibles et la capacité des modèles sous-jacents.

Cohérence dans l'Amélioration des Performances

  1. Élargissement des Outils : Augmenter la diversité et le nombre d'outils a contribué à de meilleurs résultats.
  2. Contribution des Composants : Chaque partie de l'approche a joué un rôle dans l'amélioration des performances.
  3. Qualité des Outils : Les outils produits étaient structurés simplement et efficacement, ce qui les rend fiables.

Le Processus de Création d'Outils

Le processus de création d'outils utilise un pipeline structuré en quatre étapes : Génération, Abstraction, Validation et Dé-duplication. Ce pipeline garantit que les outils finaux sont diversifiés, réutilisables et fiables.

Génération d'Outils

Lors de la phase de génération, on extrait des problèmes d'un ensemble de données et on demande au modèle de créer des solutions de code. Cette étape implique de filtrer les solutions incorrectes pour maintenir la qualité.

Abstraction pour la Réutilisabilité

L'étape d'abstraction améliore la réutilisabilité des outils en convertissant des solutions spécifiques en des solutions plus générales. Cela se fait en modifiant les noms de variables et en structurant le code pour s'adresser à une gamme plus large de problèmes similaires.

Validation des Outils

La validation s'assure que les outils créés peuvent résoudre avec précision les problèmes d'origine pour lesquels ils ont été conçus. Les outils échouant à cette étape sont rejetés.

Dé-duplication pour le Contrôle de Qualité

Pour maintenir la qualité et réduire la confusion, on dé-duplication l'ensemble d'outils. Cela implique d'organiser des outils similaires et de ne garder que les plus complets.

Défis de Récupération d'Outils

Récupérer les bons outils d'un grand ensemble peut être difficile. Les méthodes existantes échouent souvent à pointer les outils pertinents, car elles peuvent s'appuyer trop sur des outils pré-sélectionnés ou des stratégies de correspondance simplistes.

Correspondance Multi-Vues pour une Meilleure Récupération

Pour améliorer la récupération, notre cadre utilise une approche de correspondance multi-vues. Cette stratégie prend en compte divers aspects des outils, comme le problème d'origine et les noms des outils, pour identifier ceux qui sont les plus pertinents de manière efficace.

Évaluation du Cadre

On a validé l'efficacité de notre cadre à travers différentes tâches, montrant des améliorations substantielles par rapport aux modèles de base. Les preuves empiriques ont montré que notre cadre de création et de récupération d'outils améliore significativement les performances des LLM.

Résultats dans Différentes Tâches

  1. Réponse à des Questions Visuelles (VQA) : Notre approche a largement surpassé les modèles de base dans ces tâches, montrant un réel bénéfice dans l'utilisation des outils.
  2. Traitement Tabulaire : La capacité des LLM à traiter précisément des données structurées s'est aussi améliorée avec notre cadre.
  3. Raisonnement Mathématique : L'amélioration des performances a démontré que notre cadre pouvait efficacement aider à résoudre des problèmes mathématiques complexes.

Analyse de l'Évolutivité et de la Diversité

L'évolutivité de notre ensemble d'outils est un autre aspect crucial de ses performances. En augmentant le nombre d'outils disponibles, on a observé une hausse constante de la précision à travers les tâches.

Mesure de la Complexité et de la Diversité

Des mesures de complexité, comme la complexité cyclomatique, ont été utilisées pour évaluer la fiabilité des outils créés. La complexité moyenne à travers les tâches est restée faible, indiquant que les outils n'étaient pas trop compliqués et bien structurés.

Comprendre les Limites et les Directions Futures

Bien que notre cadre offre des avantages significatifs, il y a encore des limites. Principalement, la dépendance actuelle à la génération de code signifie qu'il peut seulement s'appliquer à des tâches résolvables par l'écriture de code.

Travail Futur sur la Création d'Outils

On prévoit d'explorer l'élargissement des types de tâches que notre cadre peut gérer sans se concentrer uniquement sur la génération de code. Cela pourrait impliquer l'utilisation de pseudo-code ou d'autres paradigmes de programmation pour élargir son applicabilité.

Amélioration des Capacités d'Utilisation des Outils

Un autre domaine à améliorer concerne l'augmentation des capacités d'utilisation des outils de nos modèles de base. Cela pourrait inclure la collaboration avec des modèles open-source pour mieux faciliter la manipulation des outils.

Conclusion

En résumé, notre cadre fusionne avec succès les LLMs et les ensembles d'outils spécialisés, permettant de meilleures performances dans diverses tâches. L'approche structurée de création et de récupération d'outils montre un potentiel pour une exploration et une amélioration futures dans les capacités de résolution de problèmes de l'IA. Au fur et à mesure que la recherche progresse, on s'attend à d'autres développements qui élargiront l'applicabilité des LLMs à travers différents domaines.

Source originale

Titre: CRAFT: Customizing LLMs by Creating and Retrieving from Specialized Toolsets

Résumé: Large language models (LLMs) are often augmented with tools to solve complex tasks. By generating code snippets and executing them through task-specific Application Programming Interfaces (APIs), they can offload certain functions to dedicated external modules, such as image encoding and performing calculations. However, most existing approaches to augment LLMs with tools are constrained by general-purpose APIs and lack the flexibility for tailoring them to specific tasks. In this work, we present CRAFT, a general tool creation and retrieval framework for LLMs. It creates toolsets specifically curated for the tasks and equips LLMs with a component that retrieves tools from these sets to enhance their capability to solve complex tasks. For each task, we collect specific code solutions by prompting GPT-4 to solve the training examples. Following a validation step ensuring the correctness, these solutions are abstracted into code snippets to enhance reusability, and deduplicated for higher quality. At inference time, the language model retrieves snippets from the toolsets and then executes them or generates the output conditioning on the retrieved snippets. Our method is designed to be flexible and offers a plug-and-play approach to adapt off-the-shelf LLMs to unseen domains and modalities, without any finetuning. Experiments on vision-language, tabular processing, and mathematical reasoning tasks show that our approach achieves substantial improvements compared to strong baselines. In addition, our in-depth analysis reveals that: (1) consistent performance improvement can be achieved by scaling up the number of tools and the capability of the backbone models; (2) each component of our approach contributes to the performance gains; (3) the created tools are well-structured and reliable with low complexity and atomicity. The code is available at https://github.com/lifan-yuan/CRAFT.

Auteurs: Lifan Yuan, Yangyi Chen, Xingyao Wang, Yi R. Fung, Hao Peng, Heng Ji

Dernière mise à jour: 2024-03-13 00:00:00

Langue: English

Source URL: https://arxiv.org/abs/2309.17428

Source PDF: https://arxiv.org/pdf/2309.17428

Licence: https://creativecommons.org/licenses/by-nc-sa/4.0/

Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.

Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.

Plus d'auteurs

Articles similaires