Simple Science

La science de pointe expliquée simplement

# Informatique# Recherche d'informations

Améliorer les LLMs avec le toolkit RETA-LLM

Découvrez comment RETA-LLM combine des modèles de langage et des systèmes de récupération pour de meilleures réponses.

― 7 min lire


Améliorer la précisionAméliorer la précisiondes LLMfiable.langage avec une récupération d'infosRETA-LLM améliore les modèles de
Table des matières

Dans le monde de la technologie, les grands modèles de langage (LLMs) attirent beaucoup d'attention. Ces modèles peuvent générer du texte qui ressemble à du texte humain, ce qui les rend utiles pour plein de tâches. Cependant, ils produisent parfois des informations fausses, ce qui peut poser un gros problème. Pour y remédier, les chercheurs combinent les LLMs avec des systèmes de recherche d'information. Cette combinaison s'appelle LLMs augmentés par la récupération d'information.

RETA-LLM est un outil conçu pour aider à construire ces systèmes augmentés par la récupération. Il permet aux utilisateurs de créer leurs propres systèmes qui peuvent mieux gérer des questions spécifiques. L'outil comprend diverses fonctionnalités qui facilitent la personnalisation des systèmes pour répondre aux besoins des chercheurs et des développeurs.

Le défi avec les grands modèles de langage

Bien que les LLMs soient très efficaces dans plein de domaines, ils peuvent parfois se tromper. Ce problème est connu sous le nom d'« hallucination », où le modèle génère des réponses qui ne sont pas vraies ou qui n'existent pas. Pour y faire face, les chercheurs ont trouvé de nouvelles méthodes pour améliorer les LLMs.

En ajoutant des systèmes de recherche d'information, les LLMs peuvent chercher la bonne info quand c'est nécessaire. Ça veut dire qu'ils peuvent générer des réponses plus précises, surtout quand ils traitent des sujets ou des questions spécifiques.

Aperçu du toolkit RETA-LLM

Le toolkit RETA-LLM se concentre sur la fourniture d'un ensemble d'outils pour construire des LLMs augmentés par la recherche. Contrairement à d'autres kits d'outils généralistes, RETA-LLM met l'accent sur des fonctionnalités plug-and-play qui permettent aux utilisateurs d'intégrer facilement différents composants. Le toolkit comprend cinq modules essentiels :

  1. Réécriture de demande
  2. Récupération de documents
  3. Extraction de passages
  4. Génération de réponses
  5. Vérification des faits

Ces modules fonctionnent ensemble pour améliorer l'interaction entre les LLMs et les systèmes de recherche d'information.

Comment fonctionne RETA-LLM

Étape 1 : Réécriture de demande

Quand un utilisateur pose une question, la première étape est de s'assurer que la demande est claire. Le module de réécriture prend l'entrée de l'utilisateur et la révise pour la rendre plus complète. C'est super important quand les utilisateurs posent des questions de suivi, car le sens peut ne pas être totalement clair.

Par exemple, si un utilisateur demande : « Et pour l'École d'Économie ? » après avoir demandé sur l'École d'Information, le système réécrit ça pour clarifier que l'utilisateur veut des infos sur l'École d'Économie. En utilisant le contexte des questions précédentes, le module aide à améliorer l'exactitude de la demande.

Étape 2 : Récupération de documents

L'étape suivante est que le système récupère des documents pertinents basés sur la demande révisée. Le module de récupération de documents se connecte au système de recherche d'information pour trouver les documents ou passages les plus pertinents dans une base de connaissances plus large.

Par exemple, si l'utilisateur veut savoir sur des majors spécifiques, le système vérifie la source de connaissance et ramène des documents liés au sujet. Ce module est conçu pour renvoyer par défaut les trois meilleurs documents, bien que cela puisse être ajusté.

Étape 3 : Extraction de passages

Après avoir récupéré les documents, le système doit extraire les bonnes informations. Le module d'extraction de passages prend les documents pertinents et isole les parties qui répondent à la question de l'utilisateur.

C'est important parce que les LLMs ont des limites sur la quantité de texte qu'ils peuvent traiter à la fois. Au lieu d'essayer de donner tout le document au LLM, le module découpe les documents en plus petites parties. En se concentrant sur les fragments les plus importants, la probabilité de rater des infos vitales diminue.

Étape 4 : Génération de réponses

Avec les infos extraites, le système passe ensuite à la génération de réponses. En utilisant les fragments pertinents comme références, le LLM peut maintenant fournir une réponse plus précise et informée à la demande de l'utilisateur.

Des recherches ont montré que quand les LLMs sont alimentés avec des documents pertinents, ils ont tendance à produire de meilleures réponses, plus factuelles. En utilisant des informations provenant de sources crédibles, les réponses sont ancrées dans la réalité, réduisant les risques d'hallucination.

Étape 5 : Vérification des faits

La dernière étape est de vérifier que les réponses générées sont correctes. Le module de vérification des faits examine les réponses produites par le LLM pour s'assurer qu'il n'y a pas d'erreurs factuelles.

Étant donné que les LLMs peuvent toujours produire des informations incorrectes, cette étape agit comme une protection. En analysant à la fois les références et la réponse générée, le module peut décider de présenter la réponse à l'utilisateur ou d'admettre qu'il ne peut pas fournir une réponse précise.

Construire un système basé sur LLM avec RETA-LLM

Pour faciliter la création de systèmes par les utilisateurs, RETA-LLM offre un pipeline clair pour la configuration. Voici comment n'importe qui peut commencer à construire son propre système de récupération basé sur LLM.

Étape 1 : Convertir HTML en JSON

La première tâche est de prendre les fichiers HTML bruts et de les convertir en un format plus gérable, comme JSON. Cette conversion permet au système de mieux gérer les données.

Étape 2 : Construire des index denses

Ensuite, le toolkit fournit une méthode pour créer des index denses basés sur les données JSON converties. Ce processus aide à rechercher efficacement dans la collection de documents. Le modèle construit sa propre compréhension des données, permettant de meilleurs correspondances lors de la réponse aux questions.

Étape 3 : Préparer les LLMs pour répondre aux questions

Les utilisateurs devront ensuite configurer le LLM qu'ils souhaitent utiliser. RETA-LLM fournit des modèles pour divers modèles, permettant aux utilisateurs de choisir ce qui convient le mieux à leurs besoins. Que ce soit un modèle pré-entraîné ou une API spécifique, la configuration est adaptable.

Étape 4 : Lancer le service

Enfin, les utilisateurs peuvent lancer leur système RETA-LLM. Avec une interface simple, le toolkit permet aux utilisateurs d'interagir facilement avec leur système et de commencer à répondre aux requêtes.

Un exemple pratique : Système d'assistant d'inscription RUC

Pour montrer comment RETA-LLM fonctionne en pratique, imaginons la création d'un système d'assistant d'inscription pour une université. En utilisant les pages de la plateforme d'inscription en ligne de l'université, on peut construire un système qui aide les futurs étudiants à trouver l'information dont ils ont besoin.

Ce système utiliserait un module de récupération de documents pour rassembler des données pertinentes sur les programmes, les exigences d'admission et les délais. Quand un utilisateur pose une question, l'assistant peut fournir des réponses précises et utiles basées sur les informations les plus récentes disponibles.

Conclusion et améliorations futures

En résumé, RETA-LLM est un toolkit qui aide à améliorer l'efficacité des grands modèles de langage en intégrant des systèmes de recherche d'information. Les divers modules permettent un flux d'informations sans accroc de la demande utilisateur à la réponse finale.

Il y a encore beaucoup de travail à faire pour améliorer cet outil. Les mises à jour futures pourraient introduire plus de stratégies et de fonctionnalités, rendant encore plus facile la configuration et l'utilisation des systèmes. L'objectif est de continuer à affiner le processus, assurant que les LLMs puissent mieux servir les utilisateurs et produire des réponses précises et fiables.

Source originale

Titre: RETA-LLM: A Retrieval-Augmented Large Language Model Toolkit

Résumé: Although Large Language Models (LLMs) have demonstrated extraordinary capabilities in many domains, they still have a tendency to hallucinate and generate fictitious responses to user requests. This problem can be alleviated by augmenting LLMs with information retrieval (IR) systems (also known as retrieval-augmented LLMs). Applying this strategy, LLMs can generate more factual texts in response to user input according to the relevant content retrieved by IR systems from external corpora as references. In addition, by incorporating external knowledge, retrieval-augmented LLMs can answer in-domain questions that cannot be answered by solely relying on the world knowledge stored in parameters. To support research in this area and facilitate the development of retrieval-augmented LLM systems, we develop RETA-LLM, a {RET}reival-{A}ugmented LLM toolkit. In RETA-LLM, we create a complete pipeline to help researchers and users build their customized in-domain LLM-based systems. Compared with previous retrieval-augmented LLM systems, RETA-LLM provides more plug-and-play modules to support better interaction between IR systems and LLMs, including {request rewriting, document retrieval, passage extraction, answer generation, and fact checking} modules. Our toolkit is publicly available at https://github.com/RUC-GSAI/YuLan-IR/tree/main/RETA-LLM.

Auteurs: Jiongnan Liu, Jiajie Jin, Zihan Wang, Jiehan Cheng, Zhicheng Dou, Ji-Rong Wen

Dernière mise à jour: 2023-06-08 00:00:00

Langue: English

Source URL: https://arxiv.org/abs/2306.05212

Source PDF: https://arxiv.org/pdf/2306.05212

Licence: https://creativecommons.org/licenses/by-nc-sa/4.0/

Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.

Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.

Plus d'auteurs

Articles similaires