Simple Science

La science de pointe expliquée simplement

# Informatique# Intelligence artificielle# Calcul et langage

Améliorer le raisonnement des LLM avec des graphes de connaissances

Une nouvelle méthode combine des LLM et des KG pour améliorer la précision du raisonnement.

― 8 min lire


Les LLMs rencontrent lesLes LLMs rencontrent lesgraphes de connaissancesl'efficacité du raisonnement.Une nouvelle méthode améliore
Table des matières

Les grands modèles de langage (LLMs) ont eu un gros impact dans plein de domaines. Cependant, parfois, ils peuvent donner des réponses fausses, surtout quand il faut réfléchir en profondeur. Pour remédier à ça, on peut utiliser des Graphes de connaissance (KGs), qui stockent les infos de manière claire et organisée. Mais, trouver la meilleure façon de lier ces KGs avec les LLMs n'est pas encore complètement exploré.

Dans ce boulot, on propose une méthode qui combine la recherche d'infos et son utilisation de manière interactive pour aider les étapes de raisonnement basées sur les KGs. On a créé un module appelé Path-RAG pour extraire des morceaux de connaissance utiles des KGs pour le raisonnement des LLMs. En mélangeant les compétences en raisonnement des LLMs avec les connexions dans les KGs, on peut obtenir de meilleurs résultats pour trouver les bonnes infos.

En plus, on utilise les capacités de logique des LLMs pour guider les étapes de raisonnement de manière claire et répétable. Ce contrôle logique nous dit quand arrêter de chercher plus de réponses, ce qui évite les erreurs et de perdre du temps.

Pour tester notre méthode, on a fait plein d'expériences, et notre approche a mieux fonctionné que de fortes méthodes existantes sur trois tests différents sans avoir besoin d'entraînement supplémentaire.

La montée des grands modèles de langage a attiré l'attention des chercheurs et du grand public. Ces modèles montrent des compétences de raisonnement impressionnantes, gérant des problèmes complexes avec une logique étape par étape. Cependant, ces modèles ne sont pas toujours fiables, surtout dans des domaines où la précision est cruciale, comme la santé et la recherche scientifique.

Les graphes de connaissance sont des ressources précieuses qui contiennent des infos de haute qualité dans un format structuré, comme les triplets trouvés dans Wikidata ou YAGO. Ces graphes offrent des connaissances fiables qui peuvent améliorer le raisonnement des LLMs. Chaque morceau de connaissance dans un KG peut être vérifié pour sa source, ce qui aide à confirmer sa fiabilité. Cette traçabilité facilite la compréhension du processus de raisonnement, améliorant ainsi l'utilisation efficace de ces modèles.

Malgré leur potentiel, l'utilisation des KGs avec les LLMs pose plusieurs défis. Un problème principal est de récupérer la connaissance exacte dont on a besoin dans les KGs pour aider au raisonnement. Les solutions à ce jour ont inclus la récupération directe, où les questions agissent comme des requêtes pour trouver des triplets liés dans le KG, et l'analyse sémantique, qui traduit les questions en requêtes exécutables. Cependant, la première méthode peut avoir du mal si certains triplets n'ont pas assez d'infos. La seconde méthode rencontre des défis si les requêtes générées sont inapplicables.

Un autre défi est de faire en sorte que le modèle de raisonnement utilise efficacement la connaissance récupérée. Les solutions existantes incluent le réglage fin des LLMs sur les structures de KG ou faire en sorte que le modèle récupère et raisonne en se basant sur des sous-graphes dans les KGs. Cependant, la première approche ne garantit pas que toutes les étapes de raisonnement existent dans le KG. La deuxième approche a du mal à décider quand arrêter le processus de raisonnement, ce qui peut conduire à des erreurs.

Pour relever ces défis, on introduit notre méthode de récupération-exploration, qui récupère et raisonne à travers des sous-graphes de manière dynamique. Le module Path-RAG trouve des connaissances essentielles à partir des KGs, tandis que notre système génère des mots-clés pour garantir des recherches complètes et éviter de manquer des chemins de raisonnement importants. On utilise aussi le raisonnement déductif pour guider le processus de prise de décision, aidant à éviter les erreurs et les calculs inutiles.

On implémente une recherche par faisceaux, une technique conçue pour les étapes de raisonnement dans une zone de recherche contrôlée. Ça aide à garder le processus de raisonnement sur la bonne voie et logique, minimisant les erreurs.

Notre méthode inclut des contributions significatives :

  1. Une approche unique pour récupérer et explorer les étapes de raisonnement basées sur les KGs.
  2. Des signaux de Vérification déductive pour indiquer quand arrêter de raisonner, améliorant l'efficacité.
  3. Un processus de raisonnement combiné qui exploite les connexions des KGs pour une récupération plus efficace tout en maintenant l'efficacité.

Plein d'expériences montrent que notre méthode sans entraînement nécessite moins de puissance informatique tout en dépassant les stratégies existantes sur trois tests.

Notre méthode, illustrée dans les figures fournies, utilise deux modules principaux : Path-RAG et Deductive-Verification Guided Beam Search (DVBS). Le module Path-RAG récupère des nœuds et relations pertinents à partir des KGs, tandis que DVBS aide les LLMs à effectuer une recherche par faisceaux sur les candidats pour identifier les meilleurs chemins de raisonnement.

Path-RAG fonctionne en trois étapes principales : initialisation, récupération et construction de candidats d'étapes de raisonnement. Au départ, on intègre les nœuds et les arêtes en utilisant un modèle de langage pré-entraîné, en les stockant dans une structure de voisinage proche. On génère ensuite une liste de mots-clés à partir de la requête pour assurer une couverture complète pour la prise de décision ultérieure.

Une fois que les nœuds et les arêtes potentiels sont identifiés, on évalue les étapes de raisonnement par rapport à ces connexions dans le KG. Le système de notation prend en compte la pertinence immédiate ainsi que les implications à long terme, permettant un processus de prise de décision plus équilibré.

Le module DVBS a trois étapes principales : planification, recherche par faisceaux et vérification déductive. La planification permet aux LLMs de tracer des chemins de raisonnement potentiels. La recherche par faisceaux consiste à sélectionner les meilleures étapes de raisonnement et à décider s'il faut continuer à explorer ou s'arrêter. La vérification déductive aide à confirmer si une étape de raisonnement suit logiquement les étapes précédentes, fournissant des signaux clairs pour s'arrêter quand c'est nécessaire.

Lors de la phase expérimentale, on a utilisé trois ensembles de données de référence : WebQuestionSP, Complex WebQuestions et CR-LT-KGQA. On a évalué les performances en utilisant des métriques F1, Hits@1 et précision sur ces tests.

On a comparé notre méthode à plusieurs méthodes de base. Nos résultats montrent que notre approche a constamment surpassé les autres, même en utilisant des modèles puissants comme GPT-4. La performance sur l'ensemble de données CR-LT était particulièrement notable, démontrant l'adaptabilité de notre méthode à des requêtes plus complexes.

Une étude d'ablation détaillée a mis en évidence l'importance de composants spécifiques au sein de notre méthode. Retirer soit Path-RAG soit la recherche par faisceaux dans DVBS a entraîné des baisses de performance notables, soulignant leur importance dans la gestion des tâches de raisonnement complexes.

Pour évaluer la robustesse, on a testé plusieurs modèles d'intégration et configurations de recherche par faisceaux. L'intégration de modèles avancés a considérablement amélioré la performance globale, tandis que des recherches plus larges et plus profondes ont généralement amélioré la précision jusqu'à un certain point avant que les rendements décroissants ne s'installent.

On a aussi vérifié l'efficacité de notre approche de vérification déductive, qui a constamment livré des chemins de raisonnement plus courts et plus proches de la vérité par rapport à d'autres méthodes. Notre analyse des erreurs a montré que, tandis que certains chemins générés par des méthodes de base étaient invalides, notre approche étape par étape maintenait un ratio de validité plus élevé.

Pour valider l'application dans le monde réel, on a présenté une étude de cas où notre méthode a efficacement capturé plusieurs descriptions des formes gouvernementales iraniennes, surpassant les modèles existants en détail et en précision.

Notre recherche met en lumière l'importance d'intégrer les KGs avec les LLMs pour améliorer le raisonnement, surtout dans des scénarios complexes. Bien que notre méthode proposée montre une meilleure performance, il est encore crucial d'aborder les défis liés à l'application dans le monde réel et à la nécessité de sources de connaissance externes de haute qualité.

En conclusion, notre méthode de récupération-exploration représente un progrès significatif dans l'amélioration du raisonnement des LLMs en utilisant des connaissances structurées provenant des KGs. La capacité de guider le raisonnement et d'améliorer la récupération des connaissances répond efficacement aux limitations précédentes, ouvrant la voie à des résultats plus fiables et transparents dans diverses applications. Les travaux futurs se concentreront sur le test de notre méthode dans des scénarios plus diversifiés et l'optimisation des processus pour réduire encore les demandes computationnelles tout en maintenant la précision.

Source originale

Titre: FiDeLiS: Faithful Reasoning in Large Language Model for Knowledge Graph Question Answering

Résumé: While large language models (LLMs) have achieved significant success in various applications, they often struggle with hallucinations, especially in scenarios that require deep and responsible reasoning. These issues could be partially mitigate by integrating external knowledge graphs (KG) in LLM reasoning. However, the method of their incorporation is still largely unexplored. In this paper, we propose a retrieval-exploration interactive method, FiDelis to handle intermediate steps of reasoning grounded by KGs. Specifically, we propose Path-RAG module for recalling useful intermediate knowledge from KG for LLM reasoning. We incorporate the logic and common-sense reasoning of LLMs and topological connectivity of KGs into the knowledge retrieval process, which provides more accurate recalling performance. Furthermore, we propose to leverage deductive reasoning capabilities of LLMs as a better criterion to automatically guide the reasoning process in a stepwise and generalizable manner. Deductive verification serve as precise indicators for when to cease further reasoning, thus avoiding misleading the chains of reasoning and unnecessary computation. Extensive experiments show that our method, as a training-free method with lower computational cost and better generality outperforms the existing strong baselines in three benchmarks.

Auteurs: Yuan Sui, Yufei He, Nian Liu, Xiaoxin He, Kun Wang, Bryan Hooi

Dernière mise à jour: 2024-05-22 00:00:00

Langue: English

Source URL: https://arxiv.org/abs/2405.13873

Source PDF: https://arxiv.org/pdf/2405.13873

Licence: https://creativecommons.org/licenses/by-nc-sa/4.0/

Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.

Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.

Plus d'auteurs

Articles similaires