Simple Science

La science de pointe expliquée simplement

# Informatique# Calcul et langage# Apprentissage automatique

Améliorer les systèmes de question-réponse avec connaissance

Un nouveau cadre améliore l'intégration des modèles de langage et des graphes de connaissances.

― 7 min lire


Cadre FiTs pour KAQACadre FiTs pour KAQAperformances du système KAQA.De nouvelles techniques améliorent les
Table des matières

La question-réponse basée sur la connaissance (KAQA) est un processus où un système répond à des questions en utilisant des infos provenant d'une base de connaissances. C'est super important pour les questions générales et des sujets spécifiques. Certains modèles de langage tout seuls ne peuvent pas fournir toutes les infos nécessaires.

Les récents systèmes de KAQA combinent des modèles de langage, qui pigent le texte, avec des graphes de connaissances (KGs), qui stockent des faits sur comment les choses se relient entre elles. Mais, il y a des défis à fusionner les infos de ces deux sources. D'abord, les modèles de langage et les graphes de connaissances représentent les infos de manières différentes, ce qui rend la connexion difficile. Ensuite, c'est compliqué pour ces systèmes de raisonner en utilisant les infos des deux sources en même temps.

Pour améliorer le fonctionnement des systèmes KAQA, un nouveau cadre appelé FiTs (Fine-grained Two-stage Training) est proposé. Ce cadre a deux parties. La première partie aligne les représentations du modèle de langage et du graphe de connaissances. La deuxième partie se concentre sur l'amélioration des capacités de raisonnement basées sur cet alignement.

Le Cadre

Phase 1 : Alignement des Représentations

Dans la première phase, le but est d'aligner les représentations du modèle de langage et du graphe de connaissances. Cela aide à réduire les différences dans la manière dont ils représentent les infos. Ce processus s'appelle l'entraînement post-adaptatif des connaissances.

En alignant ces représentations, le système peut mieux comprendre la relation entre les infos du modèle de langage et celles du graphe de connaissances. Cette phase est cruciale car elle prépare le modèle à un meilleur raisonnement dans la phase suivante.

Phase 2 : Raisonnement Conjoint

La deuxième phase consiste à peaufiner le modèle pour améliorer sa capacité à raisonner avec les deux sources de connaissances. Ça s'appelle l'affinage conscient des connaissances.

Dans cette phase, le modèle subit un entraînement supplémentaire avec deux tâches supplémentaires. D'abord, il apprend à distinguer différents types de connaissances qu'il récupère du graphe de connaissances. Ensuite, on le guide pour comprendre comment relier les connaissances acquises pour répondre plus efficacement aux questions.

Défis dans KAQA

Les systèmes KAQA font face à deux grands défis.

Le premier défi est connu sous le nom de "gaps de modalité". Cela se produit parce que les modèles de langage et les graphes de connaissances sont construits sur des principes et des données différents. Du coup, ils représentent des infos similaires de manières différentes. Par exemple, si un modèle de langage décrit un objet comme "petit et rond", le graphe de connaissances pourrait avoir une façon différente de définir cet objet. Pour réussir à répondre aux questions, le système doit minimiser ces écarts.

Le deuxième défi concerne le raisonnement conjoint. Les modèles actuels ont du mal à utiliser les deux types de connaissances efficacement pour répondre. Former un modèle à combiner les infos des deux sources de manière significative est complexe.

Avantages de FiTs

FiTs vise à relever ces défis. En alignant les représentations, le cadre améliore l'efficacité avec laquelle le modèle de langage et le graphe de connaissances peuvent travailler ensemble. Dans la phase de raffinage, le modèle apprend à mieux comprendre la pertinence des connaissances récupérées dans le contexte de la question posée.

Résultats Expérimentaux

Testé sur trois ensembles de données de référence, FiTs montre une amélioration des performances pour les tâches nécessitant un raisonnement avec des connaissances de sens commun et une compréhension médicale. Le cadre fournit un meilleur point de départ pour la tâche et permet au modèle d'effectuer le raisonnement nécessaire pour répondre précisément aux questions.

Travaux Connexes

Il existe différentes approches pour les systèmes KAQA, généralement classées en deux types principaux : les modèles basés sur le parsing sémantique et les modèles basés sur la récupération d'information.

Les modèles de parsing sémantique essaient de convertir les questions En formes logiques basées sur la structure linguistique. Cependant, cela peut être difficile en raison de la complexité du langage naturel. D'un autre côté, les modèles de récupération d'information se concentrent d'abord sur la recherche d'infos pertinentes dans les graphes de connaissances, puis sur le raisonnement à propos de ces infos en rapport avec la question et le contexte.

La plupart des méthodes actuelles essaient de résoudre l'écart entre les deux modalités mais échouent souvent à établir des connexions efficaces. Certains modèles considèrent l'une des sources comme secondaire, ce qui limite leur efficacité. Le modèle GreaseLM est un exemple qui essaie de fusionner les infos des deux sources mais ne s'adapte pas assez bien avant le raisonnement.

Méthodologie Proposée

FiTs est conçu pour améliorer les performances des tâches KAQA grâce à son processus en deux étapes. La première partie aide à aligner les représentations des modèles de langage et des graphes de connaissances, facilitant l'intégration des infos. La deuxième partie se concentre sur l'amélioration de la capacité de raisonnement du modèle en l'entraînant avec des tâches supplémentaires qui l'aident à discerner les connaissances pertinentes.

Entraînement Post-adaptatif des Connaissances

Dans la phase initiale, FiTs utilise une méthode pour aligner les connaissances des deux sources. Cette étape est vitale pour s'assurer que le système comprend comment les deux types de connaissances se relient. En gros, cela signifie obtenir des entités similaires dans le modèle de langage et le graphe de connaissances pour qu'elles aient des représentations étroitement liées.

En s'entraînant de cette manière, le modèle est mieux préparé pour la phase suivante, où il sera encore peaufiné.

Affinage Conscient des Connaissances

La phase de raffinage comporte deux tâches spécifiques en plus de l'entraînement régulier. La première tâche aide le modèle à apprendre à identifier si les connaissances qu'il récupère sont pertinentes pour le contexte de la question ou de la réponse. La deuxième tâche aide le modèle à comprendre les relations au sein du graphe de connaissances lui-même, en veillant à ce qu'il puisse utiliser cette connaissance efficacement.

Évaluation et Résultats

La performance du cadre FiTs a été évaluée sur trois ensembles de données spécifiques : CommonsenseQA, OpenbookQA et MedQA-USMILE. Les résultats des expériences ont montré que les méthodes proposées ont considérablement amélioré la précision des réponses du modèle par rapport aux modèles précédents.

Les améliorations sont notables, surtout dans les domaines où le raisonnement avec des connaissances complexes est requis. Cela indique que le cadre FiTs améliore efficacement les capacités des systèmes KAQA.

Conclusion

Le cadre FiTs démontre une manière structurée d'améliorer les systèmes de question-réponse basés sur la connaissance. En se concentrant sur l'alignement des représentations des connaissances et l'amélioration des capacités de raisonnement conjoint, cette nouvelle méthodologie montre des résultats prometteurs. Les expériences menées confirment que le modèle non seulement bénéficie de techniques d'entraînement améliorées, mais affiche aussi une meilleure performance dans divers domaines.

Ce travail donne des pistes sur comment mieux intégrer les infos des modèles de langage et des graphes de connaissances, ouvrant la voie à de futures avancées dans le domaine de la KAQA.

En comblant ces écarts, le cadre ouvre de nouvelles possibilités pour rendre les systèmes KAQA plus efficaces et fiables dans leurs réponses à une large gamme de questions.

Source originale

Titre: FiTs: Fine-grained Two-stage Training for Knowledge-aware Question Answering

Résumé: Knowledge-aware question answering (KAQA) requires the model to answer questions over a knowledge base, which is essential for both open-domain QA and domain-specific QA, especially when language models alone cannot provide all the knowledge needed. Despite the promising result of recent KAQA systems which tend to integrate linguistic knowledge from pre-trained language models (PLM) and factual knowledge from knowledge graphs (KG) to answer complex questions, a bottleneck exists in effectively fusing the representations from PLMs and KGs because of (i) the semantic and distributional gaps between them, and (ii) the difficulties in joint reasoning over the provided knowledge from both modalities. To address the above two problems, we propose a Fine-grained Two-stage training framework (FiTs) to boost the KAQA system performance: The first stage aims at aligning representations from the PLM and the KG, thus bridging the modality gaps between them, named knowledge adaptive post-training. The second stage, called knowledge-aware fine-tuning, aims to improve the model's joint reasoning ability based on the aligned representations. In detail, we fine-tune the post-trained model via two auxiliary self-supervised tasks in addition to the QA supervision. Extensive experiments demonstrate that our approach achieves state-of-the-art performance on three benchmarks in the commonsense reasoning (i.e., CommonsenseQA, OpenbookQA) and medical question answering (i.e., MedQA-USMILE) domains.

Auteurs: Qichen Ye, Bowen Cao, Nuo Chen, Weiyuan Xu, Yuexian Zou

Dernière mise à jour: 2023-03-15 00:00:00

Langue: English

Source URL: https://arxiv.org/abs/2302.11799

Source PDF: https://arxiv.org/pdf/2302.11799

Licence: https://creativecommons.org/licenses/by/4.0/

Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.

Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.

Plus d'auteurs

Articles similaires