Simple Science

La science de pointe expliquée simplement

# Informatique# Calcul et langage# Intelligence artificielle

Identifier les incohérences factuelles dans un texte

Une nouvelle méthode pour détecter et expliquer les incohérences factuelles dans le texte.

― 7 min lire


Incohérences factuellesIncohérences factuellesdans le textedans la langue.Détecter et expliquer les incohérences
Table des matières

La cohérence factuelle est super importante quand on crée des documents de qualité. Ça s'applique surtout aux systèmes qui génèrent automatiquement du texte, comme les outils de résumé, les systèmes de questions-réponses et les agents conversationnels. Cependant, détecter les Incohérences factuelles de manière automatique n'a pas été beaucoup étudié. La plupart des efforts actuels se concentrent sur la détection des fake news en utilisant une base de connaissances ou sur la recherche de contradictions larges dans les phrases. Il y a eu peu de travaux sur l'identification et l'explication des différents types d'incohérences factuelles dans le texte sans se baser sur une base de connaissances.

Dans cette discussion, on définit cinq types d'incohérences factuelles qui peuvent survenir dans les phrases. On introduit aussi un nouveau jeu de données contenant des exemples de ces incohérences, qui aidera à former des modèles capables de les identifier et de les expliquer.

Types d'incohérences factuelles

Pour aborder le problème des incohérences factuelles, on a créé une classification claire de cinq types différents. Ces types aident à identifier la nature de l'incohérence présente dans le texte. Les cinq types sont les suivants :

  1. Incohérences simples : Ce sont des contradictions directes où une affirmation s'oppose directement à une autre. Par exemple, "John a réussi le test" contre "John a échoué au test."

  2. Incohérences graduables : Celles-ci impliquent des adjectifs ou des références qui ne se contredisent pas directement mais montrent plutôt des degrés contrastants. Un exemple serait "Il fait très chaud" et "Il fait très froid," car ils se réfèrent à des extrêmes opposés d'une échelle de température.

  3. Relations taxonomiques : Ce type inclut des incohérences qui surgissent des relations au sein des catégories, comme "Chien" contre "Chat," où les deux font partie de la même catégorie plus large d'animaux de compagnie.

  4. Négation : Ces incohérences sont dues à des termes négatifs explicites dans une phrase. Par exemple, "Je n'aime pas le chocolat" contre "J'aime le chocolat."

  5. Incohérences basées sur un ensemble : Ça implique une affirmation qui contredit un ensemble d'objets auquel elle n'appartient pas, comme "Un rouge-gorge ne peut pas être un poisson."

Le jeu de données

On a créé un nouveau jeu de données contenant un total de 8 055 exemples d'incohérences factuelles. Chaque exemple se compose de deux phrases : une affirmation et une phrase de contexte, annotées avec le type d'incohérence et ses détails spécifiques. Le jeu de données aide à former des modèles qui peuvent capturer ces incohérences avec précision.

Les phrases du jeu de données proviennent d'une ressource établie qui contient des affirmations vérifiées par rapport à des informations factuelles. On se concentre spécifiquement sur des exemples étiquetés comme des contradictions. Chaque exemple d'incohérence est soigneusement annoté pour montrer le type d'incohérence et des détails supplémentaires nécessaires pour que les modèles apprennent efficacement.

Processus d'annotation

Pour annoter le jeu de données, on a suivi un processus en deux étapes. La première étape était axée sur les aspects syntaxiques, où les annotateurs identifiaient des parties spécifiques des affirmations qui étaient incohérentes avec le contexte. La deuxième étape impliquait une approche plus sémantique, où les annotateurs étiquetaient le type d'incohérence.

Pour maintenir la cohérence, un groupe d'annotateurs formés a travaillé sur le jeu de données, assurant des annotations de haute qualité pour tous les exemples. L'objectif était de fournir des définitions claires et un étiquetage cohérent pour chaque cas d'incohérence.

Formation des modèles

On a entraîné plusieurs modèles neuronaux pour classer ces incohérences factuelles en se basant sur le jeu de données créé. Les modèles étaient conçus pour prédire le type d'incohérence et fournir des explications pour leurs prédictions.

Architecture du modèle

L'architecture de nos modèles impliquait une série d'étapes pour identifier avec précision les incohérences. La première étape se concentrait sur la prédiction des parties incohérentes des phrases d'affirmation et de contexte. Les étapes suivantes consistaient à prédire le type d'incohérence et les types d'entités associés, si applicable.

Différentes architectures de modèle ont été employées, y compris des modèles de compréhension et génératifs. Parmi ceux-ci, certains modèles se sont mieux comportés que d'autres, en particulier dans l'identification des spans de contexte qui étaient incohérents.

Évaluation de la performance

Pour évaluer la performance des modèles, on a utilisé plusieurs métriques d'évaluation. Pour les tâches comme la prédiction de spans, on s'est appuyé sur des métriques comme la correspondance exacte et l'intersection sur union (IoU). Pour les tâches de classification, on a évalué l'exactitude et les scores F1 pondérés.

Les résultats ont montré que bien que la prédiction des types d'incohérence était relativement simple, l'identification des spans de contexte était plus délicate. Les performances des modèles variaient également, certains modèles surpassant d'autres dans différentes tâches.

Défis et observations

Un des principaux défis rencontrés durant la formation des modèles était la complexité inhérente à la détection des incohérences factuelles. Cette complexité provient de la subtilité de la langue et des différentes manières dont les incohérences peuvent se manifester.

On a aussi observé des schémas d'erreurs dans les prédictions faites par les modèles. Par exemple, certains modèles ont mal classé certains types d'incohérences, confondant particulièrement des catégories similaires. Cette confusion souligne le besoin d'une amélioration supplémentaire dans la conception et la formation des modèles.

Analyse des erreurs

Dans notre analyse des erreurs, on a catégorisé les types de fautes faites par les modèles. Cela a inclus l'identification des cas où les modèles n'ont pas réussi à prédire le bon type d'incohérence ou ont mal localisé des spans dans le contexte. Comprendre ces schémas d'échec aidera à affiner les futurs modèles et à améliorer l'exactitude.

Conclusion

Dans cette exploration, on a présenté une nouvelle approche pour identifier et expliquer les incohérences factuelles dans le texte. En créant un jeu de données complet et en employant une série de modèles neuronaux, on a cherché à améliorer la compréhension de comment les incohérences peuvent être détectées dans le langage naturel.

Les résultats démontrent le potentiel de ces modèles pour améliorer la qualité du texte généré automatiquement, le rendant plus fiable et digne de confiance. En avançant, il y a des opportunités pour explorer des contextes multilingues et élargir les capacités de ces modèles pour fonctionner sur de plus gros volumes de texte. Nos efforts continus se concentreront sur l'adressage des défis observés durant la formation des modèles et l'affinement de nos méthodes pour une meilleure précision dans la détection des incohérences.

Source originale

Titre: Neural models for Factual Inconsistency Classification with Explanations

Résumé: Factual consistency is one of the most important requirements when editing high quality documents. It is extremely important for automatic text generation systems like summarization, question answering, dialog modeling, and language modeling. Still, automated factual inconsistency detection is rather under-studied. Existing work has focused on (a) finding fake news keeping a knowledge base in context, or (b) detecting broad contradiction (as part of natural language inference literature). However, there has been no work on detecting and explaining types of factual inconsistencies in text, without any knowledge base in context. In this paper, we leverage existing work in linguistics to formally define five types of factual inconsistencies. Based on this categorization, we contribute a novel dataset, FICLE (Factual Inconsistency CLassification with Explanation), with ~8K samples where each sample consists of two sentences (claim and context) annotated with type and span of inconsistency. When the inconsistency relates to an entity type, it is labeled as well at two levels (coarse and fine-grained). Further, we leverage this dataset to train a pipeline of four neural models to predict inconsistency type with explanations, given a (claim, context) sentence pair. Explanations include inconsistent claim fact triple, inconsistent context span, inconsistent claim component, coarse and fine-grained inconsistent entity types. The proposed system first predicts inconsistent spans from claim and context; and then uses them to predict inconsistency types and inconsistent entity types (when inconsistency is due to entities). We experiment with multiple Transformer-based natural language classification as well as generative models, and find that DeBERTa performs the best. Our proposed methods provide a weighted F1 of ~87% for inconsistency type classification across the five classes.

Auteurs: Tathagata Raha, Mukund Choudhary, Abhinav Menon, Harshit Gupta, KV Aditya Srivatsa, Manish Gupta, Vasudeva Varma

Dernière mise à jour: 2023-06-15 00:00:00

Langue: English

Source URL: https://arxiv.org/abs/2306.08872

Source PDF: https://arxiv.org/pdf/2306.08872

Licence: https://creativecommons.org/licenses/by/4.0/

Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.

Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.

Plus d'auteurs

Articles similaires