Traiter l'ambiguïté dans les réponses aux questions
Une nouvelle base de données améliore la précision des réponses pour les questions vagues en utilisant des données de Wikipédia.
― 9 min lire
Table des matières
Beaucoup de Questions qu'on rencontre peuvent être floues ou déroutantes, ce qui entraîne différentes Réponses selon l'interprétation qu'on en fait. Par exemple, demander : "Où se trouve le stade des Michigan Wolverines ?" peut donner des réponses différentes selon que ça parle de foot ou de basket. Ça complique la recherche de la bonne réponse, vu qu'on doit souvent saisir les différents sens derrière la même question.
Pour résoudre ce souci, des chercheurs ont développé une nouvelle méthode pour répondre à ces questions ambiguës en utilisant une grande base de données créée à partir de Wikipedia. Cette base contient plein de questions claires et spécifiques qui aident à obtenir les bonnes réponses. Plus grande que les anciennes Bases de données, elle contient des questions plus faciles à interpréter.
Ambiguïté
Le défi de l'Les questions en open-domain, qui peuvent venir de n'importe quel sujet, manquent souvent de clarté. Du coup, il peut y avoir plusieurs réponses pour une seule question. Trouver la bonne réponse nécessite de comprendre le contexte de la question. Par exemple, l'état d'une équipe peut être interprété différemment selon le sport. Alors que les recherches existantes se concentraient sur une seule réponse correcte, beaucoup de questions ont plusieurs réponses valables.
Récemment, plusieurs ensembles de données ont été créés pour vérifier si les modèles peuvent prédire toutes les réponses possibles et clarifier pourquoi elles diffèrent. Cependant, ces tâches peuvent être difficiles pour les systèmes actuels, car elles impliquent de rassembler différentes informations.
Traditionnellement, les modèles les plus performants cherchaient d'abord des Passages dans une grande collection de textes, puis extrayaient la réponse. Bien que cette méthode soit efficace, elle échoue parfois à fournir des réponses diverses, car beaucoup de passages principaux peuvent laisser entendre les mêmes réponses. Augmenter le nombre de passages récupérés peut aider, mais ça ralentit et rend le processus de réponse plus coûteux.
Comme approche différente, les chercheurs essaient d'utiliser des paires de questions et de réponses au lieu de longs passages. Cette stratégie permet une récupération plus rapide et augmente la possibilité de trouver les bonnes réponses, car les questions plus courtes sont plus faciles à extraire.
Création d'une nouvelle base de données de questions
Dans leur étude, les chercheurs ont créé une nouvelle base de données à partir de Wikipedia, qui comprend environ 127 millions de questions et 137 millions de réponses. Cette base est conçue pour soutenir les réponses aux questions ambiguës en fournissant une source riche de questions sans ambiguïté. Environ 5,8 millions de questions dans cette base ont plusieurs réponses, et cela améliore significativement le rappel des réponses par rapport aux anciennes bases de données.
Le processus de création de cette base se déroule en trois étapes principales : trouver des réponses potentielles, générer des questions et vérifier ces questions. En utilisant un système qui cherche des réponses dans les articles Wikipedia, les chercheurs visent à créer une base qui pourra traiter de nombreuses questions avec des significations variées.
Étape 1 : Trouver des réponses
La première étape consiste à parcourir divers passages de Wikipedia pour trouver des réponses potentielles. Chaque passage contient de nombreuses informations, ce qui signifie que des questions peuvent être formées sous différents angles. Le système détecte les réponses possibles avant de générer les questions correspondantes.
En utilisant un modèle spécifique, les chercheurs peuvent identifier ces réponses à partir des passages. Ils rassemblent un nombre énorme de réponses-283 millions au total-à partir de 21 millions de passages distincts de Wikipedia. Cette étape est cruciale car elle construit la fondation pour les questions qui suivront.
Étape 2 : Générer des questions
Une fois les réponses identifiées, la prochaine étape est de créer des questions basées sur ces réponses. Cette partie nécessite d'entraîner un modèle à formuler des questions qui se relatent directement aux réponses détectées. Pour une réponse détectée, le modèle génère une question correspondante.
Par exemple, si la réponse est "Michigan Stadium," une question pourrait être : "Où se trouve le stade ?". En répétant la réponse détectée dans la formulation de la question, la qualité des questions s'améliore, car elles se rapprochent davantage des réponses.
Les chercheurs ont utilisé un ensemble spécifique de questions d'études précédentes pour entraîner leurs systèmes. L'objectif était de créer des questions qui sonnent naturelles, pertinentes et simples. Cette étape réduit considérablement l'ambiguïté dans les questions générées par rapport aux anciennes méthodes.
Étape 3 : Vérifier les questions
Après avoir généré les questions, une étape de vérification est nécessaire pour s'assurer qu'elles sont valides. Certaines questions peuvent ne pas avoir de réponse claire dans les passages, tandis que d'autres pourraient se rapporter à des réponses incorrectes. Pour y remédier, les chercheurs utilisent un modèle conçu pour vérifier les réponses prédites pour chaque question par rapport aux passages d'origine.
Si la réponse prédite n'existe pas dans le passage ou ne correspond pas à la réponse originale, cette question est écartée. Cette vérification minutieuse laisse environ 156 millions de questions qui sont plus susceptibles d'être correctes et pertinentes.
Récupérer des réponses diverses
Un problème majeur pour la récupération d'informations est le manque de diversité parmi les résultats. La nouvelle approche de récupération de questions au lieu de passages aide à augmenter la variété des réponses trouvées. Cette méthode indirecte permet d'obtenir des réponses plus efficaces pour des questions avec plusieurs réponses possibles.
En utilisant des modèles de récupération établis, les chercheurs relient les questions d'entrée aux questions générées dans la base. Quand une question est posée, le système récupère des questions similaires sur la base de l'entrée, puis les relie aux passages d'où ces questions proviennent.
Cette nouvelle méthode montre des améliorations dans la recherche de réponses diverses, car elle entraîne de meilleurs résultats de rappel à travers différents ensembles de données.
Génération de réponses longues
Quand on répond à des questions ambiguës compliquées, au-delà de simplement lister des réponses, fournir du contexte est essentiel. Par exemple, avec la réponse, il est important de préciser à quel sport elle se rapporte. Un système conçu pour générer des réponses longues résume diverses réponses en paragraphes cohérents, expliquant différents interprétations.
Pour enrichir les informations incluses dans ces réponses longues, les chercheurs récupèrent des passages supplémentaires de Wikipedia qui fournissent du contexte. Cette approche combinée améliore la qualité des réponses, car elle garantit qu'elles sont complètes et informatives.
Réviser les questions pour plus de clarté
Bien que les questions générées soient généralement claires, les chercheurs ont exploré des méthodes pour les rendre encore plus informatives. Ils ont entraîné un modèle pour modifier les questions afin d'améliorer leur clarté en ajoutant des informations des passages sources.
Par exemple, si la question originale était quelque chose comme "Où se trouve le stade ?", une version révisée pourrait préciser : "Où se trouve le stade de l'équipe de football masculin des Michigan Wolverines, construit en 1927 ?" Ce type de révision aide à transmettre plus d'informations directement liées aux réponses.
Résultats de l'approche
Lors de l'évaluation de cette approche, plusieurs expériences ont été menées pour mesurer son efficacité. Le premier objectif était de voir si la récupération à partir de la nouvelle base de données augmente le rappel des réponses parmi les questions ambiguës. Il a été constaté que cette nouvelle méthode boostait effectivement le rappel des bonnes réponses.
Ensuite, l'efficacité de la génération de réponses longues a été testée. L'approche d'inclusion de questions révisées a entraîné une meilleure performance, les modèles montrant de meilleurs résultats lorsqu'ils utilisaient des questions concises et spécifiques aux côtés des réponses récupérées. Cette vérification indique que la méthode améliore la capacité du modèle à résumer et clarifier les différences entre les différentes réponses aux requêtes ambiguës.
Conclusion
La recherche démontre la valeur d'une nouvelle base de données créée à partir de questions générées à l'aide de Wikipedia. Cette ressource améliore non seulement la capacité à répondre à des questions ambiguës, mais offre également un moyen efficace de récupérer des informations diverses et pertinentes. À mesure que ce domaine continue de se développer, de telles méthodes pourraient mener à encore plus d'avancées dans notre interaction avec et notre compréhension des questions complexes.
En employant une approche systématique basée sur la création de questions claires et sans ambiguïté, on peut mieux relever les défis posés par l'ambiguïté dans le questionnement en open-domain. Globalement, cette recherche ouvre de nouvelles possibilités pour l'avenir du questionnement et de la récupération d'informations, ouvrant la voie à des systèmes plus efficaces et performants dans le domaine du traitement du langage naturel.
Titre: Answering Ambiguous Questions with a Database of Questions, Answers, and Revisions
Résumé: Many open-domain questions are under-specified and thus have multiple possible answers, each of which is correct under a different interpretation of the question. Answering such ambiguous questions is challenging, as it requires retrieving and then reasoning about diverse information from multiple passages. We present a new state-of-the-art for answering ambiguous questions that exploits a database of unambiguous questions generated from Wikipedia. On the challenging ASQA benchmark, which requires generating long-form answers that summarize the multiple answers to an ambiguous question, our method improves performance by 15% (relative improvement) on recall measures and 10% on measures which evaluate disambiguating questions from predicted outputs. Retrieving from the database of generated questions also gives large improvements in diverse passage retrieval (by matching user questions q to passages p indirectly, via questions q' generated from p).
Auteurs: Haitian Sun, William W. Cohen, Ruslan Salakhutdinov
Dernière mise à jour: 2023-08-16 00:00:00
Langue: English
Source URL: https://arxiv.org/abs/2308.08661
Source PDF: https://arxiv.org/pdf/2308.08661
Licence: https://creativecommons.org/licenses/by-sa/4.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.