Simple Science

La science de pointe expliquée simplement

# Informatique# Calcul et langage

Améliorer le raisonnement logique dans les modèles de langue

Une nouvelle méthode améliore les capacités de raisonnement logique dans les modèles de langage en utilisant la logique propositionnelle.

Tongxuan Liu, Wenjiang Xu, Weizhe Huang, Xingyu Wang, Jiaxing Wang, Hailong Yang, Jing Li

― 7 min lire


La logique booste leLa logique booste leraisonnementles modèles de langage.significativement le raisonnement dansUne nouvelle méthode améliore
Table des matières

Les modèles de langage ont fait de grands progrès dans l'exécution de diverses tâches, mais ils galèrent souvent quand il s'agit de raisonnement logique complexe. Bien qu'il existe des méthodes comme le Chain-of-Thought qui peuvent aider, elles ont toujours des soucis. Un des principaux problèmes est que les conclusions atteintes peuvent ne pas suivre avec précision le raisonnement présenté. Les chercheurs ont cherché à utiliser la Logique propositionnelle pour améliorer les capacités de raisonnement de ces modèles. Cependant, certaines de ces méthodes peuvent perdre des informations importantes lors de l'extraction d'expressions logiques, ce qui conduit à des erreurs de raisonnement.

Dans cet article, on introduit une nouvelle méthode appelée Logic-of-Thought (LoT) prompting. Cette approche utilise la logique propositionnelle pour créer de meilleures informations logiques à partir du contexte d'entrée, puis ajoute ces informations aux prompts utilisés pour les modèles. Cela aide à améliorer les capacités de raisonnement logique des modèles. Le LoT prompting fonctionne bien avec les méthodes existantes et peut s'y ajouter sans problème. Nos expériences montrent que le LoT améliore significativement la performance de diverses méthodes de prompting dans plusieurs tâches de raisonnement logique.

Contexte sur les Modèles de Langage et le Raisonnement

Les Grands Modèles de Langage (LLMs) sont des outils impressionnants pour le traitement du langage naturel. Ils peuvent réaliser une large gamme de tâches, mais leur capacité à gérer la logique et les maths peut être faible. Le Chain-of-Thought prompting permet de décomposer le raisonnement en étapes, ce qui peut renforcer les capacités des modèles. Cependant, au fur et à mesure que les modèles se sont développés, de nouvelles approches ont émergé, comme le Tree-of-Thoughts et le Graph-of-Thoughts. Ces méthodes explorent des structures de raisonnement plus complexes mais rencontrent toujours des défis, particulièrement en termes de fiabilité dans le raisonnement.

Approche Logic-of-Thought

Pour s'attaquer au problème de fiabilité dans le raisonnement, de nombreux chercheurs ont suggéré de combiner les LLMs avec des approches de raisonnement symbolique. Certaines méthodes, comme le Faithful Chain-of-Thought et le Logic-LM, essaient de convertir les problèmes en expressions symboliques, de dériver des résultats en utilisant des outils externes, puis d'expliquer ces résultats avec des LLMs. Malheureusement, ces approches peuvent rencontrer des pertes d'informations, ce qui impacte négativement le processus de raisonnement.

Dans notre méthode LoT proposée, on prend une approche différente. On extrait des propositions et des expressions logiques à partir de l'entrée, on les développe en fonction de règles logiques, puis on les traduit à nouveau en langage naturel. Les informations logiques développées sont ajoutées aux prompts d'origine, ce qui aide à guider le raisonnement du modèle sans perdre le contexte précieux.

Phases de Logic-of-Thought

Le LoT se compose de trois phases principales :

  1. Extraction Logique : On utilise des LLMs pour identifier et extraire des expressions logiques clés du contexte d'entrée. Cela aide à former une base solide pour les informations logiques nécessaires au raisonnement.

  2. Extension Logique : Dans cette phase, on applique des règles de raisonnement logique aux expressions extraites pour créer des informations logiques étendues pouvant être utilisées dans le raisonnement.

  3. Traduction Logique : Enfin, on traduit les informations logiques étendues en langage naturel. Cela garantit que les descriptions logiques sont claires et peuvent être utilisées efficacement dans les prompts pour les LLMs.

Jeux de Données Utilisés pour l'Évaluation

Pour évaluer l'efficacité du LoT, on utilise cinq jeux de données de raisonnement logique : ReClor, LogiQA, RuleTaker, ProofWriter et FOLIO. Chaque jeu de données a des caractéristiques spécifiques qui nous permettent de tester différents aspects du raisonnement logique.

  1. ReClor : Ce jeu de données comprend des questions tirées de tests standardisés comme le LSAT, axées sur le raisonnement déductif.

  2. LogiQA : Cet ensemble se compose de questions écrites par des experts conçues pour évaluer les compétences en raisonnement logique à travers la compréhension de lecture.

  3. RuleTaker : Ce jeu de données est auto-généré, présentant des questions impliquant divers connecteurs logiques.

  4. ProofWriter : Ce jeu de données fournit des questions basées sur des bases de règles, se concentrant sur la logique en langage naturel.

  5. FOLIO : C'est un jeu de données diversifié qui teste le raisonnement en langage naturel, fournissant des exemples avec des annotations de logique du premier ordre.

Configuration Expérimentale

On a réalisé des expériences en utilisant trois modèles pré-entraînés : GPT-3.5-turbo-instruct, GPT-3.5-turbo et GPT-4. Chaque modèle a été testé avec différentes méthodes de prompting, y compris le Direct prompting, Chain-of-Thought (CoT), Self-Consistency (SC), et d'autres.

Expériences Principales

Dans nos expériences principales, on a évalué les méthodes de prompting de base seules et combinées avec le LoT. On a mesuré leur performance à travers les cinq jeux de données. Les résultats ont montré une amélioration constante dans la plupart des cas lorsque le LoT était ajouté.

Comparaison du LoT avec d'Autres Méthodes

On a aussi comparé la performance du LoT avec SatLM, une approche neuro-symbolique. Les résultats ont indiqué que le LoT surpasse le SatLM dans plusieurs méthodes de prompting, mettant en évidence les avantages de notre approche.

Résultats

Les principales conclusions de nos expériences sont les suivantes :

  1. Amélioration de Performance : Combiner le LoT avec des méthodes de prompting existantes a significativement amélioré la performance. Par exemple, LoT+CoT-SC a montré la plus haute précision à travers plusieurs jeux de données.

  2. Amélioration de la Précision : En particulier, le LoT a amélioré la performance de SC sur le jeu de données ReClor de manière impressionnante.

  3. Application Directe : Les résultats indiquent que le LoT, à lui seul, peut atteindre une performance de raisonnement compétitive, montrant son potentiel en tant que méthode autonome.

  4. Robustesse : Le LoT a fourni un processus de raisonnement plus précis, aidant les modèles à surmonter certaines limitations des méthodes existantes.

Conclusion

L'introduction de Logic-of-Thought (LoT) représente une avancée significative dans l'amélioration des capacités de raisonnement logique des LLMs. En extrayant et en étendant efficacement les informations logiques et en les intégrant sans effort dans les prompts, on a fourni un cadre solide pour améliorer le raisonnement dans les modèles de langage.

Les travaux futurs se concentreront sur le raffinement des règles logiques utilisées dans le LoT et l'exploration de relations logiques plus complexes et de connecteurs pour renforcer encore les capacités de raisonnement. Nos découvertes démontrent l'application réussie du LoT à travers diverses tâches de raisonnement logique et suggèrent une direction prometteuse pour le développement continu du raisonnement dans les modèles de langage.


En conclusion, bien que des progrès significatifs aient été réalisés, il reste encore beaucoup de travail à faire. En s'appuyant sur les bases posées par des méthodes comme le LoT, on peut continuer à améliorer les capacités de raisonnement des grands modèles de langage dans des scénarios logiques de plus en plus complexes.

Source originale

Titre: Logic-of-Thought: Injecting Logic into Contexts for Full Reasoning in Large Language Models

Résumé: Large Language Models (LLMs) have demonstrated remarkable capabilities across various tasks but their performance in complex logical reasoning tasks remains unsatisfactory. Although some prompting methods, such as Chain-of-Thought, can improve the reasoning ability of LLMs to some extent, they suffer from an unfaithful issue where derived conclusions may not align with the generated reasoning chain. To address this issue, some studies employ the approach of propositional logic to further enhance logical reasoning abilities of LLMs. However, the potential omissions in the extraction of logical expressions in these methods can cause information loss in the logical reasoning process, thereby generating incorrect results. To this end, we propose Logic-of-Thought (LoT) prompting which employs propositional logic to generate expanded logical information from input context, and utilizes the generated logical information as an additional augmentation to the input prompts, thereby enhancing the capability of logical reasoning. The LoT is orthogonal to existing prompting methods and can be seamlessly integrated with them. Extensive experiments demonstrate that LoT boosts the performance of various prompting methods with a striking margin across five logical reasoning tasks. In particular, the LoT enhances Chain-of-Thought's performance on the ReClor dataset by +4.35%; moreover, it improves Chain-of-Thought with Self-Consistency's performance on LogiQA by +5%; additionally, it boosts performance of Tree-of-Thoughts on ProofWriter dataset by +8%.

Auteurs: Tongxuan Liu, Wenjiang Xu, Weizhe Huang, Xingyu Wang, Jiaxing Wang, Hailong Yang, Jing Li

Dernière mise à jour: 2024-09-26 00:00:00

Langue: English

Source URL: https://arxiv.org/abs/2409.17539

Source PDF: https://arxiv.org/pdf/2409.17539

Licence: https://creativecommons.org/licenses/by/4.0/

Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.

Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.

Plus d'auteurs

Articles similaires

Traitement de l'audio et de la paroleAméliorer la reconnaissance des émotions dans les langues à ressources limitées

Cette étude améliore les systèmes de reconnaissance des émotions pour les langues moins courantes en utilisant des données à forte ressource.

Hsi-Che Lin, Yi-Cheng Lin, Huang-Cheng Chou

― 9 min lire