Simple Science

La science de pointe expliquée simplement

# Informatique# Apprentissage automatique# Intelligence artificielle# Calcul symbolique

Avancées dans le raisonnement AI grâce au RPM

De nouveaux modèles d'IA améliorent les compétences de raisonnement en utilisant des énigmes visuelles.

― 8 min lire


Améliorations duAméliorations duraisonnement IA dans lestâches visuellesl'IA.capacités de raisonnement visuel deDe nouveaux modèles améliorent les
Table des matières

Le Raisonnement abductif est une manière de penser où l'on propose la meilleure explication de ce que l'on observe. Ce type de raisonnement est crucial dans la résolution de problèmes quotidiens et constitue une caractéristique clé de l'intelligence humaine. L'objectif est de prendre des expériences limitées et de les utiliser pour tirer des conclusions qui s'appliquent à de nouvelles situations que nous n'avons pas rencontrées auparavant.

Dans le domaine de l'intelligence artificielle (IA), les chercheurs s'efforcent de construire des machines capables de penser comme des humains, notamment en matière de raisonnement. Une tâche courante utilisée pour tester cette capacité en IA est Les Matrices Progressives de Raven (RPM). Les RPM sont un test visuel où il faut compléter une pièce manquante dans un motif basé sur certaines règles. Cette tâche met au défi les systèmes d'IA de démontrer leur raisonnement en reconnaissant des motifs, en faisant des analogies et en traitant des informations qui ne sont pas directement fournies.

Le défi d'enseigner à l'IA à raisonner

Au fil des ans, de nombreuses méthodes et références ont été développées pour évaluer à quel point l'IA peut imiter les compétences de raisonnement humain. Cependant, il a été constaté qu'atteindre de réelles capacités de raisonnement en IA n'est pas une tâche simple. Bien que certains grands modèles de langage montrent des résultats prometteurs, ils ont souvent du mal à performer aussi bien que les humains. Cela est dû à un manque de compréhension de la manière dont ces capacités de raisonnement fonctionnent en interne.

Les approches récentes en IA combinent des réseaux neuronaux (qui traitent des données de manière similaire au cerveau humain) avec un raisonnement symbolique (utilisant des symboles pour représenter des connaissances). Cette combinaison est appelée IA neuro-symbolique. Ces modèles peuvent mieux performer dans diverses tâches, y compris le Raisonnement Visuel, la compréhension du langage et la résolution de problèmes mathématiques.

Comprendre les Matrices Progressives de Raven (RPM)

Les Matrices Progressives de Raven sont une série d'énigmes visuelles présentées sous forme de matrices. Chaque matrice se compose de plusieurs panneaux remplis de formes géométriques. Un panneau est laissé vide, et la tâche consiste à sélectionner le bon panneau parmi un ensemble d'options qui s'inscrit dans le motif établi par les autres panneaux. Le défi consiste à reconnaître les règles sous-jacentes régissant la disposition des formes.

Les attributs des formes, tels que la couleur, la taille et la position, sont régis par des règles spécifiques. Ces règles peuvent être simples, comme maintenir une couleur cohérente entre les panneaux, ou plus complexes, comme des opérations arithmétiques où la valeur d'un attribut dans un panneau dépend des valeurs des panneaux précédents.

Apprendre à raisonner avec des représentations visuelles

Les modèles d'IA peuvent utiliser des architectures spécifiques pour gérer des tâches de raisonnement visuel. Les architectures vectorielles-symboliques (AVS) sont un type de modèle computationnel qui capture des informations structurées à l'aide de vecteurs de haute dimension. Ces architectures peuvent représenter des connaissances de manière à permettre au modèle d'apprendre à partir des données tout en réalisant des tâches de raisonnement.

En essence, une AVS combine différentes pièces d'information dans un espace vectoriel de haute dimension. Cela permet au modèle de maintenir des relations entre divers points de données et lui permet de faire des prédictions basées sur des motifs appris.

Le rôle de Learn-VRF dans le raisonnement

Learn-VRF est un modèle conçu spécifiquement pour résoudre des énigmes RPM en utilisant les principes de l'AVS. Il apprend les règles qui sous-tendent les tâches à partir des données qu'il reçoit. En apprenant ces règles, le modèle peut générer des solutions pour les tests RPM tout en fournissant des résultats interprétables.

Ce modèle traite les attributs visuels et les traduit dans une forme qui peut être manipulée mathématiquement dans l'espace AVS. L'idée centrale est d'établir des connexions entre les attributs observés dans les RPM et un ensemble général de règles qui les régissent. Cela permet un apprentissage et une résolution de problèmes efficaces sans avoir besoin de connaissances préalables étendues.

Limitations et améliorations des modèles de raisonnement

Bien que Learn-VRF ait réalisé des progrès significatifs, il présente certaines limitations. Le processus de sélection des règles à utiliser peut être suboptimal, entraînant des erreurs dans la résolution de constellations RPM complexes. De plus, l'expressivité des règles qu'il peut apprendre est restreinte, ce qui peut nuire à ses performances.

Pour remédier à ces problèmes, les chercheurs ont proposé des améliorations à l'approche Learn-VRF. Ces améliorations consistent à créer un modèle de règle plus flexible et une formulation consciente du contexte qui permet au modèle d'utiliser des règles partagées à travers différents puzzles RPM. Cela signifie que si une règle est apprise pour un puzzle, elle peut être appliquée à d'autres avec des structures similaires.

Le nouveau modèle pour un raisonnement amélioré

Le nouveau modèle cherche à surmonter les lacunes de Learn-VRF tout en s'appuyant sur ses forces. Il introduit une méthode d'apprentissage augmentée par le contexte, permettant au modèle d'adapter son raisonnement en fonction du contexte fourni par les attributs visuels dans les RPM.

Avec un ensemble unique de règles applicable à divers puzzles RPM, l'architecture nouvellement développée améliore non seulement l'interprétabilité mais réduit également le nombre de paramètres à entraîner par rapport à son prédécesseur. Effectivement, cette rationalisation améliore les performances du modèle tant sur les tests de distribution (données vues) que sur ceux hors distribution (données non vues).

Validation du nouveau modèle

L'efficacité du nouveau modèle de raisonnement est validée par des tests complets sur le jeu de données I-RAVEN, qui contient divers puzzles RPM conçus pour éviter les raccourcis que les modèles précédents auraient pu utiliser. En évaluant sa performance sur des puzzles familiers et nouveaux, les chercheurs peuvent déterminer la robustesse du modèle dans des scénarios réels.

Les résultats indiquent que le nouveau modèle dépasse les références antérieures établies par les approches d'IA neuro-symbolique et connexionniste. Il montre une capacité remarquable à généraliser les règles apprises d'un ensemble de puzzles RPM à un autre, démontrant ainsi son adaptabilité.

Tests en distribution et hors distribution

Les tests en distribution consistent à évaluer la performance du modèle sur les données sur lesquelles il a été entraîné. Les tests hors distribution, en revanche, évaluent la capacité du modèle à gérer de nouveaux types de données qu'il n'a pas vus auparavant. Les deux types de tests sont essentiels pour évaluer les capacités globales du système d'IA.

Le nouveau modèle présente une grande précision dans les deux scénarios, mettant efficacement en avant sa capacité à apprendre et à appliquer des règles pour résoudre des énigmes RPM. Cette performance équilibrée constitue un progrès significatif dans le développement de systèmes d'IA capables de raisonner plus comme des humains.

L'avenir des modèles de raisonnement en IA

En regardant vers l'avenir, les avancées réalisées grâce à cette recherche ouvrent plusieurs voies pour de futures explorations. Un domaine d'intérêt est l'amélioration de la compréhension par le modèle des règles arithmétiques et de progression, qui se sont révélées difficiles à maîtriser complètement. Maîtriser ces règles pourrait conduire à une précision parfaite dans la réalisation des tests RPM.

De plus, appliquer ce cadre de raisonnement à d'autres types de références, telles que celles qui évaluent le raisonnement analogique, peut étendre l'utilité du modèle. En adaptant les principes d'apprentissage conscient du contexte à divers domaines, les chercheurs peuvent développer des systèmes d'IA plus polyvalents capables de relever différents défis de raisonnement.

Conclusion

Le parcours pour créer des machines intelligentes capables de raisonner comme des humains est en cours. Les efforts visant à améliorer le raisonnement abductif à travers des modèles comme Learn-VRF et ses successeurs signalent d'importantes étapes dans cette direction. En continuant à affiner ces systèmes et à explorer de nouvelles techniques, les chercheurs visent à construire des IA capables de comprendre et de résoudre des problèmes complexes dans un large éventail de contextes.

En fin de compte, l'intégration du raisonnement visuel, de la représentation symbolique et des méthodes d'apprentissage avancées constitue une base prometteuse pour le développement futur de l'IA, comblant le fossé entre le raisonnement humain et l'apprentissage machine.

Source originale

Titre: Towards Learning Abductive Reasoning using VSA Distributed Representations

Résumé: We introduce the Abductive Rule Learner with Context-awareness (ARLC), a model that solves abstract reasoning tasks based on Learn-VRF. ARLC features a novel and more broadly applicable training objective for abductive reasoning, resulting in better interpretability and higher accuracy when solving Raven's progressive matrices (RPM). ARLC allows both programming domain knowledge and learning the rules underlying a data distribution. We evaluate ARLC on the I-RAVEN dataset, showcasing state-of-the-art accuracy across both in-distribution and out-of-distribution (unseen attribute-rule pairs) tests. ARLC surpasses neuro-symbolic and connectionist baselines, including large language models, despite having orders of magnitude fewer parameters. We show ARLC's robustness to post-programming training by incrementally learning from examples on top of programmed knowledge, which only improves its performance and does not result in catastrophic forgetting of the programmed solution. We validate ARLC's seamless transfer learning from a 2x2 RPM constellation to unseen constellations. Our code is available at https://github.com/IBM/abductive-rule-learner-with-context-awareness.

Auteurs: Giacomo Camposampiero, Michael Hersche, Aleksandar Terzić, Roger Wattenhofer, Abu Sebastian, Abbas Rahimi

Dernière mise à jour: 2024-08-30 00:00:00

Langue: English

Source URL: https://arxiv.org/abs/2406.19121

Source PDF: https://arxiv.org/pdf/2406.19121

Licence: https://creativecommons.org/licenses/by/4.0/

Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.

Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.

Plus d'auteurs

Articles similaires