Simple Science

La science de pointe expliquée simplement

# Informatique # Intelligence artificielle # Calcul et langage

Comprendre la théorie de l'esprit dans l'IA

Comment l'IA apprend à lire les pensées et émotions humaines.

Eitan Wagner, Nitay Alon, Joseph M. Barnby, Omri Abend

― 7 min lire


IA et théorie de l'esprit IA et théorie de l'esprit pensées et les émotions humaines ? L'IA peut vraiment comprendre les
Table des matières

La Théorie de l'esprit (ToM) fait référence à la capacité de reconnaître et de comprendre les pensées, croyances et intentions des autres. Cette compétence est cruciale, pas seulement pour les humains, mais aussi pour le développement de l'intelligence artificielle (IA) avancée. La discussion autour de la ToM dans l'IA a pris de l'ampleur, surtout avec l'arrivée des grands modèles linguistiques (LLMs). Ces modèles sont conçus pour traiter et générer du texte semblable à celui des humains, mais leur capacité à "comprendre" les signaux sociaux est encore examinée.

C'est quoi la théorie de l'esprit ?

La ToM est la compétence humaine qui nous permet de prédire comment les autres pourraient agir en fonction de ce que l'on pense qu'ils croient ou savent. Imagine une partie d'échecs. Tu te dis, "Si je déplace mon cavalier ici, mon adversaire pourrait penser que je prévois de prendre son pion." Là, tu lis dans l'esprit de ton adversaire, même si ce n'est qu'un pressentiment.

Pour l'IA, en particulier les LLMs, les choses deviennent un peu plus compliquées. Ces modèles sont formés pour prédire et générer du texte en fonction des entrées qu'ils reçoivent. Ils n'ont pas de sentiments ou de croyances propres, mais ils peuvent imiter le langage humain selon des patterns. Cependant, peuvent-ils vraiment comprendre quand appliquer cette compétence de lecture d'esprit ?

Les étapes de la théorie de l'esprit

La ToM nécessite deux étapes principales :

  1. Décider d'utiliser la ToM : L'IA doit d'abord reconnaître si elle doit prendre en compte les pensées des autres dans une situation. C'est comme décider s'il vaut la peine d'essayer de lire l'ambiance avant de dire quelque chose de gênant à une fête.

  2. Faire une bonne Inférence : Une fois la décision prise, l'IA doit deviner avec précision ce que les autres pensent ou ressentent. C'est comme comprendre que ton pote est contrarié parce qu'il n'a pas eu la promotion qu'il voulait, même s'il dit tout ce qu'il faut.

Défis dans l'évaluation de la ToM dans l'IA

Les chercheurs ont identifié que de nombreux tests se concentrent principalement sur la capacité de l'IA à attribuer correctement des croyances aux autres, comme savoir si quelqu'un sait où une balle est cachée. Cependant, ces tests ignorent souvent si l'IA peut différencier ses propres pensées de celles d'une autre entité. C'est un peu comme demander à quelqu'un, "Tu sais où est ta voiture ?" et il répond comme si tu parlais de sa voiture à lui.

Une grande question est de savoir si les LLMs peuvent vraiment "savoir" quand considérer ce que les autres pourraient penser. S'ils ne peuvent pas faire la différence entre leurs propres pensées et celles d'un autre, cela pourrait mener à des conclusions assez ridicules.

Les types d'Erreurs dans la ToM

Quand les LLMs essaient de s'engager dans la ToM, ils peuvent rencontrer plusieurs types d'erreurs, qu'on peut regrouper en catégories :

  • Erreur de type A : L'IA pense qu'il est nécessaire d'invoquer la ToM mais se trompe.
  • Erreur de type B : L'IA ne réalise pas qu'elle devrait utiliser la ToM au départ.
  • Erreur de type C : Le raisonnement est défaillant, peu importe si la ToM a été invoquée.

Par exemple, si on demande à une IA pourquoi un ami n'a pas répondu à un message, et qu'elle devine qu'il est occupé à travailler alors qu'il était en fait endormi, c'est une erreur de type C.

Benchmarks actuels dans la recherche sur la ToM

Les chercheurs ont créé des benchmarks inspirés de jeux d'esprit classiques. Un test populaire est le task Sally-Anne, où une personne doit identifier des croyances fausses. Dans ce test, Sally cache une balle, et Anne la déplace sans que Sally le sache. Le test mesure si quelqu'un peut comprendre que Sally croira toujours que la balle est à son emplacement d'origine.

Malgré l'ingéniosité de ces tests, beaucoup restent statiques et ne reflètent pas comment les décisions évoluent dans des interactions en temps réel. Imagine que chaque fois que tu as une conversation, tu te concentres seulement sur ce qui a été dit et que tu ne modifies jamais tes pensées au fur et à mesure que le dialogue progresse. Ça sonne un peu awkward, non ?

Améliorer la ToM dans les LLMs

Il y a plusieurs façons dont les chercheurs essaient d'améliorer les capacités de ToM dans les LLMs :

  • Add-ons de ToM : Ce sont des composants supplémentaires qui aident les LLMs à améliorer leurs performances dans les tâches de ToM. Ils n'évaluent pas directement la ToM mais aident plutôt les LLMs à mieux répondre dans des contextes sociaux.

  • Probing linéaire : Cette technique teste à quel point les LLMs comprennent les états mentaux en formant des modèles simples sur leurs couches internes. Penses-y comme à vérifier le moteur d'une voiture pour voir s'il fonctionne bien.

  • Modèles formels de ToM : Certains chercheurs abordent la ToM comme un problème d'apprentissage. Ils examinent comment une IA peut inférer les objectifs d'un autre agent en fonction de ses actions. Ça ressemble à essayer de deviner la surprise d'anniversaire d'un pote juste en observant son comportement.

Ce que la science cognitive peut apprendre à l'IA

La science cognitive étudie la ToM chez les humains depuis longtemps. En appliquant ces connaissances à l'IA, les chercheurs visent à créer des LLMs qui peuvent adapter leur niveau de Mentalisation en fonction des différentes situations. En termes plus simples, ils veulent que l'IA puisse décider si elle doit penser aux intentions des autres ou se limiter aux faits.

Par exemple, si deux personnes jouent ensemble à un jeu de société, elles coopèrent généralement et peuvent supposer que l'autre connaît les règles. Mais si un élément de compétition entre en jeu, un niveau plus profond de mentalisation pourrait être nécessaire pour anticiper les stratégies de l'adversaire.

Les coûts de la mentalisation

Un point important est que la mentalisation demande des ressources, comme du temps et de l'énergie. Les humains ont des limites sur combien on peut réfléchir profondément sur les pensées des autres sans se fatiguer. Bien que les LLMs ne se fatiguent pas, ils ont quand même des limites pratiques et des complexités à gérer.

Le besoin de tests interactifs

Et maintenant, où va-t-on ? L'avenir de la ToM dans l'IA réside probablement dans le développement de tests qui nécessitent une vraie interaction. Jusqu'à présent, de nombreux benchmarks se sont concentrés sur des scénarios statiques. En introduisant des interactions dynamiques, l'IA pourra montrer sa capacité à adapter sa mentalisation en temps réel.

Imagine un assistant virtuel qui apprend avec le temps à mieux lire tes émotions, en ajustant ses réponses selon ton humeur. Plutôt que de simplement répondre à tes questions, il pourrait devenir un partenaire de conversation qui te comprend vraiment.

Conclusion : La route à suivre

Pour résumer, comprendre la théorie de l'esprit dans l'IA est un défi multifacette. Les chercheurs travaillent dur pour combler le fossé entre les capacités cognitives humaines et la manière dont l'IA traite l'information. Les benchmarks actuels ont leurs limites, et beaucoup de chercheurs s'accordent à dire que de nouvelles approches sont nécessaires pour évaluer à quel point les LLMs peuvent comprendre et incarner la ToM.

L'objectif est de créer une IA capable d'interagir de manière plus naturelle et efficace avec les humains. À mesure que les chercheurs continuent d'explorer et de peaufiner les applications de la ToM dans l'IA, on peut s'attendre à un futur où nos interactions avec les machines semblent moins mécaniques et plus humaines. Après tout, qui ne voudrait pas d'un pote virtuel qui le comprend vraiment, sans les petites conversations gênantes ?

Articles similaires