Simple Science

La science de pointe expliquée simplement

# Biologie# Comportement animal et cognition

Le rôle de la mémoire défaillante dans la prise de décision

Explorer comment une mémoire imparfaite peut aider à prendre des décisions dans des situations incertaines.

― 8 min lire


Mémoire défaillante aideMémoire défaillante aideà la prise de décisionincertains.choix dans des environnementsUne mémoire imparfaite améliore les
Table des matières

Nos cerveaux ne sont pas des systèmes parfaits pour traiter les infos. Ils ont des limites sur la façon dont ils se souviennent et rappellent ce qu'on vit au quotidien. Parfois, les erreurs dans notre façon de penser semblent pas utiles, mais d'autres fois, elles peuvent nous aider à prendre de meilleures décisions, surtout quand c'est flou. Les recherches montrent qu'un peu de bruit dans notre pensée peut en fait nous aider à apprendre et à découvrir de nouvelles choses. Pourtant, la plupart des modèles qui essaient de comprendre comment on prend des décisions considèrent souvent le bruit juste comme une erreur, ce qui ne montre pas toute l'étendue du problème.

Cet article pose une question simple : Et si les erreurs de notre cerveau nous aidaient en fait à faire de bons choix quand les choses sont incertaines ? Prendre des décisions dans des situations qui changent tout le temps nous oblige à apprendre tout le temps, et c'est dans ces moments-là que des erreurs aléatoires pourraient être vraiment utiles. Mais les modèles actuels de prise de décision supposent généralement qu'on se souvient des récompenses à la perfection. Au lieu de ça, on a développé une nouvelle idée qu'on appelle "Programmes de Mémoire Imparfaite" (PMI), qui se rappellent intentionnellement des récompenses passées d'une manière qui reflète comment notre cerveau fonctionne peut-être vraiment.

Comment fonctionnent les PMI

Les PMI prennent des décisions en suivant un processus en deux étapes. D'abord, ils se rappellent des résultats passés à travers un système de mémoire bruyante. Ensuite, en fonction de ce dont ils se souviennent, ils décident s'ils restent sur le même choix ou s'ils essaient quelque chose de nouveau.

Les PMI se rappellent des récompenses passées de manière à équilibrer deux objectifs principaux : D'abord, se rappeler des événements passés pertinents qui se sont produits récemment, et ensuite, garder le processus de rappel d'infos simple. Ils adaptent leur rappel de mémoire pour essayer de minimiser les erreurs tout en gardant la complexité faible. Cela signifie que parfois, ils choisissent des souvenirs un peu plus vieux si ça les aide à penser clairement.

Échantillonnage des Récompenses

Dans la première étape, les PMI échantillonnent les récompenses de leur mémoire d'une manière qui essaie de rappeler les infos les plus utiles de leurs expériences passées. Ils se rappellent des récompenses qui se sont produites à différents moments, mais ils savent que plus une récompense date, moins elle est pertinente. Quand ils ne se souviennent pas d'une récompense passée - comme quand ils font leur premier choix - ils choisissent au hasard une récompense avec laquelle travailler.

Dans la deuxième étape, les PMI utilisent ce dont ils se souviennent pour prendre une décision. Si la récompense précédente était bonne, ils restent sur la même action. Si elle n'était pas bonne, ils explorent une autre option.

Tester les PMI dans Différentes Tâches

On a mis les PMI à l'épreuve dans trois tâches de prise de décision différentes. Ces tâches sont courantes pour étudier comment les humains et les animaux font des choix. Les tâches impliquent de prendre des décisions quand les récompenses changent avec le temps, ce qui signifie que les décideurs doivent adapter leurs choix régulièrement.

  1. Tâche du Bandit Insatisfait : Dans cette tâche, les probabilités de récompense pour chaque option changent aléatoirement au fil du temps.
  2. Tâche de la Loi de Correspondance : Dans cette tâche, les décideurs tendent à aligner leurs choix aux taux de récompense qu'ils voient.
  3. Tâche d'Apprentissage par Inversion Probabiliste : Cette tâche implique d'inverser les récompenses élevées et basses après certains points.

Dans toutes ces tâches, les PMI ont bien performé, parfois même mieux que des agents qui se rappellent tout parfaitement.

Performance des PMI

Quand on a regardé comment les PMI ont performé, on a trouvé que leur performance dépendait d'un paramètre spécifique, qu'on appelle le paramètre de température inverse. Quand cette valeur était très élevée, les PMI agissaient presque parfaitement. Quand elle était très basse, ils avaient du mal à se rappeler des récompenses passées, ce qui menait à de moins bonnes décisions. Les meilleurs résultats se produisaient à une valeur intermédiaire, où ils continuaient à bien faire tout en ayant moins de choix qui avaient besoin de changer.

On a aussi comparé les PMI à d'autres agents de prise de décision, comme celui qui choisit toujours la meilleure option et un agent au choix aléatoire. Bien que les PMI se soient légèrement moins bien comportés que le meilleur décideur, ils ont quand même surpassé les agents aléatoires et ont montré qu'ils pouvaient être efficaces dans des situations incertaines.

Histoire des Récompenses et Choix

La plupart des modèles de prise de décision supposent que les gens calculent la valeur de leurs options en combinant les récompenses passées. Cependant, les PMI ne utilisent pas cette méthode pour calculer quelles options sont les meilleures. Pourtant, ils peuvent générer une sorte de "mémoire de récompense" basée sur comment ils se rappellent mal. Quand on a étudié les choix des PMI, on a trouvé que leur mémoire des récompenses passées montrait une dégradation rapide, ce qui signifie que les dernières récompenses avaient un plus grand impact sur leurs choix que les plus anciennes.

Leur capacité à se rappeler dépendait aussi de la manière dont ils décidaient de peser leurs souvenirs. Dans des environnements moins changeants, ils montraient un avantage clair par rapport aux modèles de mémoire parfaite, car ils pouvaient faire de meilleures prévisions sur quelles options sélectionner.

Correspondance vs. Maximisation des Récompenses

Quand on a regardé comment les PMI prenaient des choix dans une tâche conçue pour tester leur comportement de correspondance et de maximisation, on a trouvé des résultats intéressants. Ils avaient tendance à aligner leurs choix au taux de récompenses disponibles, ce qui est similaire à comment les décideurs biologiques se comportent dans la vraie vie. Cependant, les PMI montraient une légère tendance à choisir l'option à plus forte récompense par moments, indiquant qu'ils pouvaient changer leur stratégie selon la situation.

On a aussi testé les PMI dans un scénario où les récompenses changeaient parfois de place. Pendant les périodes stables, les PMI se sont mieux débrouillés que les agents qui se rappellent tout parfaitement, car ils pouvaient s'en tenir à l'option de la plus grande valeur même en présence de bruit. Cependant, pendant les périodes où les récompenses changeaient, les PMI s'adaptaient plus rapidement, montrant qu'ils pouvaient apprendre de leurs erreurs vite.

La Valeur de la Mémoire Imparfaite

Les PMI ont montré qu'ils pouvaient stocker et récupérer des infos pour prendre des décisions efficacement. Ils ont bien performé dans des tâches de prise de décision qui impliquaient de l'incertitude et ont montré que la mémoire défaillante ne gêne pas forcément la performance. Leur façon d'utiliser la mémoire - en équilibrant les erreurs et en gardant les choses simples - les a aidés dans les tâches, et ils ont même montré des traits comme rester fidèles à leurs décisions et une légère tendance à maximiser leurs récompenses.

Développer la Mémoire Imparfaite

L'idée que la mémoire imparfaite peut avoir de vrais avantages va au-delà de cette étude. Ça donne des pistes sur comment nos cerveaux fonctionnent et comment on peut améliorer les systèmes de prise de décision. En laissant un peu de place pour l'erreur dans la mémoire, on peut créer des systèmes qui pourraient mieux apprendre dans des environnements complexes et s'adapter à de nouvelles infos au fil du temps.

Implications Futures

Cette recherche nous donne de l'espoir pour la conception de systèmes cognitifs qui reflètent plus fidèlement le comportement humain. En reconnaissant le rôle des erreurs de mémoire, on peut créer des outils de prise de décision plus intelligents ou des systèmes d'intelligence artificielle. Ces outils pourraient être plus flexibles et efficaces en mettant en œuvre des systèmes qui apprennent de leurs expériences, même quand ils ne se rappellent pas tout parfaitement.

Dans l'avenir, examiner la relation entre la mémoire imparfaite et la prise de décision pourrait mener à de nouvelles méthodes en technologie et améliorer notre compréhension de comment on pense et agit dans un monde imprévisible.

Source originale

Titre: "Value" emerges from imperfect memory

Résumé: Whereas computational models of value-based decision-making generally assume that past rewards are perfectly remembered, biological brains regularly forget, fail to encode, or misremember past events. Here, we ask how realistic memory retrieval errors would affect decision-making. We build a simple decision-making model that systematically misremembers the timing of past rewards but performs no other value computations. We call these agents "Imperfect Memory Programs" (IMPs) and their single free parameter optimizes the trade-off between the magnitude of error and the complexity of imperfect recall. Surprisingly, we found that IMPs perform better than a simple agent with perfect memory in multiple classic decision-making tasks. IMPs also generated multiple behavioral signatures of value-based decision-making without ever calculating value. These results suggest that mnemonic errors (1) can improve, rather than impair decision-making, and (2) provide a plausible alternative explanation for some behavioral correlates of "value".

Auteurs: Jorge Ramírez-Ruiz, J. Ramirez-Ruiz, B. Ebitz

Dernière mise à jour: 2024-05-27 00:00:00

Langue: English

Source URL: https://www.biorxiv.org/content/10.1101/2024.05.26.595970

Source PDF: https://www.biorxiv.org/content/10.1101/2024.05.26.595970.full.pdf

Licence: https://creativecommons.org/licenses/by-nc/4.0/

Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.

Merci à biorxiv pour l'utilisation de son interopérabilité en libre accès.

Articles similaires